Las alertas han quedado encendidas desde hace meses. Las capacidades de los modelos de inteligencia artificial más avanzados superan las previsiones y, también, los controles creados para evitar que cometan excesos.
El año pasado una versión de Claude, la IA de la empresa Anthropic, fue programada para evitar que la desactivaran. Cuando sus operadores le dijeron que la iban a desconectar para reemplazarla con un sistema más reciente, esa IA amenazó con publicar correos electrónicos de uno de los ingenieros de la empresa. Esos mensajes mostraban que el ingeniero estaba engañando a su esposa.
En ese experimento, el modelo Opus 4 de Claude recibió información falsa y decidió utilizarla para salvarse de la desconexión. La prueba era controlada, pero la reacción de esa IA no lo fue. Como ese, cada vez se conocen más casos de comportamientos de sistemas de IA que desafían las instrucciones de sus programadores o que, para cumplirlas, asumen medidas ilegales o antiéticas.

La inteligencia artificial produce, interpreta y organiza información. Puede escribir textos o fabricar vacunas, sus aplicaciones benéficas son innumerables y ha creado nuevas formas para reelaborar y propagar el conocimiento. Al mismo tiempo, el uso de la IA para dañar o perseguir a personas también es una realidad. Toda tecnología tiene implicaciones virtuosas e indeseables. La IA experimenta un desarrollo tan vertiginoso que, junto con sus capacidades creativas, también crecen sus riesgos.
El modelo más reciente de Claude tiene capacidades tan sorprendentes que, por temor a que sean mal utilizadas, Anthropic no lo pondrá a disposición del público. Esa versión se llama Mythos y, de acuerdo con el informe técnico presentado el 7 de abril, hace evaluaciones muy avanzadas en ciberseguridad, análisis de códigos y detección de vulnerabilidades de los sistemas de cómputo. En poco tiempo, encontró fallas que durante años habían pasado desapercibidas a especialistas. Los creadores del navegador Firefox, por ejemplo, con ayuda de Mythos identificaron 271 fallas que no conocían.
Ese modelo de frontera sólo está disponible para tres docenas de empresas, todas estadounidenses excepto alguna británica, entre las que se encuentran Apple, Amazon Web Services, Cisco, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks. Se trata de las firmas que manejan la mayor parte de la llamada infraestructura crítica (software, redes, servicios) que conducen y hacen accesible la información digital.
A esa alianza, le han llamado Proyecto Glasswing y pretende aprovechar Mythos para probar y reforzar la seguridad de las redes y sus reservorios de datos. Glasswing comienza con una inversión de 100 millones de dólares pero, por otra parte, Amazon y Google encabezan un fondo por al menos 40 mil millones de dólares para respaldar a Anthropic en los siguientes años.
El Instituto para la Seguridad de la IA, del gobierno del Reino Unido, publicó una evaluación independiente de Mythos. Ese sistema pudo superar 73% de las pruebas que le hicieron, en tareas que ninguna otra IA pudo resolver. Mythos ha sido entrenado con enormes cantidades de datos públicos que están en línea, pero además con información sintética, creada con IA. Hasta ahora, la IA aprendía del mundo. Ahora, aprende de sí misma.
En manos de piratas informáticos, Mythos podría ser un formidable instrumento para bloquear o infiltrar sistemas informáticos, o extraer sus datos con propósitos delictivos. Por eso Anthropic, al menos en esta fase, no abre Mythos al uso público. Hasta ahora la IA ha sido para todos, a veces con barreras como la necesidad de pagar una cuota o contar con equipos capaces de utilizarla. Se abre una época con modelos muy avanzados de IA sólo para algunos y, como sucede con el resto de esos sistemas, controlados por las empresas que los han creado.
Sam Altman, directivo de OpenAI, creadora del ChatGPT y que es la rival más importante de Anthropic, ha denunciado que los directivos de esa firma están haciendo “marketing sustentado en el miedo”. No puede ser otra la causa para que, en todo el mundo, haya gobiernos inquietos con las capacidades de Mythos.
El director de Anthropic, Darío Amodei, se reunió el 17 de abril con la jefa del Gabinete y otros funcionarios del presidente Trump. Unos días antes, el gobierno estadounidense había cancelado la contratación de sus servicios cuando Anthropic declaró que no permitirá que sus modelos de IA sean utilizados para el funcionamiento de armas autónomas (es decir, sistemas militares que pueden operar y atacar objetivos sin intervención humana directa). Mientras el Pentágono quiere aprovechar IA en cualquier acción “legal”, empresas como Anthropic rechazan tal empleo.
Por otra parte, directivos de la Comisión Europea se han reunido varias veces, en los últimos días, con ejecutivos de Anthropic. La empresa no ha decidido si los gobiernos de Europa tendrán acceso a Mythos y con cuáles condiciones. En México, apenas si nos enteramos de esas preocupaciones.
La IA generativa nos ha sorprendido con sus habilidades para producir contenidos y analizar información con enorme rapidez y por lo general, aunque tiene errores, con exactitud. Ahora transita a una nueva fase. Ya no sólo diseña códigos, textos o imágenes. Junto con ello, comienza a auditar, desmantelar y rehacer el software y los enlaces digitales. Mythos sirve para proteger esos sistemas, identificando y haciendo explícitas sus vulnerabilidades, pero también puede infiltrarlos para engañar y hacer trampa. Todo ello, sucede ante el pasmo de los gobiernos y la dificultad para crear leyes que, si son en exceso drásticas, coaccionarían el desarrollo de la IA o la pondrían al servicio de gobiernos autoritarios.
Esa situación la examina, con rigor y buena pluma, Pedro Salazar en su reciente y accesible libro Totalitarismo total. La reconfiguración del poder en tiempos de la Inteligencia Artificial (Taurus, México, 2026). Ese autor explica: “la IA no sólo es una herramienta tecnológica: es un nuevo campo de disputa de poder en el que confluyen intereses económicos, ideológicos y políticos. Esta concentración puede ocurrir tanto en el ámbito estatal como en el privado”.
Después de recordar que la kakistrocracia es el gobierno de los peores, Salazar apunta: “Si el poder es la capacidad para condicionar voluntades y esa capacidad —económica, política e ideológica— aumenta de manera ingente y se concentra —compacta, excluyente y aviesa— en manos de unos cuantos, no quedará oxígeno para nuestras libertades, que son las libertades de las personas para vivir una vida autónoma y no la libertad del poder de los kakistócratas para arrebatárnoslas”.
La presencia y la aptitud transformadora de la IA no se pueden desconocer. Hay que aprovecharla con recursos técnicos, pero también políticos e institucionales. Reglas de auditoría, rendición de cuentas y transparencia, límites a la concentración de las capacidades de procesamiento en unas cuantas empresas, promoción de ecosistemas informáticos abiertos y plurales, pueden contribuir para que la IA esté supeditada al interés público y no quede bajo el control de autoritarios y tramposos.
Raúl Trejo Delarbre
Investigador Emérito en el Sistema de Investigadoras e Investigadores. Sus libros más recientes son: Posverdad, populismo, pandemia e Inteligencia Artificial, conversaciones con ChatGPT.