Mythos de Anthropic: qué se sabe del modelo de IA “demasiado peligroso” y si realmente supone un riesgo

Viernes 24 de Abril de 2026
Edición Nº 2774


23/04/2026

Mythos de Anthropic: qué se sabe del modelo de IA “demasiado peligroso” y si realmente supone un riesgo

Tras el anuncio de Anthropic el 7 de abril sobre su último modelo de inteligencia artificial, Mythos, la compañía ha mantenido una decisión inusual: negarse a publicarlo. Desde que OpenAI retuviera temporalmente su modelo GPT-2 en 2019, ningún desarrollador importante había considerado un sistema demasiado peligroso para el público. Más de una semana después, esta decisión sigue teniendo repercusiones en los círculos financieros y regulatorios.

“Las repercusiones —para la economía, la seguridad pública y la seguridad nacional— podrían ser graves”, afirmó Anthropic en su sitio web.

Mientras los funcionarios se esfuerzan por evaluar las implicaciones de las capacidades de pirateo sin precedentes del modelo , los expertos en ciberseguridad están divididos sobre si Mythos representa una ruptura importante con lo anterior o un paso previsible en una senda ya preocupante.

Un documento técnico de 245 páginas, publicado junto con el anuncio, describe lo que la compañía presenta como un gran avance en sus capacidades. El modelo funciona como un ingeniero de software sénior, demostrando la capacidad de detectar errores sutiles y autocorregirlos.

Además, obtuvo una puntuación 31 puntos porcentuales superior a la del anterior modelo de vanguardia de Anthropic, Opus 4.6, en la Olimpiada Matemática USAMO 2026, una exigente competición de dos días basada en demostraciones .


Pero esa misma destreza en programación convierte a Mythos en un arma ofensiva formidable, y Anthropic afirma que puede superar a casi todos los humanos, excepto a los más expertos, en la identificación y explotación de vulnerabilidades de software.

En pruebas, encontró fallos críticos en todos los sistemas operativos y navegadores web de uso común. De esas vulnerabilidades, el 99 % aún no se han corregido. Y Anthropic solo ha revelado una fracción de lo que dice haber encontrado. Evaluaciones independientes sugieren que el peligro es real, aunque más limitado de lo que la empresa ha dado a entender: una evaluación del Instituto de Seguridad de IA del Reino Unido (AISI), al que se le concedió acceso anticipado, descubrió que el modelo tuvo éxito en tareas de pirateo de nivel experto el 73 % de las veces. Antes de abril de 2025, ningún modelo de IA podía completar esas tareas.

En lugar de un lanzamiento público, Anthropic está limitando el acceso a un grupo selecto de organizaciones para que lo utilicen de forma defensiva, permitiéndoles escanear sus redes y corregir los problemas antes de que las vulnerabilidades se hagan públicas. Esta iniciativa se llama Proyecto Glasswing . El grupo inicial incluye a Microsoft, Google, Apple, Amazon Web Services, JPMorgan Chase y Nvidi

Mythos es el primero de una nueva generación de modelos de IA que han sido entrenados en unidades de procesamiento gráfico (GPU) de última generación —los chips avanzados que impulsan el entrenamiento de la IA— y sus capacidades han seguido inquietando a las empresas financieras mucho más allá del anuncio inicial: el jueves, los bancos alemanes dijeron que estaban consultando con las autoridades y los expertos en ciberseguridad sobre los riesgos, mientras que el Banco de Inglaterra dijo que las pruebas de riesgo de la IA se habían intensificado después de que Mythos saliera a la luz.

Sin embargo, la comunidad de ciberseguridad sigue dividida sobre la verdadera gravedad de la amenaza. «El anuncio de Anthropic fue muy impactante y, al menos, un éxito de relaciones públicas», afirma Peter Swire, profesor de la Escuela de Ciberseguridad y Privacidad del Instituto Tecnológico de Georgia y antiguo asesor de las administraciones de Clinton y Obama. Swire señala que, entre sus colegas, «una gran parte de los profesores de ciberseguridad cree que esto era más o menos lo que se esperaba, y que se trata de más de lo mismo».


Ciaran Martin, catedrático de la Blavatnik School of Government de la Universidad de Oxford y exdirector ejecutivo del Centro Nacional de Ciberseguridad del Reino Unido, comparte esa opinión. «Es un asunto importante, pero es improbable que suponga el fin del mundo», afirma. «No me inclinaría por el escenario más apocalíptico».

AISI reconoció las limitaciones de las capacidades de la IA. Durante las pruebas, Mythos se enfrentó a defensas de software prácticamente inexistentes que carecían de muchas protecciones presentes en el mundo real; un escenario que Martin compara con el de un delantero de fútbol que marca un gol contra el peor portero del mundo.

Ninguno de los expertos niega que Mythos represente un avance significativo, pero sugieren que la decisiva acción regulatoria responde en parte a la autopreservación institucional. «Los CISO (directores de seguridad de la información) y los proveedores de ciberseguridad tienen un incentivo racional para señalar las consecuencias potencialmente muy graves de un nuevo desarrollo», explica Swire, incluso si sus estimaciones internas asumen que el impacto real será una fracción de lo que afirma el comunicado de prensa de Anthropic. Como señala Martin, es raro que una organización «sufra perjuicios comerciales por predecir una catástrofe».

“Un riesgo tras Mythos es que resulte más fácil convertir una vulnerabilidad, un fallo conocido, en un exploit, algo que alguien pueda aprovechar”, afirma Swire. “Todo defensor de la ciberseguridad debería tomarse Mythos en serio, pero es probable que el daño previsto a la defensa sea mucho menor de lo que sugieren los peores escenarios”.

 

 

Newsletter

Suscribite a nuestro NewsLetter y recibí todas las noticias en tu mail

Notas destacadas