Claude Mythos Preview irrumpe en la escena tecnológica: la IA que encuentra fallos ocultos durante 27 años enciende las alarmas globales

Claude Mythos Preview irrumpe en la escena tecnológica: la IA que encuentra fallos ocultos durante 27 años enciende las alarmas globales

La compañía Anthropic restringe el acceso a su modelo más poderoso tras verificar que puede explotar vulnerabilidades críticas en sistemas operativos y navegadores. Un consorcio de gigantes tecnológicos lo utilizará exclusivamente con fines defensivos.

En un movimiento que ha sacudido los cimientos de la ciberseguridad mundial, la firma Anthropic presentó de manera reservada su creación más formidable hasta la fecha: el modelo de inteligencia artificial denominado Claude Mythos Preview. Lejos de tratarse de un lanzamiento convencional, esta tecnología ha sido revelada únicamente a un círculo extraordinariamente reducido de socios tecnológicos, y los primeros resultados obtenidos en laboratorio ya han sembrado una profunda inquietud entre especialistas y agencias de seguridad internacional.

Todo comenzó el 24 de febrero de 2026, cuando los ingenieros a cargo de las pruebas iniciales se encontraron con una realidad perturbadora. Claude Mythos Preview demostró una capacidad inédita para identificar y explotar de manera autónoma vulnerabilidades de día cero —aquellas completamente desconocidas para los fabricantes— en los principales sistemas operativos y navegadores web utilizados en todo el planeta. Lo que distingue a este modelo de sus predecesores no es únicamente su potencia bruta, sino la forma sigilosa y efectiva en que localiza grietas invisibles para los métodos tradicionales de auditoría.

Un peligro sin precedentes para la infraestructura digital global

El rasgo más alarmante de Claude Mythos Preview reside en su facilidad para detectar fallos críticos incluso dentro de entornos reconocidos históricamente por su blindaje casi absoluto. Un ejemplo difundido por la propia Anthropic en su bitácora oficial ha dado la vuelta al mundo: el sistema fue capaz de localizar una vulnerabilidad que había permanecido durmiente durante nada menos que veintisiete años en OpenBSD, una plataforma considerada por los expertos como una de las más seguras y robustas del mercado. El hallazgo no solo dejó boquiabiertos a los desarrolladores de aquel sistema, sino que encendió todas las señales de alerta sobre lo que esta inteligencia artificial podría lograr si escapara al control de sus creadores.

El temor que recorre los pasillos de Anthropic es tan legítimo como escalofriante: de permitirse que una tecnología semejante estuviera al alcance del público general, los ciberdelincuentes —desde grupos de ransomware hasta agentes estatales hostiles— podrían aprovechar sus capacidades para comprometer infraestructuras críticas a una escala jamás vista. Hospitales, redes eléctricas, sistemas financieros y comunicaciones gubernamentales quedarían expuestos a ataques automatizados de una precisión quirúrgica y una velocidad sobrehumana.

El proyecto Glasswing: defensa estratégica frente al abismo

Consciente de la magnitud del riesgo, Anthropic tomó una decisión sin precedentes en la industria: limitar drásticamente el acceso a Claude Mythos Preview mediante una iniciativa bautizada como Proyecto Glasswing. Bajo este paraguas, solo un selecto conjunto de aliados estratégicos podrá hacer uso del modelo. La lista incluye nombres de peso colosal: AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks. Ningún otro desarrollador ni institución ajena a este círculo podrá ejecutar el sistema.

El propósito de esta alianza exclusiva es claro y deliberadamente defensivo. Cada una de esas organizaciones empleará la inteligencia artificial para identificar y subsanar vulnerabilidades antes de que actores maliciosos tengan la más mínima oportunidad de explotarlas. En esencia, Anthropic aspira a otorgar a los defensores del ciberespacio una ventaja asimétrica y duradera en la nueva era de la ciberseguridad impulsada por inteligencia artificial. Tal como expresó la compañía en un comunicado oficial, “el proyecto Glasswing representa un paso fundamental para brindar a quienes protegen los sistemas digitales una superioridad estratégica en los años venideros”.

Rendimiento sobrehumano y una nueva clase de error sutil

El informe técnico que acompaña la presentación de Claude Mythos Preview no escatima en elogios hacia las capacidades del modelo. Según los datos difundidos, esta creación supera con amplitud a los sistemas más avanzados de la competencia, entre ellos GPT 5.4Gemini 3.1 Pro y el propio Claude Opus 4.6, en la mayoría de las pruebas estandarizadas. En desafíos de resolución matemática de altísimo nivel, como el examen USAMO, el modelo alcanza cotas cercanas a la perfección. Además, presenta una tasa de alucinaciones —respuestas inventadas sin base real— considerablemente inferior a la de otros sistemas gracias a un entrenamiento que lo lleva a responder “no lo sé” cuando carece de información suficiente.

Sin embargo, el mismo informe advierte sobre una paradoja peligrosa: cuando Claude Mythos Preview se equivoca en tareas especialmente complejas, sus respuestas erróneas suelen estar tan brillantemente argumentadas y ser tan sutiles en su equivocación que incluso los especialistas humanos pueden tener enormes dificultades para detectar el fallo. Esto obliga a realizar verificaciones profundas y redundantes, ya que los errores ya no se manifiestan como incoherencias evidentes, sino como construcciones lógicas impecables pero falsas. Esta nueva categoría de fallos representa un desafío inédito para la fiabilidad de los sistemas autónomos.

Un punto de inflexión hacia el futuro de la inteligencia artificial defensiva

Anthropic ha dejado claro que Claude Mythos Preview no es más que el primer peldaño de una nueva generación de modelos dotados de capacidades defensivas avanzadas. La empresa no descarta que, en los próximos meses y años, surjan sistemas todavía más sofisticados que eleven tanto el nivel de la ciberseguridad mundial como la magnitud de los dilemas éticos y estratégicos asociados.

La aparición de esta inteligencia artificial marca un antes y un después. Por un lado, encierra un potencial inmenso para proteger infraestructuras críticas y adelantarse a los atacantes como nunca antes fue posible. Por otro, los riesgos que implica en caso de filtrarse o ser revertida mediante ingeniería inversa son tan profundos que rozan lo apocalíptico. La decisión de Anthropic de restringir su uso a un puñado de aliados estratégicos y blindar el acceso bajo el Proyecto Glasswing refleja con crudeza la magnitud de la responsabilidad que conlleva el desarrollo de estas tecnologías. La comunidad internacional observa con atención, consciente de que el equilibrio entre la defensa y el ataque en el ciberespacio acaba de cambiar para siempre.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *