Por primera vez, una empresa tecnológica confirma el uso de modelos generativos para vulnerar sistemas cerrados. El gigante Alphabet desbarató el intento de intrusión, aunque no reveló el objetivo ni la identidad de los creadores del código maligno.
En un giro que encendió todas las alarmas del ecosistema digital, Alphabet, la corporación matriz de Google, reveló haber detectado y neutralizado lo que constituye el primer intento documentado de un ciberataque a gran escala facilitado por inteligencia artificial generativa. El anuncio, publicado en un informe interno de la compañía, confirma los peores presagios de los especialistas en seguridad informática: las herramientas de IA conversacional como ChatGPT, Claude, xIA o Gemini ya están siendo empuñadas por delincuentes para horadar defensas que hasta ahora se consideraban infranqueables.
El modus operandi detectado por los ingenieros de Google resultó escalofriante por su sofisticación. Un grupo de atacantes no identificados —cuyo origen geográfico y composición se mantienen bajo reserva— habría empleado un modelo de inteligencia artificial con el propósito de descubrir una vulnerabilidad hasta entonces desconocida para la entidad atacada, un organismo o empresa cuyo nombre la firma tecnológica se negó a divulgar. Se trata de lo que en la jerga cibernética se denomina un “fallo de día cero”, una puerta trasera invisible que ningún parche había sellado y que la IA logró localizar mediante un proceso autónomo de exploración y aprendizaje.
“Contamos con un elevado grado de certeza de que el atacante recurrió a un modelo de IA para acelerar tanto el hallazgo como la explotación de esta brecha”, consignó Google en su reporte. Los investigadores destacaron un detalle inquietante: el algoritmo no solo identificó la falla, sino que también generó código de explotación adaptado a la arquitectura específica del sistema vulnerado, una hazaña que tradicionalmente requería semanas de trabajo por parte de un equipo especializado de piratas informáticos.
La empresa matriz del buscador más utilizado del mundo aclaró, no obstante, que el modelo de inteligencia artificial empleado en el ataque frustrado no fue Gemini, su propio desarrollo en el campo de la IA generativa. Esa precisión, lejos de calmar los ánimos, avivó la especulación sobre qué sistema o sistemas pudieron haber sido utilizados. Las hipótesis apuntan a versiones modificadas de modelos de código abierto o, incluso, a adaptaciones clandestinas de asistentes comerciales a los que se habría despojado de sus salvaguardas éticas mediante técnicas de “jailbreak”.
El intento de intrusión masiva fue bloqueado antes de que pudiera consumarse, pero la mera constatación de que la inteligencia artificial ya opera como un arma ofensiva en el ciberespacio representa un antes y un después. Especialistas en ciberseguridad que no participaron en la investigación coinciden en señalar que la barrera de entrada para ejecutar ataques complejos se ha derrumbado. Lo que antes demandaba conocimientos profundos de programación, ingeniería inversa y años de experiencia, ahora puede estar al alcance de quien formule las preguntas adecuadas a un modelo de lenguaje entrenado para ello.
Google se negó a proporcionar fechas concretas sobre el episodio, el blanco específico de los ciberdelincuentes o la identidad del modelo de IA empleado. Esa opacidad, justificada por razones de seguridad operativa, no impidió que el aviso recorriera como reguero de pólvora los foros de especialistas y las mesas de trabajo de las agencias de inteligencia de medio mundo. La partida acaba de cambiar: ahora los defensores de las redes no solo deben protegerse de otros humanos, sino de algoritmos diseñados para aprender, improvisar y golpear donde nadie ha mirado todavía.
