Un informe global revela un incremento histórico del 16,7% en el escaneo automatizado de vulnerabilidades. Los atacantes utilizan IA para crear malware hiperrealista y deepfakes, mientras que el email persiste como el vector de ataque más explotado. Expertos advierten sobre la urgencia de adoptar medidas de autenticación robustas.
El panorama de la ciberseguridad global se encuentra en un punto de inflexión, moldeado por la adopción masiva de la inteligencia artificial por parte de actores maliciosos. El último “Reporte del Panorama Global de Amenazas 2025” de Fortinet detalla un crecimiento sin precedentes del 16,7% en el escaneo automatizado de sistemas vulnerables, una técnica donde los cibercriminales emplean programas para probar masivamente millones de “cerraduras digitales” por segundo en busca de una puerta abierta. Esta actividad, que la firma detecta a un ritmo de 36 mil intentos por segundo, es solo la antesala de campañas más sofisticadas.
La inteligencia artificial se ha erigido como el gran catalizador de esta nueva era del cibercrimen. Los atacantes la utilizan para generar códigos maliciosos (malware), crear deepfakes convincentes y operar bots de estafas a una escala y velocidad inéditas. No obstante, en medio de esta complejidad tecnológica, un método tradicional se mantiene como la puerta de entrada predilecta: el engaño a través del correo electrónico.
Robert May, Vicepresidente Ejecutivo de Tecnología y Gestión de Producto de Fortinet, durante una reciente visita a Argentina, explicó a Clarín la paridad tecnológica que define el momento actual. “Nosotros usamos la IA para reducir el tiempo de detección y respuesta; incluso en nuestro propio Centro de Operaciones de Seguridad (SOC) vimos reducciones del 60% en ciertas tareas. Pero los atacantes hacen lo mismo: usan estas herramientas para lanzar ataques más rápido”, señaló el especialista con dos décadas de experiencia en el sector.
El Engaño se Perfecciona: Phishing con IA
May destacó el impacto directo de la IA en ataques de suplantación de identidad (phishing). “El email sigue siendo la puerta de entrada más fácil. Antes, las diferencias de idioma permitían detectar un correo falso. Ahora, con IA, los mensajes parecen completamente legítimos, con información muy específica. El umbral para lanzar un ataque es cada vez más bajo”, afirmó. Este perfeccionamiento del engaño incrementa el riesgo para usuarios y organizaciones por igual.
Frente a esto, el ejecutivo hizo hincapié en la crítica necesidad de abandonar la dependencia exclusiva de las contraseñas. “Muchas alertas que enviamos a clientes son simplemente para que activen la autenticación multifactor (MFA) o el modelo de confianza cero (zero trust). Son herramientas que ya tienen, pero no encienden. Las contraseñas solas son inseguras”, recalcó. Soluciones como las passkeys o un segundo factor de autenticación se presentan como capas de defensa esenciales.
América Latina en la Mira y la Amenaza Silenciosa
El informe sitúa a América Latina como un objetivo principal, concentrando aproximadamente el 25% de los ataques globales observados. La región, con sus industrias clave como petróleo, gas y servicios financieros, resulta sumamente atractiva para los cibercriminales. Un área de especial preocupación son los sistemas industriales y operativos (OT), que tras su digitalización dejaron expuestas infraestructuras críticas de agua, energía y transporte.
May alertó sobre la técnica de “vivir de la tierra” (living off the land), donde los atacantes, una vez dentro de una red, actúan con sigilo extremo para evitar ser detectados. “Para un intruso, lo mejor es quedarse callado. Esperan momentos en que su comportamiento parezca normal. Así pueden estar meses o años sin causar daño, hasta encontrar algo valioso y actuar”, describió. Esta paciencia los hace particularmente peligrosos.
El Hype de la IA y el Riesgo Corporativo
El directivo también advirtió sobre la adopción apresurada de la inteligencia artificial por parte de las empresas, impulsada más por la presión competitiva que por una estrategia sólida. “Si tu competidor habla de IA, vos también tenés que hablar de IA. Así, despliegan modelos en la nube, mal configurados o sin controles”, explicó. Este despliegue negligente puede convertir una herramienta de innovación en una puerta trasera para los atacantes.
El riesgo se materializa cuando los empleados, e incluso operadores de red, suben información sensible corporativa a chatbots públicos o nuevos servicios SaaS con IA. “La clave es dar visibilidad al Chief Information Security Officer (CISO) para saber qué datos se comparten y qué se usa, y luego decidir qué permitir y qué no”, recomendó May.
Su consejo para usuarios finales es simple pero crucial: adoptar un nuevo mantra de conciencia digital. “Así como nos repetimos ‘no hagan clic en enlaces sospechosos’, ahora debemos repetir ‘no subamos información personal a un chatbot o un sitio público’. A fin de cuentas, no sabemos dónde pueden terminar esos datos”. En un mundo donde la línea entre lo real y lo generado por IA se desdibuja, la prudencia es la primera línea de defensa.
