Google alerta sobre la primera explotación de día cero asistida por IA

Google detecta el primer exploit de día cero creado con inteligencia artificial

Investigadores de Google han identificado el que consideran el primer exploit de día cero desarrollado con ayuda de inteligencia artificial, según un informe publicado el lunes por Google Threat Intelligence Group. El código, un script de Python orientado a saltarse la autenticación de dos factores en una herramienta de administración web de código abierto, fue interceptado antes de que pudiera iniciar una campaña de explotación masiva.

Hallazgo de Google

El informe de Google sostiene que se trata de la primera evidencia confirmada de un actor cibercriminal usando IA para desarrollar un exploit de día cero con éxito operativo. La compañía explica que el código presentaba señales compatibles con el uso de un modelo de lenguaje, aunque los investigadores descartaron que Gemini o Mythos hubieran participado en su creación.

Qué hacía el exploit

El script estaba diseñado para evadir la autenticación en dos pasos de una popular plataforma de administración web de código abierto. De haberse ejecutado en una campaña masiva, habría permitido a los atacantes acceder a cuentas protegidas y ampliar su alcance sobre sistemas expuestos en internet.

Cómo lo detectaron

Google indica que detectó indicios técnicos típicos de contenido generado o asistido por IA, como una estructura excesivamente ordenada, documentación interna poco natural y elementos que sugerían “alucinaciones” del modelo, entre ellos una puntuación CVSS inventada. Esas señales llevaron a los analistas a concluir que el exploit no parecía fruto de un desarrollo humano convencional.

Respuesta y mitigación

La compañía afirma que compartió sus hallazgos con el proveedor responsable de la herramienta afectada, que pudo distribuir un parche y corregir la vulnerabilidad. Según Google, la intervención temprana evitó que el exploit se convirtiera en una campaña de explotación a gran escala.

Qué implica para la ciberseguridad

El caso refuerza la idea de que la IA ya se está usando no solo para automatizar tareas defensivas, sino también para acelerar reconocimiento, desarrollo de malware y explotación de vulnerabilidades. Google advierte en su informe que la tecnología aumenta la velocidad, la escala y la sofisticación de los ataques, y que la frontera entre apoyo técnico y uso ofensivo se está reduciendo rápidamente.

Contexto del informe

El hallazgo forma parte del AI Threat Tracker de Google Threat Intelligence Group, un análisis que describe una madurez creciente del uso criminal de la IA. El documento también menciona otras actividades maliciosas impulsadas por IA, desde campañas automatizadas hasta mejoras en la ofuscación y en la persistencia frente a los objetivos.

Más en TECNOLOGÍA
Comentarios