aNÁLISIS

La IA acelera el ataque: de la vulnerabilidad a la explotación en minutos



Dirección copiada

El cierre de la ventana entre la divulgación de una falla y su explotación real marca el fin de una era en la defensa digital,. Informes recientes de Google, Microsoft y el caso Mythos de Anthropic revelan que los atacantes ya no solo son más sofisticados, sino drásticamente más rápidos, reduciendo los tiempos de intrusión…

Publicado el 20 de abr de 2026

Nicolás Della Vecchia

Jefe de redacción



La IA acelera el ataque: de la vulnerabilidad a la explotación en minutos

La ciberseguridad cambió. El problema ya no pasa sólo por detectar una vulnerabilidad sin parchear, sino por la velocidad con la que esa falla puede convertirse en un ataque real. La IA achicó ese margen al mínimo.

Lo que antes llevaba tiempo, ahora puede resolverse en minutos. Google Cloud y Mandiant advirtieron el 16 de abril que la ventana clásica entre la divulgación de una falla y su explotación casi desapareció. En la misma línea, Microsoft detectó que actores maliciosos ya usan IA generativa para acelerar procesos, escalar operaciones y acortar los tiempos de decisión en cada etapa del ataque.

El episodio que terminó de encender las alarmas fue Claude Mythos Preview, la herramienta de Anthropic que abrió una discusión nueva en la industria. La compañía descartó un lanzamiento masivo y optó por una prueba restringida dentro de Project Glasswing, una iniciativa en la que participan Amazon Web Services, Google, Microsoft, CrowdStrike y Palo Alto Networks con un objetivo defensivo.

Según explicó Anthropic, Mythos detectó miles de vulnerabilidades de día cero en infraestructura crítica y, durante las pruebas internas, consiguió identificar y explotar fallas en los principales sistemas operativos y navegadores.

Qué dejó al descubierto el caso Mythos

La alarma no surgió de una hipótesis ni de una simulación académica. En su informe, Anthropic aseguró que Mythos Preview logró encontrar y explotar zero-days en todos los sistemas operativos y navegadores principales que puso a prueba.

La compañía también detalló que el modelo pudo encadenar varias fallas para construir exploits más sofisticados, con casos que incluyeron ataques contra navegadores y escaladas de privilegios en equipos de escritorio. En ese marco, explicó que activó Project Glasswing para darles una ventaja inicial a defensores y responsables de software crítico antes de que capacidades de ese nivel circulen con menos restricciones.

El motivo por el cual decidieron no continuar ampliando el uso de esta herramienta fue, justamente, su efectividad y el hecho de que muchos delicuentes podrían usar la herramienta para hacer daño

Google Cloud y Mandiant advirtieron que los modelos de propósito general ya pueden destacarse en la detección de vulnerabilidades e incluso colaborar en la generación de exploits funcionales, aunque no hayan sido creados de manera exclusiva para esa tarea. La consecuencia es concreta.

Muchas defensas todavía descansan en la fricción que imponía ese proceso. Pero lo cierto es que, cuando una IA puede recorrer esos pasos a una velocidad muy superior a la de un equipo humano, ese margen de protección se reduce de forma drástica.

La IA ya acelera varias etapas del ataque

El cambio ya salió del laboratorio de Anthropic y empezó a tomar forma en el terreno real. Microsoft Threat Intelligence advirtió en marzo que los atacantes ya incorporan IA a distintas instancias del ciclo ofensivo. Según ese informe, la utilizan para redactar campañas de phishing, traducir contenidos, resumir datos robados, generar o corregir malware y montar scripts e infraestructura.

Microsoft introdujo, a la vez, una precisión relevante. En la mayoría de los casos, la IA todavía actúa como un multiplicador de capacidad, mientras las decisiones clave siguen en manos humanas, sobre todo en la definición de objetivos, la selección de blancos y la ejecución final.

Google trazó un diagnóstico parecido, aunque con un tono más prudente. En su análisis de enero de 2025, el grupo de inteligencia de amenazas de la compañía sostuvo que la IA todavía no representaba la transformación total que parte del mercado describía. Aun así, ya detectaba usos concretos en investigación, reconocimiento y desarrollo de código ofensivo.

Meses más tarde, en su actualización de noviembre de 2025, GTIG avanzó un paso más y afirmó que actores estatales y criminales ya probaban herramientas de IA en distintas fases del ataque, con tareas que abarcaron reconocimiento, creación de anzuelos de phishing, desarrollo de C2 y exfiltración de datos. Incluso identificó familias de malware que recurren a modelos durante la ejecución para generar scripts y ofuscar código en tiempo real.

Ahí aparece la novedad de fondo. La ciberseguridad ya no enfrenta sólo atacantes más sofisticados. Enfrenta atacantes más rápidos. Si una herramienta puede revisar CVE públicas, sugerir caminos de explotación, perfeccionar un correo de phishing, levantar infraestructura encubierta y colaborar en maniobras de evasión, el cuello de botella deja de estar en la concepción del ataque y pasa a la velocidad con la que el defensor logra detectar y responder.

Esa compresión del tiempo ayuda a entender por qué Microsoft habla de ciclos de decisión cada vez más cortos y por qué Google Cloud y Mandiant sostienen que la ventana tradicional entre divulgación y explotación prácticamente desapareció.

El problema del defensor ya no pasa sólo por parchear

El NIST ya anticipó parte de ese giro en su perfil de riesgos para IA generativa. Allí señaló que estos sistemas pueden bajar barreras para capacidades ofensivas y ampliar los riesgos de seguridad, porque los LLM ya muestran capacidad para descubrir vulnerabilidades y escribir código para explotarlas.

El instituto agregó otro dato que agrava el cuadro. La propia IA generativa amplía la superficie de ataque, ya que también puede sufrir prompt injection y envenenamiento de datos. En otros términos, la industria ya no enfrenta un solo frente. Ahora debe defender el software tradicional y, al mismo tiempo, las herramientas de IA que incorpora a sus procesos.

Los números de incidentes muestran que la presión sube mientras esa transición sigue abierta. Verizon informó en su DBIR 2025 que la explotación de vulnerabilidades como vector inicial de acceso subió 34% y ya explicó 20% de las brechas analizadas, con un foco marcado en zero-days contra dispositivos perimetrales y VPN. IBM, por su parte, registró en su X-Force Threat Intelligence Index 2026 un alza interanual de 44% en la explotación de aplicaciones expuestas a internet.

La lectura que dejan ambos reportes incomoda a cualquier empresa. La superficie que un atacante puede aprovechar no se achica al ritmo que exige el nuevo escenario.

A ese cuadro se suma el reloj operativo. CrowdStrike sostuvo en su Global Threat Report 2025 que el tiempo promedio de breakout en eCrime cayó a 48 minutos, con un extremo de 51 segundos. También indicó que 79% de los ataques para acceso inicial ya fueron malware-free y que 52% de las vulnerabilidades observadas estuvieron ligadas al acceso inicial.

Esa combinación obliga a revisar varias recetas viejas. Si la defensa todavía depende de revisión manual, parches lentos, firmas estáticas y controles aislados, el margen para reaccionar puede desaparecer antes de que el equipo de seguridad entienda qué pasó.

Por eso, el caso Mythos vale más como señal de época que como episodio aislado. Anthropic decidió encerrar esa capacidad dentro de un esquema restringido y coordinado con actores grandes de la industria. La decisión dejó algo en claro. El debate ya no gira alrededor de si la IA puede ayudar a la seguridad. Eso ya ocurre.

La discusión pasa por quién llega primero a usarla para endurecer sistemas, reducir exposición, automatizar detección y acortar respuesta. En esa carrera, las compañías que sigan midiendo riesgo con tiempos humanos frente a atacantes asistidos por IA arrancan con desventaja desde el primer minuto.

Artículos relacionados