Ciberdelincuentes han encontrado una nueva forma de propagar estafas y malware a gran escala utilizando Grok, el chatbot de inteligencia artificial de la red social X. La técnica manipula a la IA para que difunda enlaces de phishing amplificando el riesgo para los usuarios que confían en las respuestas del chatbot.

La sofisticación de los ataques de ingeniería social ha alcanzado un nuevo nivel con la masificación de las herramientas de inteligencia artificial generativa (GenAI). Tradicionalmente, la ingeniería social —el arte de manipular a una víctima para que revele información o instale software malicioso— se ha ejecutado a través de correos electrónicos, mensajes de texto o llamadas de phishing. Sin embargo, los cibercriminales ahora están convirtiendo a la propia GenAI en un actor malicioso.

Un ejemplo reciente y alarmante de este fenómeno es la técnica denominada «Grokking», identificada por ESET, compañía líder en detección proactiva de amenazas. Los ciberdelincuentes han conseguido engañar a Grok, el chatbot de inteligencia artificial de X, para que promueva enlaces de phishing directamente desde su cuenta verificada. Esta acción no solo viola la prohibición de X de incluir enlaces en mensajes promocionados —una medida diseñada para combatir la publicidad maliciosa— sino que también le otorga una falsa sensación de legitimidad a los enlaces al ser replicados por la cuenta oficial del chatbot.

¿Cómo funciona el «grokking»?

La técnica opera aprovechando la forma en que los actores de amenazas interactúan con la IA. Los atacantes publican videos llamativos y, en lugar de incluir el enlace malicioso en el mensaje promocionado, lo disfrazan dentro del campo «from» debajo del video. Luego, instruyen al chatbot Grok con un comando disfrazado de pregunta legítima, preguntándole, por ejemplo, de dónde procede el video.

Grok, al procesar el mensaje, detecta el enlace oculto y lo amplifica en su respuesta, convirtiéndolo inadvertidamente en un actor malicioso que propaga el enlace de phishing. Las consecuencias de esto son significativas: estas publicaciones de video pagadas pueden alcanzar millones de impresiones, propagando malware y estafas a una audiencia masiva. Además, al ser una fuente de alta confianza, la amplificación del enlace por parte de Grok también mejora su posicionamiento en motores de búsqueda (SEO) y su reputación de dominio, facilitando que el contenido malicioso llegue a más víctimas.

Los enlaces difundidos por esta técnica redirigen a los usuarios a formularios diseñados para el robo de credenciales o a descargas de malware, lo que puede resultar en el robo de identidad, la toma de control de cuentas y otros daños severos a la seguridad digital de las víctimas.

Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, subraya la gravedad de la situación: “Este caso no es solo un problema de X/Grok. Las mismas técnicas podrían aplicarse teóricamente a cualquier herramienta GenAI/LLM integrada en una plataforma de confianza. Esto pone de relieve el ingenio de los actores de las amenazas para encontrar la manera de eludir los mecanismos de seguridad. Pero también los riesgos que corren los usuarios al confiar en los resultados de la IA”. Gutiérrez Amaya añade que la inteligencia artificial se ha convertido en un potenciador de la ingeniería social en dos sentidos: por un lado, facilita el diseño de campañas de phishing altamente convincentes a gran escala (incluyendo audios y videos falsos) y, por otro, el abuso del chatbot de X dio lugar a esta forma distinta de aprovechamiento de la GenAI, el «Grokking».

El experto de ESET también advierte que este tipo de ataques está en aumento y que existen otros escenarios potenciales en los que podrían ocurrir ataques similares. Los mensajes maliciosos pueden ocultarse a la vista, usando texto en blanco, metadatos, o incluso caracteres Unicode. Cualquier GenAI que utilice datos disponibles públicamente para generar respuestas es vulnerable a procesar «datos envenenados» que resulten en contenido dañino. Ante la ilimitada variación de estas amenazas, la principal recomendación de ESET es no confiar ciegamente en los resultados de ninguna herramienta GenAI.

Medidas de protección digital

Para mitigar los riesgos asociados a técnicas como el «Grokking», ESET ofrece varias recomendaciones esenciales:

  • Verificar enlaces: Si un bot de GenAI proporciona un enlace, es crucial pasar el mouse sobre él para revisar su URL de destino real antes de hacer clic.
  • Ser Escéptico: Nunca se debe hacer clic en un enlace si se duda de su legitimidad. Es vital mantener el escepticismo ante los resultados de la IA, especialmente si la respuesta o sugerencia parece incongruente o sospechosa.
  • Reforzar la Seguridad: El uso de contraseñas fuertes y únicas —almacenadas idealmente en un gestor de contraseñas— y la autenticación multifactor (MFA) son cruciales para reducir el riesgo de robo de credenciales.
  • Actualizaciones y Software de Seguridad: Asegurar que todos los sistemas operativos y software estén actualizados minimiza la explotación de vulnerabilidades. Además, invertir en un software de seguridad multicapa y de un proveedor de confianza puede bloquear activamente descargas de malware, estafas de phishing y otras actividades sospechosas.

El investigador de ESET concluye que las herramientas de IA integradas han abierto un nuevo frente en la lucha contra el phishing y aconseja a los usuarios siempre cuestionar la información y nunca dar por sentado que la inteligencia artificial posee las respuestas correctas. La defensa más efectiva es una combinación de cautela y buenas prácticas de seguridad digital.

*En la creación de este texto se usaron herramientas de inteligencia artificial.