La inteligencia artificial amplifica el alcance de los ataques cibernéticos, advierte ESET.
La inteligencia artificial (IA) ha acelerado una transformación en la ciberseguridad, permitiendo tanto avances defensivos como nuevas tácticas para los ciberdelincuentes. Según ESET, compañía especializada en detección de amenazas, 2025 será un año clave en la lucha contra las ciberestafas, el fraude digital y la manipulación de información en línea.
Con el uso creciente de herramientas de IA por parte de actores maliciosos, se espera un aumento significativo en la sofisticación de los ataques, desde suplantaciones de identidad hasta el descifrado de contraseñas y la propagación de desinformación.
El auge de la IA en el cibercrimen: nuevas estrategias de ataque
El impacto de la inteligencia artificial en la ciberseguridad ya es una realidad. A principios de 2024, el Centro Nacional de Ciberseguridad del Reino Unido (NCSC) alertó sobre cómo la IA está siendo utilizada para incrementar el volumen y la efectividad de los ciberataques. Desde campañas de ingeniería social hasta el uso de deepfakes, los ciberdelincuentes han encontrado nuevas herramientas para engañar a sus víctimas.
Entre las principales amenazas que se avecinan en el 2025, ESET destaca:
- Elusión de autenticación: La tecnología deepfake facilita a los estafadores suplantar identidades en verificaciones de video o selfies, lo que compromete la seguridad de cuentas bancarias y redes sociales.
- Compromiso del correo electrónico empresarial (BEC): La IA permite generar mensajes convincentes para engañar a empleados y obtener transferencias de dinero fraudulentas. Además, los deepfakes de audio y video hacen posible suplantar a ejecutivos en reuniones virtuales.
- Suplantación de identidad con modelos de lenguaje: Los ciberdelincuentes pueden entrenar grandes modelos de lenguaje (LLM) con datos personales de redes sociales hackeadas, lo que facilita estafas como secuestros virtuales o fraudes financieros.
- Creación de perfiles falsos en redes sociales: El uso de IA generativa (GenAI) en 2025 facilitará la creación de cuentas fraudulentas de celebridades e influencers, usadas para engañar a seguidores y obtener información personal o dinero.
- Desinformación: La IA será una herramienta clave en la generación de contenido falso para manipular la opinión pública y amplificar campañas de influencia en redes sociales.
- Descifrado de contraseñas: Herramientas potenciadas por IA pueden analizar enormes volúmenes de datos para vulnerar credenciales en cuestión de segundos.
El dilema de la privacidad: datos en riesgo
El avance de la inteligencia artificial plantea serios desafíos en términos de privacidad. Para su entrenamiento, los modelos de IA requieren grandes volúmenes de datos, lo que puede incluir información sensible sin el conocimiento de los usuarios. Según ESET, algunas empresas de redes sociales podrían modificar sus términos y condiciones para utilizar datos personales en el desarrollo de sus sistemas de IA.
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, advierte que «una vez que la información se integra en un modelo de IA, representa un riesgo si la propia IA es hackeada o si se comparte con terceros a través de aplicaciones basadas en estos modelos». También señala que en algunos casos, empleados pueden compartir inadvertidamente datos corporativos confidenciales mediante el uso de herramientas de IA generativa. Un estudio reciente reveló que una quinta parte de las empresas británicas ha expuesto accidentalmente información sensible por esta vía.
La IA como aliada en la ciberseguridad
A pesar de los riesgos, la inteligencia artificial también está transformando la ciberseguridad desde una perspectiva defensiva. Se espera que en el 2025 la IA juegue un papel clave en la protección digital, con aplicaciones que incluyen:
- Generación de datos sintéticos: Estos datos permitirán entrenar a equipos de seguridad sin comprometer información real.
- Análisis avanzado de amenazas: La IA podrá identificar comportamientos sospechosos en grandes volúmenes de datos, anticipando posibles ataques.
- Automatización de respuesta ante incidentes: Mediante el uso de IA, los analistas de ciberseguridad podrán tomar decisiones más rápidas y eficaces ante posibles brechas de seguridad.
- Asistentes de seguridad: Herramientas de «copiloto» basadas en IA ayudarán a reducir errores de configuración y mejorar la capacitación de equipos de TI.
«Lo que está claro es que la IA cambiará radicalmente nuestra forma de interactuar con la tecnología en 2025, tanto para bien como para mal», concluye Gutiérrez Amaya en un comunicado de prensa. «Si bien ofrece grandes beneficios a empresas y usuarios, también introduce nuevos riesgos que deben ser gestionados. Gobiernos, empresas y ciudadanos debemos asumir la responsabilidad de aprovechar su potencial y mitigar sus amenazas».
Preparándose para el futuro de la ciberseguridad
Con la acelerada evolución de la inteligencia artificial, las empresas y los usuarios deben adoptar estrategias de protección más sólidas para el 2025. Desde la implementación de autenticación multifactor hasta la educación en seguridad digital, es clave mantenerse informado sobre las amenazas emergentes y fortalecer las defensas contra el uso malintencionado de la IA.
*En la creación de este texto se usaron herramientas de inteligencia artificial.