La inteligencia artificial impulsa fraudes más sofisticados. La empresa de seguridad ESET nos recomienda cómo identificarlos y protegerse.
Las estafas que utilizan la clonación de voz mediante Inteligencia Artificial (IA) están en pleno auge. Con técnicas cada vez más sofisticadas, los ciberdelincuentes logran imitar la voz de familiares, amigos o conocidos con el objetivo de engañar a sus víctimas y obtener dinero o información privada. La empresa de ciberseguridad ESET advierte sobre esta tendencia y brinda recomendaciones clave para evitar ser víctima de estos fraudes.
El auge de la clonación de voz para fraudes
La clonación de voz impulsada por IA ha evolucionado hasta niveles alarmantes. Los estafadores solo necesitan unos segundos de una grabación real para replicar la voz de una persona. Este material suele obtenerse de audios o videos publicados en redes sociales como Instagram o TikTok. Una vez que los delincuentes han creado la voz clonada, la utilizan en llamadas telefónicas para suplantar identidades y solicitar dinero con historias convincentes.
Según la Comisión Federal de Comercio de los Estados Unidos, en 2023 se registraron pérdidas de hasta 2.700 millones de dólares solo en ese país debido a este tipo de estafas. En el Reino Unido, un informe del banco digital Starling Bank reveló que más de una cuarta parte de los adultos encuestados ha sido víctima de estos fraudes al menos una vez en el último año. Aún más preocupante, el 46% de las personas consultadas desconocía por completo la existencia de estas técnicas.
El problema ha escalado a tal nivel que el FBI emitió una alerta oficial sobre el uso de IA en delitos de suplantación de identidad. “Los atacantes están aprovechando la IA para crear mensajes de voz, videos y correos electrónicos extremadamente convincentes con el fin de cometer fraudes contra individuos y empresas. Estas tácticas pueden derivar en pérdidas financieras devastadoras, daño a la reputación y robo de datos confidenciales”, advirtió la agencia.
Cómo reconocer una estafa de clonación de voz
Desde ESET destacan que uno de los signos más comunes de estas estafas es la urgencia emocional en el mensaje. Los delincuentes suelen hacerse pasar por un familiar o amigo en problemas, alegando secuestros falsos, emergencias médicas o situaciones desesperadas en las que necesitan dinero de inmediato.
Algunas señales de alerta incluyen:
- Recibir una llamada inesperada con una voz conocida pidiendo dinero urgentemente.
- No poder comunicarse con la persona en cuestión por otros medios tras la llamada.
- La solicitud de pagos mediante métodos poco seguros, como criptomonedas o tarjetas de regalo.
Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, enfatiza que “es crucial estar atentos a estos intentos de fraude y siempre verificar la identidad de la persona antes de actuar. La ingeniería social sigue siendo el arma más poderosa de los estafadores”.
Medidas de prevención: cómo protegerse
Para evitar caer en este tipo de fraudes, los expertos en ciberseguridad recomiendan tomar varias medidas preventivas:
- Estar alerta ante llamadas inesperadas: Desconfiar de cualquier solicitud de dinero hecha por teléfono sin previo aviso.
- Verificar la identidad de la persona: Ante una llamada sospechosa, devolver la llamada al número habitual del familiar o amigo para confirmar si realmente fue él quien intentó comunicarse.
- Usar una “frase segura”: Acuerde con sus seres queridos una palabra o código secreto que solo ustedes conozcan y que pueda ser utilizada en caso de emergencia.
- No compartir demasiada información en redes sociales: Evite publicar audios o videos donde se pueda escuchar su voz con claridad.
- Implementar autenticación multifactor: Esta medida añade una capa adicional de seguridad a sus cuentas y protege el acceso a información personal.
Para las empresas, Gutiérrez Amaya recomienda combinar soluciones de seguridad avanzadas con programas de educación y concientización para los empleados. “Es fundamental que las compañías reduzcan la cantidad de correos electrónicos, llamadas y mensajes de phishing que llegan a sus colaboradores y, además, los capaciten para que puedan identificar estos engaños”, señala el experto.
Las estafas con clonación de voz mediante Inteligencia Artificial están en constante crecimiento y afectan a personas y empresas en todo el mundo. La tecnología ha facilitado la creación de fraudes más realistas, por lo que es fundamental adoptar medidas de seguridad y estar atentos a cualquier señal de alerta. Verificar siempre la identidad de quien nos contacta y no dejarse llevar por la urgencia de los mensajes son claves para evitar caer en estas trampas.
*En la creación de este texto se usaron herramientas de inteligencia artificial.