Casi el 60% de los usuarios de inteligencia artificial en Latinoamérica no se toma el tiempo de verificar la información que le entregan estas herramientas, a pesar de los riesgos que esto implica, como la difusión de noticias falsas o la exposición a ataques de phishing.
La inteligencia artificial (IA) ha pasado de ser una promesa tecnológica a convertirse en una herramienta indispensable en el día a día de miles de personas en Latinoamérica, ya sea para el trabajo o el estudio. Sin embargo, un reciente estudio de la compañía de ciberseguridad ESET revela que la masiva adopción de esta tecnología viene de la mano con hábitos de uso arriesgados, que exponen a los usuarios a ser víctimas de ataques informáticos o de la desinformación. La encuesta, que incluyó la participación de más de 1.000 personas de 17 países de la región, arrojó datos que son motivo de preocupación.
De acuerdo con el estudio, el 80% de los encuestados afirmó utilizar la IA, ya sea de forma frecuente (45%) u ocasional (35%). A pesar de esta alta penetración, un 55% de los usuarios reconoce que no siempre se toma el tiempo de verificar la información que obtiene de estas herramientas. De este grupo, un 14% no la verifica nunca y un 39% lo hace solo de vez en cuando. Este hábito es considerado muy peligroso por los expertos de ESET.
«Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas», explica Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica. El especialista añade que, por este motivo, siempre es «aconsejable contrastar la información obtenida con fuentes oficiales«, especialmente en temas sensibles como las finanzas, la salud o asuntos legales. La falta de verificación de la información puede abrir la puerta a ser víctima de estafas, ya que los ciberatacantes pueden usar técnicas como el prompt injection para manipular las respuestas de la IA e inducirla a dar instrucciones erróneas o información falsa.
Además de la falta de verificación, la encuesta de ESET detectó que los usuarios tampoco tienen buenos hábitos en cuanto a la protección de sus datos personales. El 40% de los encuestados afirma compartir información personal y laboral con las herramientas de IA, a pesar de que el 60% no lee las políticas de privacidad y solo la mitad toma medidas para proteger su información. Los especialistas de ESET recomiendan evitar proactivamente el ingreso de información personal y sensible, como datos bancarios o contraseñas, en los chats de IA.
Estos datos podrían ser procesados y utilizados para entrenar modelos futuros, aumentando el riesgo de que se almacenen y se expongan en el futuro. Gutiérrez Amaya resalta que el análisis de los resultados «permite confirmar que, si bien hay una gran adopción respecto de la Inteligencia Artificial, aún queda mucho camino por recorrer en cuanto a los hábitos responsables y seguros de la misma». El experto de ESET concluye que el principal desafío es lograr un «uso más consciente de la IA» en la región.
Aun con las preocupaciones por los riesgos de la IA, como los fraudes y estafas (65%), los deepfakes y fakenews (47%) y la falta de privacidad y recopilación de datos (45%), la mayoría de los encuestados (80%) considera que la IA es algo positivo para la región. Un 43% cree que la IA será muy útil en el futuro, pero con riesgos asociado
*En la creación de este texto se usaron herramientas de inteligencia artificial.





