Hay alternativas locales para usar información sensible, pero demanda gran poder de cómputo.

Por Juan Carlos Luján, colabrador.

¿Sabías que algunos modelos de lenguaje están entrenándose con tus datos? Sí, tus entradas (inputs) y salidas (outputs) pueden estar alimentando a la IA para mejorar sus respuestas. Ahora, piensa en esos documentos internos o datos corporativos que adjuntas para obtener un resumen, una traducción, o para que se analice otro tipo de información. Ese archivo también es utilizado, aunque los creadores aseguran que la información es anonimizada. Esto implica que, si otro usuario tiene una consulta similar en otra parte del mundo, el bot puede usar la información y los datos obtenidos de tu prompt (o archivo) para proporcionar una respuesta más precisa y relevante.

ChatGPT, por ejemplo, entrena los datos de esta manera, sin identificar al usuario, y no revela cuánto tiempo conserva la información. Claude, por el contrario, no entrena con los datos de los usuarios y elimina los inputs y outputs al cabo de 30 días (revisa las condiciones de privacidad). En cuanto a Gemini, prefiero no entrar en detalles. Desde el primer pantallazo, aclaran que hay un equipo de revisores humanos «que lee algunas conversaciones guardadas para mejorar la IA de Google«.

MODELOS DE LENGUAJE LOCALES

Entonces, ¿qué puedes hacer para proteger tus datos? Una excelente opción es explorar los modelos de lenguaje locales, aquellos que funcionan directamente en tu computadora.

Estos modelos son de código abierto, gratuitos y operan de manera similar a ChatGPT o Gemini. Pueden tener algunas limitaciones, pero sabemos que garantizan la privacidad. Recordar, además, que siempre debemos usarlos con cautela y pensamiento crítico.

DEMANDAN PODER DE CÓMPUTO

El único problema que podrías encontrar con estos programas es que demandan mucho poder de cómputo (mínimo 8 GB de RAM). Aquí te muestro uno de los más pequeños que suelo emplear en los talleres que dicto: Phi3, de Microsoft. Puedes usarlo sin preocuparte por temas de privacidad con terceros, porque la información se conserva localmente. Lo he probado incluso en un vuelo largo, sin conexión a internet, y Phi3 no solo fue eficiente, sino que también mantuvo la privacidad de mis datos intacta. No es multimodal ni analiza archivos, aunque hay otros modelos que sí lo hacen, y los mostraré en otro video. Sin embargo, con Phi3, puedes dar tu primer paso seguro en el mundo de la IA generativa local. Pruébalo y cuéntanos.

Les dejo este video donde explico cómo activarlo en tu computadora a través de la plataforma Ollama, es gratuita y segura y solo debes usar DoS en Windows o Terminal en una Mac. Sigan este canal porque haré otro video donde explicaré todo sobre la activación de Phi3 desde la plataforma gratuita Ollama y también mostraré otros modelos de lenguaje locales que exigen mayor poder de cómputo.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí