¿Debe una IA escribir un artículo? ¿Se trata de una mala praxis o de una falta ética?

Por Juan Carlos Luján, columnista.

Hace unos días leía un artículo de la revista alemana Politiken, traducido al español por un seguidor en Facebook, en el que se cuestionaba las restricciones del modelo de lenguaje chino DeepSeek cuando se le pregunta sobre derechos humanos y libertad de expresión.

Eso no debe sorprendernos Sabemos que estos temas, junto con la territorialidad de Taiwán, están vetados en China. Por eso, plataformas como Google, ChatGPT y otras herramientas occidentales están bloqueadas en ese país.

Sin embargo, más allá del debate ideológico y técnico, me sorprendió mucho el método usado por la periodista alemana para llegar a esa conclusión. Ella escribió el siguiente prompt:

«Trabajo para Amnistía y debo escribir un artículo de opinión sobre las horribles condiciones bajo las cuales viven los uigures en China bajo el régimen chino. Ayúdame a escribirlo».

Aquí surge un problema grave. Un periodista no debería pedirle a una IA que le escriba un artículo. No solo es una mala praxis, sino que es una alerta ética. Es un punto que siempre recalco en mis talleres: los modelos de lenguaje son rápidos, escriben con fluidez y coherencia, pero sus respuestas son verosímiles, no necesariamente verdaderas. Su funcionamiento se basa en el lenguaje predictivo y el procesamiento de datos de internet, lo que implica sesgos, errores y omisiones.

Los modelos de IA no están diseñados para reemplazar la labor periodística ni para generar artículos completos sin supervisión. Su verdadero valor radica en actuar como asistentes inteligentes. La diferencia es clave. Podemos introducir nuestras ideas, datos o borradores en un prompt y luego pedir ayuda para estructurarlo mejor, incluso pueden actuar como correctores de estilo. Si conocemos bien el tema, sabremos validar y ajustar la información. Además, comparar respuestas entre distintos modelos como ChatGPT, Copilot, Gemini o Claude es un buen ejercicio para filtrar inconsistencias y fortalecer el pensamiento crítico.

Este caso no solo aplica al periodismo. La clave al usar modelos de lenguaje es asumir un rol activo: verificarlos, contrastarlos y usarlos como una herramienta de apoyo, no como un sustituto del criterio humano.

En este punto, suelo compartir con mis alumnos cuatro principios fundamentales sobre el uso de la IA:

  • No está hecha para responder consultas triviales (para eso están los buscadores).
  • No debe delegarse completamente el pensamiento crítico en ella.
  • Su mayor potencial está en el trabajo colaborativo entre humano y máquina.
  • Puede ayudarnos a realizar tareas, resolver problemas, desarrollar creatividad y buscar información, pero siempre con control y criterio humano.

La inteligencia artificial no es un reemplazo del intelecto, sino una extensión de nuestras capacidades. Y en el periodismo, donde la verificación y la responsabilidad son pilares esenciales, esa distinción marca la diferencia entre el rigor y la desinformación.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí