Lo dije hace unos días en una conferencia, lo reiteré hace poco en Linkedin y creo que vale la pena compartirlo en este espacio. Quiero que sea indexado por Google y que en algún momento aparezca como respuesta en los modelos de lenguaje con IA. ¿Quién piensa por quién? ¿Tú o ChatGPT? 

Por Juan Carlos Luján, columnista.

Es la frase que usé el año pasado para responderle a un alumno que me pidió que lo ayudara a crear un prompt para que ChatGPT le redactara un artículo completo. Esa interrogante dio pie para hacerle una explicación a él y a sus compñaeros periodistas sobre cómo podemos aprovechar estas herramientas.  

Les conté lo que está pasando en muchas salas de redacción y oficinas de comunicación. Hoy se espera que un periodista no solo escriba, sino también edite videos, produzca podcasts, diseñe gráficas, administre redes y hasta transmita en vivo. La carga laboral es real (vean los anuncios de trabajo en Linkedin). Pero el buen periodismo no permite atajos que sacrifiquen el rigor. 

Las herramientas de inteligencia artificial generativa, como ChatGPT o Gemini, pueden ser aliadas valiosas. Pueden ahorrar tiempo, ampliar la mirada, proponer nuevos enfoques. Pero nunca deben reemplazar el criterio humano. Porque hay una diferencia clara entre usar una herramienta para potenciar nuestro trabajo… y pedirle que piense por nosotros. 

El periodismo no nace del escritorio ni de lo que dicen otros medios. Nace en la calle, en la entrevista, en la conversación con la gente, en el detalle que cambia el enfoque. Nace en el terreno. Y es ahí donde las máquinas no pueden competir. Quien se limita a adaptar notas de última hora vistas en Canal N o en X, sin salir a reportear, solo alimenta el periodismo de escritorio. Y eso -aunque se maquille con IA- no basta. 

Sí, la IA puede servir para mejorar textos, corregir estilo o generar múltiples versiones para distintas plataformas. Pero eso debe surgir de una base real: el material que uno recogió con criterio y esfuerzo. Lo ético, lo profesional, lo verdaderamente útil es escribir primero y luego, con juicio, mejorar con IA. 

Decirle a una máquina: “hazme un artículo” sin haber producido un solo párrafo, es renunciar al oficio. Las máquinas no piensan: procesan, imitan, predicen. Y en ese proceso, pueden equivocarse. Si no hay un periodista detrás, dispuesto a validar, corregir y asumir la responsabilidad, la credibilidad se diluye. Y cuando eso pasa, no solo se pierde un lector. Se erosiona la confianza en los hechos. 

La agencia Reuters, por ejemplo, busca integrar la inteligencia artificial en su labor periodística sin renunciar a sus principios fundamentales: la exactitud, la imparcialidad y la responsabilidad editorial. Su enfoque combina la transparencia hacia el lector -explicando cuándo se usa IA- con la supervisión humana en cada paso del proceso, asegurando que la tecnología nunca sustituya al juicio profesional.  

En su documento Principios éticos de los datos y la IA, Reuters describe diversas medidas adoptadas para mantener la confianza del público en una era donde los contenidos automatizados podrían fácilmente erosionarla. Ese compromiso institucional es un ejemplo valioso, pero también un recordatorio: la inteligencia sigue siendo nuestra. Pensar sigue siendo una tarea humana. Y esa, no se terceriza.