No siempre es fácil detectar un texto generado con IA. Pero ciertos patrones empiezan a repetirse cuando la escritura pierde experiencia y voz propia.
Por Juan Carlos Luján, columnista.
Hace unos años uno podía reconocer ciertos textos porque sonaban demasiado marketeros, excesivamente técnicos o artificialmente académicos. Hoy ocurre algo distinto. Cada vez más personas leen publicaciones, artículos, comentarios o correos preguntándose en silencio si detrás hubo realmente alguien escribiendo o simplemente un modelo de lenguaje ensamblando frases estadísticamente probables.
Voy a confesar algo que ya se volvió habitual. Leo tantos textos producidos con inteligencia artificial que ahora intento detectar cuánto alguien hizo “trampa intelectual”.
Puede parecer un ejercicio de persecución tecnológica, pero no. Yo trabajo con IA generativa permanentemente, dicto talleres sobre el tema y considero que bien utilizada puede ahorrar tiempo, mejorar procesos y potenciar la creatividad. El problema aparece cuando el texto deja de transmitir experiencia, mirada propia o intención real. Allí empieza esa sensación extraña de leer algo perfectamente redactado, pero completamente vacío.
Porque ese es uno de los principales síntomas de muchos textos generados con IA. Pueden sonar bien, pero al final no dicen mucho.
Respuestas con patrones
Los modelos de lenguaje funcionan identificando patrones estadísticos aprendidos a partir de millones de textos. Por eso terminan repitiendo ciertas estructuras narrativas, fórmulas retóricas y estilos de redacción extremadamente previsibles. No “piensan” como un humano. Predicen qué palabra probablemente debería venir después.
Y esa lógica empieza a notarse. Una de las estructuras más frecuentes es la retórica de negación seguida de revelación. ChatGPT, Copilot y otros modelos la utilizan constantemente porque genera tensión y sensación de descubrimiento.
- “No es magia. No es intuición. Es inteligencia artificial”.
- “No es un problema tecnológico. Es un problema humano”.
Primero descarta por la negativa y luego revela una supuesta verdad superior. Funciona porque produce ritmo y claridad. El problema es que cuando uno empieza a leer decenas de textos similares, el patrón se vuelve evidente. Y eso cansa.
También aparece otra obsesión estadistica: las trilogías conceptuales. La IA gusta organizar ideas en grupos de tres.
- “Innovación, creatividad y productividad”.
- “Una historia de amor, pérdida y redención”.
- “Rápido, intuitivo y eficiente”.
No ocurre por casualidad. Tres elementos generan sensación de equilibrio cognitivo y cierre argumentativo. El problema es que, usado de forma excesiva, termina convirtiendo muchos textos en plantillas emocionales recicladas.
Otro detalle revelador es el abuso de adverbios terminados en “mente”. Claramente. Evidentemente. Probablemente. Constantemente. Estratégicamente. Uno aislado no significa nada. Pero cuando aparecen varios seguidos, suele sentirse ese tono extraño de redacción excesivamente (y sí, acabo de usar “excesivamente” en esta misma frase). calculada que intenta sonar precisa y razonable todo el tiempo.
La experiencia humana
A eso se suma otro rasgo común. Los textos escritos con IA suelen evitar el conflicto real. Todo termina sonando moderado, equilibrado y políticamente seguro. Son textos que intentan agradar a todos. Explican mucho, pero se arriesgan poco.
Por eso muchas veces les falta algo fundamental: experiencia humana. Un modelo puede escribir perfectamente sobre liderazgo, periodismo, educación o creatividad. Pero le cuesta transmitir lo que significa haber estado realmente allí. La observación concreta. La contradicción. El detalle incómodo. El aprendizaje que surge de una situación específica.
No es lo mismo escribir:
“La inteligencia artificial está transformando la educación mediante nuevas herramientas digitales.”
Que decir:
“En varios talleres con docentes descubrí algo repetitivo: muchos usan ChatGPT para ahorrar tiempo, pero pocos saben cómo validar si el contenido realmente enseña algo útil.”
En el segundo caso aparece algo que la IA todavía simula con dificultad: experiencia situada.
Otro patrón muy frecuente son las preguntas retóricas al final del texto. Especialmente aquellas diseñadas para mantener el engagement:
- “¿Estás listo para transformar tu futuro?”
- “¿Te imaginas todo lo que podrías lograr?”
- “La verdadera pregunta es…”
Ese tipo de cierre aparece constantemente porque los modelos aprendieron de enormes volúmenes de contenido de marketing, Linkedin, blogs motivacionales y redes sociales.
Lo mismo ocurre con el exceso de conectores, emojis, bullets, guiones y frases conversacionales artificiales. No son prueba definitiva de IA, pero sí síntomas de una escritura cada vez más optimizada para plataformas y menos para transmitir ideas originales.
Existen, además, detectores automáticos de textos elaborados con IA, como GPTZero o Turnitin, pero estos no son fiables. Pueden arrojar falsos positivos.
El verdadero problema no es usar IA. El problema aparece cuando desaparece el pensamiento propio. Porque una persona puede apoyarse en ChatGPT para ordenar ideas, resumir información o mejorar la redacción y seguir produciendo contenido profundamente humano. El conflicto empieza cuando la herramienta reemplaza completamente el criterio, la experiencia y la voz personal.
Y eso ya se nota en internet. Cada vez hay más textos impecables, pero intercambiables. Correctos, pero olvidables. Artículos donde todos parecen escribir igual. Como si detrás de cientos de publicaciones distintas existiera una misma voz promedio intentando sonar inteligente.
Paradójicamente, mientras más avanza la IA, más valor empieza a tener aquello que no puede fabricarse fácilmente: la experiencia vivida, la observación propia, el criterio construido con años y la capacidad de sostener una idea incómoda aunque no sea perfecta.
Quizás allí está la verdadera diferencia entre escribir y simplemente generar texto.






