Khristian Vigil de la Universidad Norbert Wiener subraya la urgencia de educar más allá de lo técnico y adaptar reglamentos para el uso responsable de herramientas como ChatGPT y Gemini.

El vertiginoso avance de la inteligencia artificial (IA) presenta a las universidades uno de sus retos más significativos del siglo XXI. No se trata solo de enseñar a usar herramientas como ChatGPT, Gemini o Copilot, que son cada vez más comunes en las aulas, sino de educar para un uso responsable, ético y jurídicamente informado de estas tecnologías. Este fue uno de los puntos centrales abordados por Khristian Vigil, gerente legal y secretario general de la Universidad Norbert Wiener, en una entrevista concedida recientemente al podcast Doble Check de VidayFuturo.pe

Según Vigil, la irrupción de la IA generativa en la vida académica ha desdibujado los límites tradicionales entre autoría, colaboración y plagio. Este nuevo escenario exige que las instituciones de educación superior asuman un rol protagónico, no solo como centros de formación técnica, sino como espacios donde se construye ciudadanía digital con sólidos fundamentos éticos y legales. La rapidez con la que la IA se ha integrado en la academia ha tomado a muchas universidades por sorpresa, encontrándose aún en proceso de adaptación.

La preocupación inicial sobre el uso de la IA en la educación a menudo se centra en el plagio de trabajos o tesis. Sin embargo, las implicancias van mucho más allá. Khristian Vigil destacó que la IA es utilizada por estudiantes, docentes y las propias instituciones. Ejemplos de uso institucional incluyen chatbots para atención o simuladores avanzados con realidad virtual para estudiantes. Los docentes, por su parte, pueden usarla para redactar sílabus o preparar materiales de clase. Los estudiantes la emplean para tareas, proyectos o tesis.

Este amplio espectro de uso obliga a las universidades a entender dónde se está actuando correctamente y dónde no. Un desafío clave es garantizar la integridad académica, pero también proteger la privacidad de datos, evitar la reproducción de sesgos algorítmicos, y preparar a los estudiantes para un mercado laboral transformado por la automatización.

Desde el punto de vista jurídico, el uso de la IA en el ámbito universitario plantea múltiples interrogantes que aún carecen de regulación específica. Vigil mencionó preguntas como hasta qué punto el uso de IA vulnera el principio de originalidad en trabajos académicos, cómo deben las universidades adaptar sus códigos de conducta, y cuál es la responsabilidad de docentes e instituciones frente al uso indebido.

Khristian Vigil acaba de ser nombrado decano de la Facultad de Derecho y Ciencia Política de la Universidad Norbert Wiener. FOTO: Universidad Norbert Wiener

Para la Universidad Norbert Wiener, el abordaje de este desafío pasa por un proceso integral que comienza con la capacitación. «Primero que capacitar a las personas… Todos deben conocer esta herramienta y deben saber utilizarla porque es necesario. No podemos simplemente tratar de obiar o excluir», afirmó Vigil. Tras la capacitación, se realiza una «marcha blanca» para entender los peligros del mal uso, antes de implementar o actualizar códigos de ética y reglamentos de infracciones y sanciones.

Khristian Vigil hizo hincapié en que la formación debe ir más allá del conocimiento técnico. «Tú formas seres humanos de bien conocimientos técnicos. Y ojo el orden, ah, seres humanos de bien conocimientos técnicos». Si solo se forman técnicos, se corre el riesgo de que utilicen la IA «sin el mayor control ético, sin el mayor norte de respeto sobre los derechos intelectuales de otros terceros, sin verificar si la información… termina generando un daño a un tercero». El objetivo es que el código de ética establezca una restricción clara contra el mal uso de las tecnologías, confiando en que un ciudadano bien formado entienda que los trabajos deben ser propios.

El vocero también destacó el potencial positivo de la IA, permitiendo tareas como sistematizar información compleja de manera rápida para luego analizarla y construir ideas. Sin embargo, subrayó la importancia fundamental de la revisión humana del resultado generado por la IA, poniendo ejemplos donde la IA puede cometer errores o sugerir acciones no éticas. La universidad busca insertar la IA en el uso diario de su personal y docentes, pero dejando claro que se contrata al colaborador, no a la herramienta de IA para que trabaje por él.

Los principales desafíos identificados por la universidad incluyen garantizar la integridad académica, proteger la privacidad de datos, evitar sesgos y preparar a los estudiantes para el futuro del trabajo. El impacto de la IA se extiende a todo el sector educativo, transformando laboratorios, prácticas y la propia oferta académica. Universidades que no incluyan la IA en sus mallas o programas «simplemente están dando la espalda al futuro y van a quedar poco a poco siendo relegadas al mercado».

Finalmente, Vigil reflexionó sobre la necesidad de que, además de la academia, el Estado se comprometa en el uso de nuevas tecnologías como la IA para mejorar el servicio ciudadano. Recalcó la importancia de formar un ser humano ético como base para utilizar estas herramientas en favor de la sociedad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí