Ni alumnos ni periodistas lo tienen fácil
“Un profesor suspende a la mitad de sus alumnos tras acusarlos falsamente de usar Chat GPT ” , “Chat GPT engaña a un profesor: le dice que los textos de sus alumnos son suyos”, “Chat GPT dissidents, the students who refuse to use AI” son titulares que vemos hoy en día. Reflejan un clima de incertidumbre creciente: ¿hasta qué punto podemos distinguir con fiabilidad un texto escrito por un humano de uno generado por una inteligencia artificial?
La irrupción masiva de modelos como Chat GPT ha puesto en tensión a instituciones educativas, medios de comunicación y sistemas de evaluación. El miedo a que los estudiantes deleguen la autoría de sus trabajos en una IA ha empujado a muchos docentes hacia un papel incómodo: el del detective digital. Como advertía otro titular reciente: “Cada vez hacemos menos de profesores y más de policías”, escrito por Diana Silva en el Diari Ara .
En EE.UU., el caso del profesor Jared Mumm se viralizó: copió los textos de sus alumnos en Chat GPT y le preguntó si los había escrito. La IA —como suele ocurrir cuando se le hace esta pregunta— afirmó que sí. El resultado: suspensos masivos y un escándalo académico. La noticia, recogida por La Vanguardia, señaló el peligro de confiar en una herramienta que no está diseñada para identificar su propia autoría.
Junto con este, encontramos los casos de los titulares mencionados anteriormente. Los tres proceden de distintas redacciones y describen casos reales relacionados con el uso —y mal uso— de la inteligencia artificial. El primero, “Un profesor suspende a la mitad de sus alumnos tras acusarlos falsamente de usar Chat GPT”, fue publicado por La Vanguardia y relata el caso del profesor Jared Mumm, de la Universidad de Texas, que utilizó erróneamente Chat GPT como detector y acabó suspendiendo injustamente a varios estudiantes. El segundo titular, “Chat GPT engaña a un profesor: le dice que los textos de sus alumnos son suyos”, lo firmó 20 Minutos en un artículo de Ana Higuera, y explica cómo la propia IA confirmó falsamente haber escrito trabajos que, en realidad, eran completamente humanos. En cuanto al tercero, “Chat GPT dissidents, the students who refuse to use AI”, pertenece a EL PAÍS (edición internacional) y está escrito por Susana Pérez Soler; allí se muestra el perfil de alumnos que deciden no usar herramientas de IA para mantener su autonomía creativa y su aprendizaje. Estos tres titulares, procedentes de medios consolidados, ilustran cómo la aparición de la IA en la educación está generando conflictos, dudas metodológicas y nuevos comportamientos entre profesores y estudiantes.
Para combatirlo, proliferan herramientas supuestamente capaces de detectar si un texto ha sido generado por IA. Una de las más conocidas es GPT Zero, mencionada ampliamente en medios y análisis académicos . Se basan en métricas como la perplejidad —que mide lo predecible que es un texto— o la burstiness, relacionada con la variación en la longitud y estructura de las frases.
Sin embargo, los estudios muestran grietas evidentes: los detectores pueden ser engañados mediante parafraseo; pueden presentar sesgos, es decir, textos de autores no nativos tienden a clasificarse erróneamente como generados por IA; y hay incluso los llamados falsos positivos. Por ello, los expertos advierten que no deben utilizarse como pruebas disciplinarias definitivas.
Incluso cuando funcionan mejor, su margen de error es demasiado alto para basar sanciones académicas en ellos. Y mientras tanto, los modelos generativos mejoran a gran velocidad, reduciendo progresivamente las “marcas” estilísticas que los delatan.
Por otro lado, hay empresas y grupos de investigación que están explorando otras vías. El desarrollo de marcas de agua invisibles en contenido generado por IA —como el sistema SynthID— apunta a una posible estandarización futura. Estas técnicas generan patrones estadísticos detectables en el texto sin afectar la legibilidad.
Hay también modelos como Ghostbuster intentan identificar señales sutiles basadas en miles de ejemplos de IA y textos humanos. Pero incluso estos sistemas avanzados muestran limitaciones: una ligera edición humana del texto suele bastar para ocultar los indicios.
Mientras tanto, más allá del ámbito profesional, en las aulas crecen fenómenos paralelos. Por un lado, los estudiantes que usan IA de forma intensiva para redactar trabajos. Por otro, los llamados “disidentes de Chat GPT ”, que rechazan usarla por miedo a perder su voz original o comprometer su aprendizaje.
Los docentes, por su parte, se debaten entre reestructurar sus métodos de evaluación o apostar por herramientas de detección. Universidades de varios países recomiendan ya revisar los sistemas de evaluación tradicionales, como alertaba The Guardian: podría ser “el fin del ensayo tal como lo conocemos”.
Algunas instituciones han optado por exámenes orales, trabajos escritos a mano o presentaciones obligatorias del proceso creativo. El objetivo no es prohibir el uso de IA, sino reforzar la autoría y la comprensión.
Y en el periodismo, ¿qué pasa? La discusión sobre la IA también afecta al mundo mediático. En un contexto donde redactar rápido supone ventaja competitiva, algunas redacciones utilizan IA para generar borradores, titulares o resúmenes. Investigaciones como AI Application in Journalism: Chat GPT and the Uses and Risks of an Emergent Technology analizan las oportunidades y amenazas de esta práctica.
El problema es que el público puede no saber si un artículo ha sido generado, asistido o solo revisado por una IA. Los detectores, por ahora, tampoco pueden determinarlo con certeza. Entonces aparece la pregunta clave: ¿cómo demostramos qué es IA y qué no lo es? La respuesta, hoy, es tan simple como incómoda: no podemos hacerlo con certeza absoluta. No hay detectores, ni modelos, ni verificadores automáticos que puedan ofrecer un cien por cien de fiabilidad: la detección de IA no es una ciencia exacta, sino un conjunto de indicios estadísticos.
Hay muchos expertos que coinciden en que, a medida que las IA generativas mejoren, esta distinción será cada vez menos evidente. Quizá, realmente, la pregunta relevante deje de ser quién escribió el texto y tengamos que empezar a preguntarnos: ¿Qué finalidad tiene? ¿Qué proceso hubo detrás? ¿Qué valor aporta? ¿Estamos enseñando a escribir o solo a esquivar algoritmos?
La situación actual en torno a la detección de textos generados por IA encuentra un eco interesante en Ex Machina (2014), donde la frontera entre lo humano y lo artificial se vuelve casi imposible de trazar. En la película, un joven programador debe evaluar a una inteligencia artificial diseñada para imitar la conciencia y el comportamiento humanos. El proceso, pensado para ofrecer claridad, termina revelando ambigüedades cada vez más profundas: la IA aprende, se adapta, modifica su discurso y aprovecha las limitaciones de quien intenta examinarla.
El conflicto que vive el protagonista recuerda a los dilemas que surgen hoy en aulas y redacciones: la búsqueda de señales que permitan distinguir la autoría acaba siendo frágil y, a menudo, insuficiente. En Ex Machina, las herramientas de evaluación se muestran incapaces de contener una tecnología que evoluciona más rápido que los propios métodos para analizarla. La tensión entre control y autonomía, entre lo verificable y lo incierto, se despliega de manera inquietante en toda la trama.
La película plantea una pregunta que resuena con fuerza en el debate actual: cuando los límites entre creador y creación se difuminan, ¿dónde situamos el valor de un discurso? En la historia de Ex Machina, la clave no está en identificar al autor, sino en comprender la intención, el impacto y las consecuencias de cada acción. Esa perspectiva invita a mirar los textos —humanos o generados por IA— no solo como productos, sino como parte de un proceso donde intervienen comprensión, propósito y responsabilidad.
Así, lo que queda claro es que la educación, el periodismo y la sociedad necesitan normas claras, transparencia y una adaptación pedagógica y ética, más que una persecución basada en sospechas y herramientas imperfectas.
Porque, al final, quizá la verdadera medida de un texto no sea si lo escribió una IA, sino si construye conocimiento, estimula pensamiento crítico o sirve al lector.