Los estudiantes de Texas A&M University en Commerce estaban en modo celebración el pasado fin de semana, cuando los padres entraron en el Field House de la universidad para ver a los estudiantes vestidos con toga y birrete caminar por el escenario de graduación.
Pero para los alumnos de la clase de ciencia animal de Jared Mumm, la diversión se interrumpió cuando recibieron un correo electrónico acalorado el lunes por la tarde que decía que los estudiantes estaban en peligro de reprobar la clase por usar ChatGPT para hacer trampa. “La calificación final del curso vence hoy a las 5 pm”, advirtió el instructor, según una copia de la nota obtenida por The Washington Post. “Le daré a todos en este curso una ‘X’”, indicando incompleto.
Mumm, un instructor de la facultad de agricultura de la universidad, dijo que había copiado los ensayos de los estudiantes en ChatGPT y le pidió al software que detectar si el chatbot respaldado por inteligencia artificial había escrito las tareas. Estudiantes marcados como tramposos «recibió un 0».
Acompañó el correo electrónico con notas personales en un alojamiento de portal en línea. Los grados. “No calificaré el chat Gpt s ***”, escribió en la tarea de un estudiante, según una captura de pantalla obtenida por The Post. “Tengo que medir lo que estás aprendiendo, no una computadora”.
El correo electrónico causó pánico en la clase, y algunos estudiantes temían que sus diplomas estuvieran en riesgo. Una estudiante de último año, que se graduó durante el fin de semana, dijo que la acusación la puso frenética. Reunió pruebas para demostrar su inocencia (había escrito sus ensayos en Google Docs, que registra marcas de tiempo) y se las presentó a Mumm en una reunión.
La estudiante, que habló con The Post bajo condición de anonimato para discutir asuntos sin temor a represalias académicas, dijo que se sintió traicionada.
“Hemos pasado por mucho para obtener estos títulos”, dijo en una entrevista con The Post. “La idea de que no se reconozca mi arduo trabajo y se cuestione mi carácter. … Realmente me frustró”. (Mumm no respondió a una solicitud de comentarios).
El auge de la inteligencia artificial generativa, que subyace al software que crea palabras, textos e imágenes, está provocando un momento crucial en la educación. Los chatbots pueden crear ensayos, poemas, códigos informáticos y canciones que pueden parecer hechos por humanos, lo que dificulta determinar quién está detrás de cualquier contenido.
Si bien ChatGPT no se puede usar para detectar escritura generada por IA, una avalancha de empresas de tecnología está vendiendo software que, según afirman, puede analizar ensayos para detectar dicho texto. Pero la detección precisa es muy difícil, según los expertos en tecnología educativa, lo que obliga a los educadores estadounidenses a meterse en un lío: adaptarse a la tecnología o hacer intentos inútiles de limitar las formas en que se usa.
La reportera Danielle Abril prueba al columnista Geoffrey A. Fowler para ver si puede notar la diferencia entre un correo electrónico escrito por ella o ChatGPT. (Vídeo: Mónica Rodman/The Washington Post)
Las respuestas varían toda la gama. El Departamento de Educación de la ciudad de Nueva York ha prohibido ChatGPT en sus escuelas, al igual que la Universidad de Ciencias Po, en París, citando preocupaciones de que pueda fomentar el plagio desenfrenado y socavar el aprendizaje. Otros profesores alientan abiertamente el uso de chatbots, comparándolos con herramientas educativas como una calculadora, y argumentan que los maestros deberían adaptar los planes de estudios al software.
Sin embargo, los expertos en educación dicen que las tensiones que estallaron en Texas A&M ponen al descubierto una realidad preocupante: los protocolos sobre cómo y cuándo usar chatbots en el trabajo de clase son vagos e inaplicables, y cualquier esfuerzo por regular su uso corre el riesgo de presentar acusaciones falsas.
«¿Quieres ir a la guerra con tus estudiantes por las herramientas de IA?» dijo Ian Linkletter, quien se desempeña como bibliotecario de tecnología emergente y educación abierta en el Instituto de Tecnología de Columbia Británica. «¿O quiere darles una guía clara sobre lo que está bien y lo que no, y enseñarles cómo usar las herramientas de manera ética?»
Michael Johnson, portavoz de la Universidad Texas A&M en Commerce, dijo en un comunicado que ningún estudiante reprobó la clase de Mumm ni se le prohibió graduarse. Agregó que “varios estudiantes han sido exonerados y sus calificaciones han sido emitidas, mientras que un estudiante se ha presentado admitiendo su uso de [ChatGPT] en el curso.»
Agregó que los funcionarios de la universidad están “desarrollando políticas para abordar el uso o mal uso de la tecnología de inteligencia artificial en el aula”.
En respuesta a las preocupaciones en el aula, una flota de empresas ha lanzado productos que afirman que pueden marcar el texto generado por IA. La empresa de detección de plagio Turnitin presentó un detector de escritura de IA en abril a los suscriptores. Un examen posterior mostró que puede marcar erróneamente el texto generado por humanos como escrito por AI. En enero, el fabricante de ChatGPT, OpenAI, dijo que creó una herramienta que puede distinguir entre texto humano y generado por IA, pero señaló que «no es completamente confiable» y etiqueta incorrectamente dicho texto el 9 por ciento de las veces.
Detectar texto generado por IA es difícil. El software busca líneas de texto y busca oraciones que son «demasiado consistentemente promedio», dijo Eric Wang, vicepresidente de IA de Turnitin, a The Post en abril.
Los expertos en tecnología educativa dijeron que el uso de este software puede dañar a los estudiantes, en particular a los hablantes no nativos de inglés o a los escritores básicos, cuyo estilo de escritura puede parecerse más a lo que podría generar una herramienta generada por IA. Los chatbots están entrenados en montones de texto, funcionan como una versión avanzada de autocompletar para predecir la siguiente palabra en una oración, una práctica que a menudo resulta en una escritura que, por definición, es inquietantemente promedio.
Pero a medida que se extiende el uso de ChatGPT, es imperativo que los maestros comiencen a abordar el problema de los falsos positivos, dijo Linkletter.
Él dice que la detección de IA tendrá dificultades para seguir el ritmo de los avances en modelos de lenguaje grandes. Por ejemplo, Turnitin.com puede marcar el texto de IA escrito por GPT-3.5, pero no su modelo sucesor, GPT-4, dijo. “La detección de errores no es un problema que pueda resolverse”, agregó Linkletter. “Es un desafío que solo se volverá cada vez más difícil”.
Pero señaló que incluso si el software de detección mejora en la detección de texto generado por IA, aún causa tensión mental y emocional cuando un estudiante es acusado injustamente. “Los falsos positivos conllevan un daño real”, dijo. “A la escala de un curso, o a la escala de la universidad, incluso una tasa de uno o dos por ciento de falsos positivos tendrá un impacto negativo en decenas o cientos de estudiantes inocentes”.
En Texas A&M, todavía hay confusión. Mumm ofreció a los estudiantes la oportunidad de enviar una nueva tarea antes de las 5 pm del viernes para no recibir un incompleto para la clase. “Varios” estudiantes eligieron hacer eso, dijo Johnson, y señaló que sus diplomas “están en espera hasta que se complete la tarea”.
Bruce Schneier, tecnólogo de interés público y profesor de la Escuela de Gobierno Kennedy de la Universidad de Harvard, dijo que cualquier intento de tomar medidas enérgicas contra el uso de chatbots de IA en las aulas es erróneo, y la historia demuestra que los educadores deben adaptarse a la tecnología. Schneier no desaconseja el uso de ChatGPT en sus propias aulas.
“Hubo muchos años en que la calculadora de bolsillo se usó para todas las matemáticas, y entraste a un salón de clases y no se te permitió usarla”, dijo. «Probablemente tomó un cambio generacional para que nos demos cuenta de que eso no es realista».
Los educadores deben lidiar con el concepto de «qué significa evaluar el conocimiento». En esta nueva era, dijo, será difícil lograr que los estudiantes dejen de usar la IA para escribir los primeros borradores de los ensayos, y los profesores deben adaptar los currículos a favor de otras tareas, como proyectos o trabajos interactivos.
“La pedagogía va a ser diferente”, dijo. “Y luchando [AI]creo que es una batalla perdida”.