La escritura generada por I.A es casi imposible de detectar y las tensiones que surgen en una universidad de Texas exponen las dificultades a las que se enfrentan los educadores
Los estudiantes de la Universidad de Texas A&M en Commerce estaban en modo de celebración el pasado fin de semana, mientras los padres se dirigían al Field House de la universidad para ver a los estudiantes vestidos con toga y birrete caminar por el escenario de graduación. Pero para los alumnos de la clase de ciencias animales de Jared Mumm, la diversión se vio interrumpida cuando recibieron un correo electrónico acalorado el lunes por la tarde que decía que estaban en peligro de reprobar la clase por hacer trampa utilizando ChatGPT.
Mumm, un instructor en el colegio de agricultura de la universidad, dijo que había copiado los ensayos de los estudiantes en ChatGPT y le pidió al software que detectara si el chatbot respaldado por inteligencia artificial había escrito las tareas. Los estudiantes señalados como tramposos "recibieron un 0".
Mumm acompañó el correo electrónico con notas personales en un portal en línea que alberga las calificaciones. "No calificaré esta basura de ChatGPT",
El correo electrónico causó pánico en la clase, con algunos estudiantes temiendo que sus diplomas estuvieran en riesgo. Una estudiante de último año, que se había graduado durante el fin de semana, dijo que la acusación la llevó a un frenesí. Recopiló pruebas para demostrar su inocencia: había escrito sus ensayos en Google Docs, que registra las marcas de tiempo, y las presentó a Mumm en una reunión.
La estudiante, que habló con The Post bajo condición de anonimato para discutir asuntos sin temor a represalias académicas, dijo que se sentía traicionada.
Los expertos en educación señalan que las tensiones que estallan en Texas A&M revelan una realidad preocupante: los protocolos sobre cómo y cuándo utilizar chatbots en el trabajo escolar son vagos y no se pueden hacer cumplir, y cualquier esfuerzo por regular su uso corre el riesgo de provocar acusaciones falsas.