Un tribunal federal de Massachusetts, en los Estados Unidos, falló a favor de la escuela secundaria de Hingham en un caso que sienta precedente sobre el uso de la inteligencia artificial (IA) en el ámbito educativo. El caso involucró a los padres de un estudiante, D.H. y J.H., quienes demandaron a la escuela por castigar a su hijo, identificado como RNH, por usar una herramienta de IA para completar una tarea de historia.
El juez Paul Levenson, del Tribunal de Distrito de Massachusetts, dictaminó que la escuela actuó correctamente al sancionar al alumno. Según el fallo, RNH no solo utilizó la IA para generar ideas o encontrar fuentes, sino que copió y pegó indiscriminadamente texto generado por la herramienta Grammarly.com, incluyendo citas de libros inexistentes, lo que se conoce como “alucinaciones” de la IA.
El caso que generó polémica en EE.UU. por un uso indebido de IA
La escuela argumentó que el estudiante había violado las políticas de integridad académica al presentar el trabajo generado por IA como propio. El juez Levenson estuvo de acuerdo, afirmando que cualquier estudiante en la posición de RNH habría entendido que este uso de la IA era inaceptable.
El incidente ocurrió en diciembre de 2023, cuando RNH cursaba el tercer año de secundaria. El estudiante recibió una calificación reprobatoria en dos partes de un proyecto de historia de Estados Unidos, pero se le permitió rehacer el trabajo desde cero. También se le prohibió inicialmente la selección para la Sociedad Nacional de Honor, aunque finalmente se le permitió unirse al grupo después de que sus padres presentaran la demanda, publicó Arstechnica.
La evidencia presentada
La profesora de historia, Susan Petrie, testificó que el historial de revisiones del documento mostraba que RNH solo había dedicado aproximadamente 52 minutos a la tarea, mientras que otros estudiantes dedicaron entre siete y nueve horas.
Además, la profesora Petrie utilizó varias herramientas de detección de IA que confirmaron que el trabajo había sido generado por IA. Un sitio web marcó partes del trabajo como generadas por IA, y otras dos herramientas, “Draft Back” y “Chat Zero”, también indicaron el uso de IA.
La polémica se generó porque los padres del estudiante argumentaron que “no existía una regla específica en el manual del estudiante que prohibiera el uso de IA”. Sin embargo, la escuela rebatió esta afirmación señalando que el manual prohíbe el uso no autorizado de la tecnología durante las tareas y la imitación del trabajo de otros autores.
Además, la escuela presentó evidencia de que, en otoño de 2023, se distribuyó a los estudiantes una política escrita sobre la deshonestidad académica y las expectativas en relación con la IA. Esta política establecía claramente que los estudiantes no debían usar herramientas de IA en exámenes, trabajos escritos, tareas o trabajos de clase, a menos que se les permitiera y se les instruyera explícitamente para hacerlo.
El juez Levenson rechazó la afirmación de los padres de que los derechos de su hijo al debido proceso habían sido violados. Argumentó que la escuela había tomado medidas para confirmar que RNH había usado la IA de manera inapropiada antes de imponer el castigo. También señaló que la disciplina impuesta no privó a RNH de su derecho a la educación pública.
En su fallo, el juez Levenson enfatizó que si bien la IA presenta nuevos desafíos para los educadores, este caso no presentaba ninguna cuestión particularmente compleja. Afirmó que no había ningún propósito pedagógico en utilizar la IA de la manera en que lo hizo RNH, y que el caso era simplemente un ejemplo de deshonestidad académica.
El caso sienta un precedente importante para el uso de la IA en la educación. Deja claro que, si bien la IA puede ser una herramienta útil para los estudiantes, su uso debe ser ético y responsable. Las escuelas deben establecer políticas claras sobre el uso de la IA, y los estudiantes deben ser educados sobre las implicaciones éticas de su uso.