Desde el lanzamiento público de ChatGPT, su impacto en el ámbito educativo ha sido profundo y preocupante. Cada vez más estudiantes utilizan la inteligencia artificial generativa para realizar tareas y exámenes, presentando trabajos que se consideran resultados académicos auténticos. Este fenómeno no solo devalúa los títulos de secundaria y universidad, sino que también puede llevar a que muchos estudiantes que no han aprendido realmente ingresen a campos profesionales importantes, como enfermería, ingeniería y bomberos, con graves consecuencias para la sociedad.
Nota de la fuente: La imagen fue generada por IA, proveedor de servicios de licencias de imágenes Midjourney
Sin embargo, la mayoría de las escuelas e instituciones educativas no le dan la importancia suficiente a la lucha contra el fraude académico con IA. Aún más alarmante es que algunas escuelas incluso están flexibilizando las restricciones sobre el uso de la IA, permitiendo a los estudiantes utilizar herramientas de IA, pero prohibiendo el uso de tecnologías que pueden detectar trabajos realizados con IA. Esta decisión errónea debilita considerablemente la capacidad de supervisión de los profesores.
Recientemente, un estudio de la Universidad de Reading en el Reino Unido demostró que los profesores apenas pueden identificar trabajos académicos generados por IA. El equipo de investigación presentó trabajos generados por IA haciéndose pasar por estudiantes falsos, y descubrió que el 94% de los trabajos presentados no fueron detectados. Incluso con criterios de detección más estrictos, el 97% de los trabajos presentados por IA no fueron marcados como posibles trabajos generados por IA. Esto demuestra que, incluso en condiciones ideales, la tasa de identificación de trabajos de IA por parte de los profesores es muy baja.
Esta no es la primera advertencia de este tipo. Un estudio anterior de la Universidad del Sur de Florida demostró que los expertos en lingüística no podían distinguir entre textos generados por IA y textos escritos por humanos. Otro estudio realizado en Vietnam mostró que los sistemas de detección de IA pueden identificar eficazmente textos de IA, mientras que la capacidad de identificación de los profesores es mucho menor.
Además, los últimos estudios también han descubierto que los trabajos generados por IA suelen obtener puntuaciones más altas que los trabajos de estudiantes reales. Los estudios demuestran que, en el 83,4% de los casos, los trabajos presentados por IA obtuvieron puntuaciones más altas que los trabajos aleatorios de estudiantes humanos comparables. Esto significa que los estudiantes que utilizan herramientas básicas de IA tienen más probabilidades de obtener mejores calificaciones que aquellos que hacen sus tareas con diligencia.
En las aulas reales, aunque los sistemas de detección puedan marcar trabajos de IA, los profesores suelen ser cautelosos a la hora de denunciar faltas de integridad académica, y muchas escuelas carecen de medidas disciplinarias suficientes para los infractores. En resumen, si las escuelas no utilizan tecnología de detección de IA, los estudiantes que hacen trampas con IA pueden obtener fácilmente calificaciones más altas sin temor a ser descubiertos.
Actualmente, el entorno de los cursos en línea complica aún más este problema, ya que los profesores no pueden conocer realmente la identidad de los estudiantes, lo que aumenta la posibilidad de hacer trampas. Aunque las escuelas podrían abordar este problema mediante la supervisión de los exámenes o el uso de entornos de escritura que rastreen las modificaciones, muchas escuelas no están dispuestas a dedicar el tiempo y los recursos necesarios para implementar estas medidas. Por lo tanto, el fraude académico es cada vez más frecuente, y la respuesta eficaz a este problema sigue siendo insuficiente.
Puntos clave:
📚 El 94% de los trabajos universitarios generados por IA no fueron detectados por los profesores, lo que amenaza la integridad académica.
🚫 La mayoría de las escuelas no le dan importancia a la lucha contra el fraude académico con IA, e incluso están flexibilizando las restricciones sobre el uso de la IA.
📊 Los trabajos generados por IA suelen obtener puntuaciones más altas que los trabajos de estudiantes reales, y la eficacia de los sistemas de detección es limitada.