Depuis le lancement public de ChatGPT, l'impact sur le secteur de l'éducation est profond et préoccupant. De plus en plus d'étudiants utilisent l'intelligence artificielle générative pour réaliser leurs devoirs et examens, soumettant des travaux considérés comme de véritables réalisations académiques. Ce phénomène non seulement dévalorise les diplômes du secondaire et de l'université, mais risque également de conduire de nombreux étudiants n'ayant pas réellement étudié à accéder à des professions importantes, telles que les infirmières, les ingénieurs et les pompiers, ce qui aurait de graves conséquences pour la société.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Cependant, la plupart des écoles et institutions éducatives ne prennent pas suffisamment au sérieux la lutte contre la fraude académique liée à l'IA. Plus choquant encore, certaines écoles assouplissent même les restrictions sur l'utilisation de l'IA, autorisant les étudiants à utiliser des outils d'IA tout en interdisant l'utilisation de technologies capables de détecter les travaux réalisés par l'IA. Cette décision erronée affaiblit considérablement le pouvoir de surveillance des enseignants.
Récemment, une étude de l'université de Reading au Royaume-Uni a montré que les enseignants étaient pratiquement incapables d'identifier les travaux académiques générés par l'IA. L'équipe de recherche a soumis des travaux générés par l'IA en se faisant passer pour de faux étudiants, et a constaté que 94 % des travaux soumis n'ont pas été détectés. Même avec des critères de détection plus stricts, 97 % des travaux soumis par l'IA n'ont pas été signalés comme étant potentiellement générés par l'IA. Cela montre que même dans des conditions idéales, le taux d'identification des travaux réalisés par l'IA par les enseignants est très faible.
Ce n'est pas la première fois que de tels avertissements sont lancés. Une étude précédente de l'université du Sud de la Floride a montré que les experts en linguistique étaient incapables de distinguer un texte généré par l'IA d'un texte écrit par un humain. Une autre étude menée au Vietnam a montré que les systèmes de détection de l'IA pouvaient identifier efficacement les textes générés par l'IA, tandis que la capacité de reconnaissance des enseignants humains était bien inférieure.
De plus, les dernières recherches ont également révélé que les devoirs générés par l'IA obtenaient souvent de meilleures notes que les devoirs des étudiants réels. Les études montrent que dans 83,4 % des cas, les devoirs soumis par l'IA ont obtenu de meilleures notes que les devoirs aléatoires d'étudiants humains comparables. Cela signifie que les étudiants utilisant des outils IA basiques ont plus de chances d'obtenir de meilleures notes que ceux qui ont fait leurs devoirs consciencieusement.
Dans les salles de classe réelles, même si les systèmes de détection peuvent signaler les devoirs réalisés par l'IA, les professeurs hésitent souvent à signaler les manquements à l'intégrité académique, et de nombreuses écoles manquent de mesures disciplinaires suffisantes pour les contrevenants. En résumé, si les écoles n'utilisent pas la technologie de détection de l'IA, les étudiants qui trichent en utilisant l'IA peuvent facilement obtenir de meilleures notes sans craindre d'être découverts.
Actuellement, l'environnement des cours en ligne rend ce problème encore plus complexe, les enseignants ne pouvant pas vraiment connaître l'identité des étudiants, ce qui augmente les possibilités de tricherie. Bien que les écoles puissent résoudre ce problème grâce à la surveillance des examens ou à l'utilisation d'environnements d'écriture suivis et modifiés, de nombreuses écoles ne souhaitent pas consacrer le temps et les ressources nécessaires à la mise en œuvre de ces mesures. Par conséquent, la fraude académique est de plus en plus fréquente, et les réponses efficaces à ce problème restent insuffisantes.
Points clés :
📚 94 % des dissertations universitaires générées par l'IA n'ont pas été détectées par les enseignants, menaçant l'intégrité académique.
🚫 La plupart des écoles ne prennent pas au sérieux la lutte contre la fraude académique liée à l'IA, et assouplissent même les restrictions sur l'utilisation de l'IA.
📊 Les devoirs générés par l'IA obtiennent généralement de meilleures notes que les devoirs des étudiants réels, et l'efficacité des systèmes de détection est limitée.