Seit der Veröffentlichung von ChatGPT hat die Technologie tiefgreifende und besorgniserregende Auswirkungen auf das Bildungssystem. Immer mehr Schüler nutzen generative KI, um Hausaufgaben und Prüfungen zu erledigen, wobei die eingereichten Arbeiten als authentische akademische Leistungen gelten. Dieses Phänomen entwertet nicht nur Hochschul- und Universitätsabschlüsse, sondern kann auch dazu führen, dass viele Studenten ohne tatsächliches Lernen in wichtige Berufsfelder wie Pflege, Ingenieurwesen und Feuerwehr gelangen, was schwerwiegende gesellschaftliche Folgen haben kann.
Bildquelle: Das Bild wurde von KI generiert und stammt von Midjourney.
Die meisten Schulen und Bildungseinrichtungen schenken der Bekämpfung von KI-akademischem Betrug jedoch nicht genügend Aufmerksamkeit. Noch schockierender ist, dass einige Schulen die Nutzung von KI sogar aktiv lockern und Schülern die Verwendung von KI-Tools erlauben, aber gleichzeitig den Einsatz von Technologien zur Erkennung von KI-Hausaufgaben verbieten. Diese Fehlentscheidung schwächt die Aufsichtsmöglichkeiten der Lehrer erheblich.
Eine kürzlich durchgeführte Studie der Universität Reading in Großbritannien zeigt, dass Lehrer KI-generierte akademische Arbeiten kaum erkennen können. Das Forschungsteam reichte unter falschem Namen KI-generierte Arbeiten ein und stellte fest, dass 94 % der eingereichten Arbeiten nicht erkannt wurden. Selbst bei strengeren Prüfstandards blieben 97 % der KI-Einreichungen als mögliche KI-Generierung unmarkiert. Dies zeigt, dass selbst unter idealen Bedingungen die Erkennungsrate von KI-Arbeiten durch Lehrer sehr gering ist.
Dies ist nicht die erste Warnung dieser Art. Eine frühere Studie der Universität Süd-Florida ergab, dass Sprachwissenschaftler KI-generierte Texte nicht von menschlich verfassten Texten unterscheiden konnten. Eine weitere Studie aus Vietnam zeigte, dass KI-Erkennungssysteme KI-Texte effektiv identifizieren können, während die Erkennungsfähigkeit menschlicher Lehrer deutlich geringer ist.
Neuere Forschungsergebnisse zeigen außerdem, dass KI-generierte Hausaufgaben oft besser bewertet werden als Arbeiten echter Schüler. In 83,4 % der Fälle erzielten KI-Einreichungen höhere Punktzahlen als zufällig ausgewählte Arbeiten von menschlichen Schülern. Das bedeutet, dass Studenten, die einfache KI-Tools verwenden, mit größerer Wahrscheinlichkeit höhere Noten erhalten als ihre Kommilitonen, die ihre Hausaufgaben gewissenhaft erledigen.
Im realen Unterricht sind Professoren zwar möglicherweise vorsichtig bei Meldungen über akademische Ehrlichkeit, selbst wenn ein Erkennungssystem KI-Hausaufgaben markiert, und viele Schulen verhängen nur unzureichende Strafen für Verstöße. Zusammenfassend lässt sich sagen, dass Studenten, die KI zum Schummeln verwenden, ohne den Einsatz von KI-Erkennungstechnologien in Schulen, mit Leichtigkeit höhere Noten erzielen können, ohne befürchten zu müssen, entdeckt zu werden.
Die Situation wird durch die Online-Lernumgebung noch komplexer, da Lehrer die Identität der Schüler nicht wirklich überprüfen können und dies die Wahrscheinlichkeit von Betrug erhöht. Schulen könnten dieses Problem zwar durch Prüfungsüberwachung oder die Verwendung einer modifizierten Schreibumgebung lösen, doch viele Schulen sind nicht bereit, den Aufwand und die Kosten für die Umsetzung dieser Maßnahmen zu tragen. Daher nimmt der akademische Betrug immer mehr zu, während effektive Gegenmaßnahmen immer noch unzureichend sind.
Wichtigste Punkte:
📚 94 % der von KI generierten Hochschul-Arbeiten wurden von Dozenten nicht erkannt, die akademische Integrität ist gefährdet.
🚫 Die meisten Schulen schenken der Bekämpfung von KI-akademischem Betrug keine Beachtung und lockern die Nutzung von KI sogar.
📊 KI-generierte Arbeiten erzielen im Allgemeinen höhere Noten als Arbeiten echter Studenten, die Wirksamkeit von Erkennungssystemen ist begrenzt.