ChatGPTが公開されて以来、教育界への影響は深刻で懸念されています。ますます多くの学生が生成AIを使って宿題や試験をこなし、提出された作品は本物の学術成果として扱われています。この現象は、高校や大学の学位の価値を下げるだけでなく、真に学んでいない多くの学生が看護師、エンジニア、消防士などの重要な職業分野に進む可能性があり、社会に深刻な影響を与えるでしょう。

ロボット AIライティング AI教育

画像出典:AI生成画像、画像ライセンス提供元Midjourney

しかし、ほとんどの学校や教育機関は、AIによる学術不正の取り締まりに十分な注意を払っていません。さらに衝撃的なことに、一部の学校では、AIツールの使用を許可しながら、AIによる宿題を検出できる技術の使用を禁止するなど、AIの使用制限を積極的に緩和しているところもあります。この誤った決定は、教師の監督能力を大幅に低下させます。

最近、イギリスのレディング大学の研究によると、教師はAIが生成した学術作品をほとんど識別できないことが示されました。研究チームは、偽の学生としてAIが生成した課題を提出したところ、提出された作品の94%が検出されませんでした。より厳しい検出基準を採用した場合でも、97%のAI提出作品がAI生成の可能性としてマークされませんでした。これは、理想的な状況下でも、教師によるAI作品識別率が非常に低いことを示しています。

このような警告が出されたのは今回が初めてではありません。以前、サウスフロリダ大学の研究では、言語学の専門家でもAIが生成したテキストと人間が書いたテキストを区別できないことが示されました。ベトナムで行われた別の研究では、AI検出システムはAIテキストを効果的に識別できる一方、人間の教師の識別能力ははるかに劣ることが示されています。

さらに、最新の研究では、AIが生成した課題は、実際の学生の課題よりも高い点数を取得することが多いことも明らかになっています。研究によると、83.4%のケースで、AIが提出した課題の点数は、同等の能力を持つ人間の学生のランダムに選択された課題よりも高くなっています。これは、基本的なAIツールを使用する学生の作品は、真面目に課題に取り組んだ学生よりも高い点数を取得する可能性が高いことを意味します。

実際の授業では、検出システムがAIによる課題をマークする場合でも、教授は学術倫理の通報に対して慎重な姿勢をとることが多く、多くの学校では違反者に対する十分な罰則がありません。要約すると、学校がAI検出技術を使用しない場合、AIを使って不正行為を行った学生は、発見される心配をすることなく、より高い点数を簡単に取得できる可能性があります。

現在、オンラインコースの環境は、この問題をさらに複雑なものにしています。教師は学生の身元を本当に確認できないため、不正行為の可能性が高まります。学校は試験監視や改ざん防止機能付きのライティング環境を使用することでこの問題に対処できますが、多くの学校はこれらの対策を実施するための労力と資金を費やそうとはしません。そのため、学術不正の現象はますます深刻化しており、この問題への効果的な対応は依然として不足しています。

要点:

📚AIが生成した大学論文の94%が教師に検出されず、学術倫理が脅かされています。

🚫多くの学校がAIによる学術不正の取り締まりに真剣に取り組んでおらず、AIの使用制限を緩和しているところもあります。

📊AIが生成した課題の点数は、実際の学生の課題よりも高い傾向があり、検出システムの効果は限定的です。