OpenAIは、学生によるChatGPTを用いた不正行為への対応という難しい問題に直面しています。同社はChatGPTで作成された論文やレポートを検出する信頼性の高い方法を開発しましたが、AIによる不正行為に対する広範な懸念から、この技術はまだ公開されていません。

OpenAIは、ChatGPTで生成されたコンテンツを検出する信頼性の高い技術を開発することに成功しました。「透かし」をAI生成テキストに埋め込むことで、99.9%の高い検出精度を実現しています。しかし不可解なことに、この喫緊の課題を解決できる技術が、なかなか公開されないのです。内部関係者によると、このプロジェクトはOpenAI社内で約2年間議論されており、1年前には既に公開できる状態だったとのことです。

OpenAI、人工知能、AI

この技術の公開を妨げている要因は複雑に絡み合っています。まず、OpenAIは、企業の透明性へのコミットメントを維持するか、ユーザーの忠誠心を維持するかというジレンマに直面しています。社内調査によると、ChatGPTの熱心なユーザーの約3分の1が不正防止技術に反対しているとのことです。このデータは、企業の意思決定に大きなプレッシャーを与えています。

次に、OpenAIはこの技術が特定の集団、特に非英語圏の母語話者に不均衡な悪影響を与える可能性を懸念しています。この懸念は、AI倫理における中心的な問題、つまりAI技術の公平性と包括性をどのように確保するかを反映しています。

一方、教育現場ではこの技術への需要が高まっています。民主主義と技術センターの調査によると、中学生と高校生の教師の59%が、生徒がAIを使って宿題をしていると確信しており、この割合は前年度から17%増加しています。教育関係者は、この課題に対処し、学問の誠実性を維持するためのツールを切実に必要としています。

OpenAIの優柔不断は、社内での論争を引き起こしています。このツールを公開すべきだと主張する従業員は、この技術がもたらす可能性のある大きな社会的な利益と比較すると、会社の懸念は取るに足りないものだと考えています。この見解は、技術開発と社会的責任の間の緊張感を浮き彫りにしています。

技術自体にもいくつかの潜在的な問題があります。検出精度は非常に高いものの、翻訳ソフトや手動編集など、簡単な方法で透かしを消せる可能性があると懸念する従業員もいます。この懸念は、AI技術が実際の応用において直面する課題を反映しています。

さらに、この技術の使用範囲をどのように制御するかも難しい問題です。使用範囲が狭すぎると実用性が低下し、広すぎると技術が解読される可能性があります。このバランスには、慎重な設計と管理が必要です。

注目すべきは、他のテクノロジー大手もこの分野で動きを見せていることです。Googleは、Gemini AIで生成されたテキストを検出するための透かしツールSynthIDを開発しており、現在テスト段階にあります。これは、AI業界全体がコンテンツの真正性の検証に重視していることを反映しています。

OpenAIは、特にアメリカ大統領選挙の年であることを考慮し、音声と視覚の透かし技術の開発を優先しました。この決定は、AI企業が技術開発においてより広範な社会的な影響を考慮しなければならないことを示しています。

参考文献:https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink