人工知能の急速な発展に伴い、生成AIは多くの利便性をもたらす一方で、虚偽情報の生成という無視できない問題も引き起こしています。この課題に対処するため、マイクロソフトは最近、「Correction」という新しいツールを発表しました。これは、AI生成コンテンツ内の虚偽情報を修正することを目的としています。
マイクロソフトAzure AIコンテンツセキュリティAPIの一部として、「Correction」は現在プレビュー段階にあります。このツールは、誤った企業の四半期決算サマリーなどの誤った可能性のあるテキストを自動的にタグ付けし、信頼できる情報源と比較してこれらの誤りを修正します。注目すべきは、この技術はMetaのLlamaやOpenAIのGPT-4など、すべてのテキスト生成AIモデルに適用できることです。
マイクロソフトの広報担当者は、「Correction」は小型言語モデルと大型言語モデルを組み合わせることで、生成されたコンテンツが実際のドキュメントと一致することを保証すると述べています。彼らは、この新機能が医療などの分野の開発者が応答の正確性を向上させるのに役立つことを期待しています。
しかし、専門家たちは慎重な姿勢を示しています。ワシントン大学の博士課程学生であるOs Keyes氏は、生成AIの虚偽を排除しようとすることは、水から水素を取り除こうとするようなものであり、これは技術の動作の基本的な構成要素だと考えています。実際、テキスト生成モデルが虚偽情報を生成するのは、実際には何も「知らない」ためであり、トレーニングセットに基づいて推測しているに過ぎません。ある研究によると、OpenAIのChatGPTは医療に関する質問に答える際に、誤答率が50%にも上ることが分かっています。
マイクロソフトの解決策は、一対のクロスリファレンスされた「編集」メタモデルを使用して、これらの虚偽情報を特定して修正することです。1つの分類モデルは、可能性のある誤り、虚構、または無関係なテキストセグメントを検索する役割を担い、これらの問題が検出された場合、2番目の言語モデルが導入され、特定の「基礎ドキュメント」に基づいて修正を試みます。
マイクロソフトは「Correction」がAI生成コンテンツの信頼性と信用性を大幅に向上させると主張していますが、専門家はまだ懸念を抱いています。クイーンメアリー大学の研究員であるMike Cook氏は、「Correction」が宣伝どおりに効果的であったとしても、AIの信頼性と説明可能性の問題を悪化させる可能性があると指摘しています。このサービスは、ユーザーにモデルの正確性が実際よりも高いという誤った安心感を与える可能性があります。
付け加えると、マイクロソフトは「Correction」の発表に際し、商業的な思惑も秘めています。この機能自体は無料ですが、虚偽情報を検出するために必要な「基礎ドキュメント検出」機能には毎月の利用制限があり、制限を超えた分は有料となります。
マイクロソフトは、AI投資の価値を証明するというプレッシャーにさらされています。同社は今年第2四半期に、AI関連の資本支出と設備に約190億ドルを費やしましたが、これまでのところ、AIから得られた収益は多くありません。最近、ウォール街のアナリストがマイクロソフトの株価格付けを引き下げ、長期的なAI戦略の実現可能性に疑問を呈しています。
正確性と虚偽情報の潜在的なリスクは、企業がAIツールを試験導入する際の最大の懸念事項の1つとなっています。Cook氏は、これが通常の製品ライフサイクルであれば、生成AIはまだ学術研究と開発段階にあり、その長所と短所を改善し理解し続けるべきだと述べています。しかし、私たちはそれをすでに複数の業界に投入しています。
マイクロソフトの「Correction」ツールは、AIの虚偽情報問題への取り組みであることは間違いありませんが、それが生成AIの信頼危機を本当に解決できるかどうかは、まだ時間が必要です。AI技術の急速な発展に伴い、イノベーションとリスクのバランスをどのように取るかが、業界全体が直面する重要な課題となるでしょう。