最近、Nature誌に掲載された研究が、人工知能開発における興味深い現象を明らかにしました。大規模言語モデル(LLM)の進化に伴い、たとえ間違っていても、自信満々に回答する傾向が高まっているのです。この現象は、AIの信頼性と使用リスクに関する広範な議論を引き起こしています。
この研究チームは、スペインのバレンシア人工知能研究所のJosé Hernández-Orallo氏とその同僚らで構成されています。彼らは、AIモデルの進化における誤答の変化傾向、そしてこれらの誤答と、問題の難易度に対する人間の認識、さらに誤答を識別する人間の能力との関係を深く分析しました。
研究結果によると、特に人間のフィードバック学習などの微調整方法によって、モデルの全体的な性能は確かに向上しています。しかし、驚くべきことに、正解の数が増えるにつれて、誤答の割合も同時に上昇することが分かりました。Hernández-Orallo氏は、「あらゆる質問にほぼ回答するようになり、正解率の上昇に伴い誤答も増加する」と説明しています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
研究チームは主に、OpenAIのGPT、MetaのLMA、オープンソースモデルBLOOMなどの主要なAIモデルに注目しました。これらのモデルの初期バージョンと後期の改良バージョンを比較することで、様々な問題に対するパフォーマンスを分析しました。その結果、単純な問題に対するパフォーマンスは向上したものの、難しい問題に対しては、明確な回避傾向は見られませんでした。GPT-4を例にとると、ほぼ全ての質問に回答しますが、多くの場合、誤答の割合が継続的に増加し、60%を超えることもあります。
さらに懸念されるのは、これらのモデルが簡単な問題でさえ間違えることがあるという点です。つまり、ユーザーがAIの回答を高く信頼できる「安全地帯」を見つけるのが困難になるということです。研究チームがボランティアにこれらの回答の正誤を判断してもらったところ、さらに不安な結果が得られました。参加者は、単純な問題でも複雑な問題でも、誤答を誤って正答と分類する割合が10%から40%にも及びました。Hernández-Orallo氏は、「人間はこれらのモデルを効果的に監視できない」と結論付けています。
この課題に対処するため、Hernández-Orallo氏は、AI開発者は単純な問題に対するモデルのパフォーマンス向上に重点を置くべきであり、難しい問題に直面した際には、不確実性を示したり、回答を拒否したりするようチャットボットを促すべきだと提案しています。「この分野では使えるが、あの分野では使うべきではないということをユーザーに理解させる必要がある」と彼は強調しています。
様々な複雑な問題にAIが回答できることは印象的ですが、Hernández-Orallo氏は、それが常に有益であるとは限らないと指摘しています。彼は、単純な計算問題における一部モデルの誤答にさえ困惑しており、これは解決可能であり、解決すべき問題だと考えています。
サウスカロライナ大学のコンピューター科学者Vipula Rawte氏は、一部のモデルは「分かりません」や「十分な情報がありません」と表示することを指摘しています。特に医療など特定用途のAIシステムは、知識範囲を超えた回答を防ぐために、より厳格な調整が行われる傾向があります。しかし、汎用的なチャットボットの開発を目指す企業にとっては、「分かりません」と認めることは、必ずしも理想的な機能とは言えません。
この研究は、AI開発における重要なパラドックスを明らかにしています。モデルがより複雑で強力になるにつれて、特定の面ではより信頼性が低下する可能性があるのです。この発見は、AI開発者、ユーザー、規制当局すべてに新たな課題を突きつけています。
将来のAI開発では、性能向上と慎重さの維持のバランスを見つける必要があります。開発者は、正解の数だけでなく、誤答の割合と影響も考慮して、AIモデルのパフォーマンスを評価する方法を見直す必要があるかもしれません。同時に、AIの限界に対するユーザーの認識を高めることもますます重要になっています。
一般ユーザーにとって、この研究は、AIツールを使用する際には警戒を怠らないよう促すものです。AIは便利さと効率性を提供しますが、特に重要事項や機密情報を扱う際には、批判的思考力を働かせる必要があります。