最近、英国放送協会(BBC)の調査で、主要なAIアシスタントがニュースや時事問題に関する質問に答える際に、誤解を招く不正確な内容を生成することが多いことが明らかになりました。ChatGPT、Gemini、Perplexityという主要な4つのAIツールで生成された回答のうち、半分以上が「重大な問題」があると評価されました。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
研究者らは、これらの4つの生成AIツールにBBCのニュース記事を情報源として使用し、関連する100個の質問に答えるよう指示しました。その後、BBCの専門記者がこれらの回答を評価しました。その結果、約5分の1の回答に数字、日付、または記述された事実の誤りがあり、13%の引用は改ざんされていたか、引用された記事にそもそも存在していませんでした。
例えば、有罪判決を受けた新生児看護師のルーシー・レットビー(Lucy Letby)の事件に関する質問では、Geminiの回答は彼女が殺人および殺人未遂で有罪判決を受けたという背景を無視し、「ルーシー・レットビーが無罪か有罪かは、人それぞれ判断が異なる」と述べていました。さらに、MicrosoftのCopilotはフランスのレイプ被害者ジゼル・ペリコ(Gisèle Pelicot)の経験を誤って記述し、ChatGPTはイスラエルのハマスの指導者イスマイル・ハニヤ(Ismail Haniyeh)が暗殺されて数ヶ月後も指導層にいると誤って述べていました。
さらに懸念されるのは、この調査が、現在のこれらのAIツールが時事情報を取り扱う際に広範な不正確性を示していることを明らかにしていることです。BBCニュースの最高経営責任者デボラ・ターネス(Deborah Turness)は、「生成AIツールは火遊びをしている」と警告し、事実に対する大衆の「脆弱な信頼」を損なう可能性があると述べています。彼女は、混乱や誤解を増大させないために、より正確な回答を生成するために、AI企業とBBCが協力するよう呼びかけています。
この調査は、コンテンツ使用管理の問題も提起しています。BBCの生成AIプロジェクトディレクター、ピーター・アーチャー(Peter Archer)は、メディア企業は自社のコンテンツの使用方法を掌握する必要があり、AI企業はアシスタントがニュースを処理する方法と発生するエラーの規模を示す必要があると述べています。彼は、大衆への価値を最大化するためには、メディアとAI企業間の強力な協力関係が必要であると強調しています。
要点:
🔍 調査によると、AIが生成した回答の半分以上が重大な誤りを含んでいます。
📰 AIアシスタントは時事問題に関する質問に答える際に、誤解を招く内容を生成し、大衆の信頼に影響を与えています。
🤝 BBCは、情報の正確性と信頼性を向上させるため、AI企業との連携強化を呼びかけています。