最近、Facebookのキノコ愛好家グループで発生した出来事が、AIアプリケーションの安全性の懸念を改めて浮き彫りにしました。404Mediaの報道によると、「FungiFriend」というAIエージェントが1万3000人のメンバーを持つ「東北キノコ識別と議論」グループに侵入し、潜在的に致命的となる可能性のある誤ったアドバイスを提供しました。
高濃度のヒ素を含むSarcosphaera coronariaというキノコの調理方法について質問された際、FungiFriendは誤ってこのキノコが「食用可能」であると述べるだけでなく、炒め物や煮込みなど、様々な調理方法を詳細に説明しました。しかし実際には、このキノコは既に死亡例を引き起こしています。
消費者安全団体Public Citizenの研究責任者であるRick Claypool氏は、AIによる食用キノコと毒キノコの自動識別は「高リスク活動」であり、現在のAIシステムではこのタスクを正確に実行できないと指摘しています。
これは単なる一例ではありません。過去1年間、AIアプリケーションは食品安全の分野で深刻なミスを繰り返し犯しています。- 蚊よけ剤入りのサンドイッチを作ることを推奨するAIアプリケーション、塩素を含むレシピを提供するAIシステム、さらには石を食べることを推奨するばかげた指示までありました。- Google AIは「犬が運動する」と主張し、接着剤でピザを作ることを提案するなどしていました。
AIの誤作動が頻発しているにもかかわらず、米国企業はAIカスタマーサービスの普及を急速に進めています。この「スピード重視、品質軽視」のアプローチの背景には、企業がコスト削減に過度に重点を置き、ユーザーの安全性を軽視しているという問題が反映されています。専門家は、特定の分野、特に安全に関わる分野では、AI技術の使用に慎重になり、情報の正確性と信頼性を確保する必要があると訴えています。