グーグルは先日、最新世代の人工知能モデル「PaliGemma2」を発表しました。この技術は画像を分析してキャプションを生成し、写真内の人物の感情や行動に関する質問にも答えることができます。PaliGemma2はグーグルのGemmaオープンモデルシリーズをベースにしており、従来の物体認識よりも深い画像記述を提供し、感情を認識して文脈に沿った詳細な説明を生成できます。しかし、この技術は画期的なイノベーションのように見えますが、専門家はその潜在的な倫理的および社会的な影響について深刻な警告を発しています。

QQ20241206-092015.png

感情認識はPaliGemma2の標準機能ではなく、微調整によって実現されます。グーグルは「広範なテスト」を実施し、人口統計学的バイアスにおいて業界基準を上回っていると述べていますが、専門家は依然としてこの技術の信頼性について懸念を表明しています。オックスフォード大学のサンドラ・ウォーハット教授は、「人工知能を使って人間の感情を『読み取る』ことには大きな問題がある」と述べ、このプロセスは仮定に依存しすぎであり、誤判とバイアスにつながる可能性があると指摘しています。

感情認識技術は長年、技術界で議論の的となっています。ポール・エクマンの感情理論などの初期の研究では6つの基本的な感情が提唱されていましたが、その後の研究では、異なる文化や背景における感情表現の差異が非常に大きいことが示されています。イギリスのクイーン・メアリー大学のマイク・クック研究員は、「感情体験の複雑さから、感情検出を正確に行うことはほとんど不可能だ」と指摘しています。さらに、既存の顔表情分析システムは、笑顔や異なる人種の顔表情の違いなど、特定の感情に対して偏見を持つことが研究で示されています。

感情認識技術が商業化されるにつれて、その悪用リスクが懸念されています。一部の専門家は、この技術が法執行や採用などの分野で使用され、社会的不平等をさらに悪化させる可能性を懸念しています。EUの人工知能法案では、特に高リスク環境における感情認識技術について厳格な制限が設けられています。

グーグルは、PaliGemma2のテスト段階で、特に子供とコンテンツの安全性の観点から、倫理と安全性の問題を十分に考慮してきたと主張しています。しかし、これらの保証が十分かどうかは、厳格な検証が必要です。AI Now InstituteのHeidy Khlaaf博士は、感情認識は単なる視覚の問題ではなく、深い社会文化的背景に関連しており、「顔の特徴だけでは感情を正確に推測できない」と述べています。

この技術の公開発表に伴い、PaliGemma2は画像理解分野における人工知能の応用を推進するだけでなく、社会倫理とデータプライバシーに新たな課題を突きつけ、関連規制機関の関与と介入が求められています。