グーグルは最近、新しいAIモデルファミリーPaliGemma2を発表しました。その最も注目すべき機能は、画像分析を通じて人間の感情を「認識」できると主張している点です。この主張は、学界や技術倫理の専門家から広く議論され、深刻な疑問を投げかけられています。

GemmaオープンモデルをベースにしたこのAIシステムは、詳細な画像説明を生成できます。単なる物体の認識にとどまらず、画像中の人物の行動や感情も記述しようとします。しかし、多くの権威ある専門家が、この技術の科学性と潜在的なリスクについて深刻な警告を発しています。

オックスフォードインターネット研究所のデータ倫理教授サンドラ・ワッハトは、AIで人間の感情を「読み取る」試みは「魔法の8ボールにアドバイスを求めるようなもの」だと率直に指摘しました。この比喩は、感情認識技術の不条理さを鮮やかに示しています。

image.png

実際、感情認識の科学的根拠は非常に脆弱です。心理学者のポール・エクマンが提唱した初期の6つの基本感情理論は、その後の研究で広く疑問視されています。異なる文化背景を持つ人々の感情表現には大きな違いがあり、普遍的な感情認識はほぼ不可能な任務となっています。

クイーン・メアリー大学のAI研究者マイク・クックは、感情検知は一般的に不可能だとより直接的に述べています。人間はしばしば、観察によって他人の感情を判断できると信じていますが、この能力は想像以上に複雑で信頼性に欠けます。

さらに懸念されるのは、このようなAIシステムには深刻な偏見が存在する可能性が高いことです。多くの研究が、顔分析モデルは異なる肌の色の人々に異なる感情判断をする可能性を示しており、これは既存の社会差別を悪化させる可能性があります。

グーグルはPaliGemma2を幅広くテストし、いくつかのベンチマークテストで良好な結果を得たと主張していますが、専門家たちは依然として強い懐疑心を抱いています。彼らは、限られたテストだけでは、この技術がもたらす可能性のある倫理的リスクを包括的に評価することはできないと考えています。

最も危険なのは、このオープンモデルが雇用、教育、法執行などの重要な分野で悪用され、弱い立場の人々に実際に被害を与える可能性があることです。ワッハト教授が警告するように、これは恐ろしい「制御不能」な未来につながる可能性があります。人々の雇用、融資、教育の機会が、信頼できないAIシステムの「感情判断」によって決定されるのです。

人工知能が急速に発展している現代において、技術革新は重要ですが、倫理と安全も同様に無視できません。PaliGemma2の登場は、AI技術に対して冷静で批判的な視点を持つ必要があることを改めて浮き彫りにしています。