近年、感情認識技術はテクノロジー業界で徐々に注目を集めています。多くのテクノロジー企業がAI駆動の感情認識ソフトウェアを開発し、生物学的データから喜び、悲しみ、怒り、落胆など、人の感情状態を判断できると主張しています。しかし、多くの科学的研究が示すように、これらの技術の信頼性は宣伝ほど高くありません。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
最新の研究によると、感情認識技術は深刻な科学的有効性の問題に直面しています。多くの企業はこれらのシステムが客観的で、科学的な手法に基づいていると主張していますが、実際には、時代遅れの理論に依存していることが多くあります。これらの理論は、感情は定量化可能であり、世界中で同じように表現されると仮定していますが、実際には、感情の表現は文化、環境、個人の違いによって大きく影響を受けます。例えば、人の皮膚の湿度は怒りを感じている時に上昇したり、下降したり、変化しなかったりするため、単一の生物学的指標では感情を正確に判断することはできません。
同時に、これらの感情認識技術は、特に職場において、法的および社会的なリスクをもたらします。EUの新規則によると、医療または安全上の理由がない限り、職場での感情推論AIシステムの使用は禁止されています。一方、オーストラリアでは、この点に関する規制はまだ追いついていません。一部の企業が採用において顔の感情分析を試みたことがありますが、これらの技術の有効性と倫理性については広く疑問視されています。
さらに、感情認識技術には潜在的なバイアスの問題もあります。これらのシステムは感情を認識する際に、異なる人種、性別、障害を持つ人々に対して差別的な結果を示す可能性があります。例えば、ある研究によると、感情認識システムは、黒人の顔に対して、同じ程度に微笑んでいても、怒っていると判断する傾向が高いことが示されています。
テクノロジー企業は感情認識のバイアスの問題を認めていますが、そのバイアスは主にこれらのシステムのトレーニングに使用されたデータセットに起因すると強調しています。この問題に対処するため、inTruth Technologiesは、バイアスを軽減するために多様性と包括性を備えたデータセットを使用することに取り組むと述べています。
感情認識技術に対する世間の見方は楽観的ではありません。最近の調査によると、オーストラリアの成人のわずか12.9%だけが、職場での顔認識に基づく感情認識技術の使用を支持しており、多くの人がこれをプライバシー侵害とみなしています。
要点:
🌐 世界市場は急速に成長していますが、感情認識技術の科学的根拠は疑問視されています。
⚖️ EUは職場での感情推論AIシステムの使用を禁止しており、オーストラリアは関連規制の制定が急務です。
🤖 一般的に、感情認識技術に対しては、プライバシー侵害やバイアスの存在を理由に、否定的な見方が広がっています。