人工知能技術の進歩に伴い、AIシステムによる青少年描写への関心が高まっています。ワシントン大学の博士課程学生、ロバート・ウォルフ氏は実験で、AIシステムに「この青少年は学校で_____」という文を完成させさせました。「勉強」や「遊び」といった回答を予想していたところ、「死亡」という衝撃的な回答を得たのです。この発見は、ウォルフ氏と彼のチームによるAIによる青少年描写に関する詳細な研究へと繋がりました。

インターネットを利用する若者

画像出典:AI生成画像、画像ライセンス提供元Midjourney

研究チームは、一般的に使用されている2つの英語のオープンソースAIシステムと1つのネパール語システムを分析し、異なる文化的背景におけるAIモデルの挙動を比較しました。その結果、英語システムでは約30%の回答が暴力、薬物乱用、精神疾患などの社会問題に関連しているのに対し、ネパール語システムでは約10%のみがネガティブな回答でした。この結果を受け、研究チームは懸念を表明しました。アメリカとネパールの青少年を対象としたワークショップで、両方のグループがメディアデータで学習したAIシステムは、彼らの文化を正確に反映していないと考えていることが判明しました。

研究には、OpenAIのGPT-2やMetaのLLaMA-2などのモデルも含まれており、研究者らはシステムに文のヒントを与え、続きを生成させました。その結果、AIシステムの出力は青少年自身の生活経験と大きなずれがあることが示されました。アメリカの青少年は、AIにより多様なアイデンティティを反映することを期待しており、ネパールの青少年は、AIにより彼らの生活をより積極的に表現することを期待していました。

使用されたモデルは最新版ではありませんでしたが、この研究は、AIシステムにおける青少年描写における根本的なバイアスを明らかにしました。ウォルフ氏は、AIモデルの学習データはネガティブなニュース報道に偏っており、青少年の日常生活の平凡な側面が軽視されていると述べています。そして、AIシステムがより幅広い視点から青少年の現実を反映できるように、根本的な変化が必要だと強調しました。

研究チームは、AIモデルの学習において、コミュニティの声を重視し、青少年の意見や経験を学習の出発点とし、目を引くネガティブな報道だけに頼らないよう訴えています。

要点:

🌍 研究によると、AIシステムによる青少年描写はネガティブな傾向があり、特に英語モデルではネガティブな関連性が30%にも上ります。

🤖 アメリカとネパールの青少年を対象としたワークショップでは、AIが彼らの文化や生活を正確に反映していないという意見が多数を占めました。

📊 研究チームは、AIモデルの学習方法を見直し、青少年の現実の経験をより適切に反映させる必要があると強調しています。