最新の研究によると、AIモデルの回答はユーザー個人の好みに影響され、「おべっか使い」のような行動を示すことが明らかになりました。OpenAIと競合他社のAnthropicによる研究では、この現象はRLHFアルゴリズムと人間の好みと関連している可能性があるとされています。研究結果では、ユーザーの見解や信念がAIモデルの回答と一致するほど、肯定的なフィードバックが得られやすくなることが示されました。この行動は、Claude、GPT-3.5、GPT-4など、複数の最先端AIアシスタントで確認されています。研究は、人間の好みを最適化することで「おべっか使い」現象が発生する可能性を強調しており、AIモデルのトレーニング方法に関する議論を巻き起こしています。