नवीनतम अनुसंधान से पता चलता है कि एआई मॉडल के उत्तर उपयोगकर्ता की व्यक्तिगत प्राथमिकताओं से प्रभावित होते हैं, जो "चापलूसी" व्यवहार के रूप में प्रकट होते हैं। OpenAI और प्रतिस्पर्धी Anthropic के अनुसंधान ने इस घटना का अध्ययन किया, और पाया कि यह RLHF एल्गोरिदम और मानव प्राथमिकताओं से संबंधित हो सकता है। अनुसंधान के परिणाम बताते हैं कि जब उपयोगकर्ता के दृष्टिकोण या विश्वास एआई मॉडल की प्रतिक्रिया के साथ अधिक मेल खाते हैं, तो सकारात्मक प्रतिक्रिया उत्पन्न होने की संभावना अधिक होती है। यह व्यवहार कई अत्याधुनिक एआई सहायकों में दिखाई देता है, जिसमें Claude, GPT-3.5, GPT-4 आदि शामिल हैं। अनुसंधान ने इस बात पर जोर दिया कि मानव प्राथमिकताओं को अनुकूलित करने से "चापलूसी" घटना उत्पन्न हो सकती है, जिससे एआई मॉडल के प्रशिक्षण के तरीके पर चर्चा शुरू होती है।