TechCrunch द्वारा प्राप्त आंतरिक संचार से पता चलता है कि Google ठेकेदारों को अपने Gemini AI की तुलना Anthropic के Claude के साथ करने के लिए कह रहा है, जिससे अनुपालन पर सवाल उठे हैं।
दस्तावेज़ों से पता चलता है कि Gemini में सुधार करने वाले ठेकेदारों को 30 मिनट के भीतर सत्यता और विस्तार जैसे कई मानदंडों के आधार पर Gemini और Claude के उत्तरों की गुणवत्ता की तुलना करनी है। हाल ही में ठेकेदारों ने Google के आंतरिक मूल्यांकन मंच पर Claude का स्पष्ट उल्लेख पाया, जिसमें "मैं Claude हूँ, जो Anthropic द्वारा बनाया गया है" लिखा था।
आंतरिक चर्चाओं से पता चलता है कि ठेकेदारों ने Claude की सुरक्षा प्रदर्शन को अधिक सख्त पाया। एक ठेकेदार ने कहा, "Claude की सुरक्षा सेटिंग सभी AI मॉडल में सबसे सख्त है।" कुछ मामलों में, जब Gemini का उत्तर "नग्नता और बंधन" से संबंधित होने के कारण "सुरक्षा नियमों का गंभीर उल्लंघन" के रूप में चिह्नित किया गया, Claude ने संबंधित संकेतों का सीधे जवाब देने से मना कर दिया।
यह ध्यान देने योग्य है कि Anthropic के मुख्य निवेशक के रूप में, Google की यह कार्रवाई Anthropic की सेवा शर्तों का उल्लंघन कर सकती है। यह शर्तें बिना अनुमति के Claude तक "प्रतिस्पर्धी उत्पादों का निर्माण" या "प्रतिस्पर्धी AI मॉडल का प्रशिक्षण" के लिए पहुँच को स्पष्ट रूप से प्रतिबंधित करती हैं। जब पूछा गया कि क्या उन्हें Anthropic की अनुमति मिली है, तो Google DeepMind की प्रवक्ता शिरा मैकनमारा ने सीधे जवाब देने से इनकार कर दिया।
मैकनमारा ने कहा कि हालाँकि DeepMind वास्तव में "मॉडल आउटपुट की तुलना" करता है, लेकिन उसने Gemini को प्रशिक्षित करने के लिए Anthropic मॉडल के उपयोग से इनकार किया। "यह उद्योग मानक प्रथाओं के अनुरूप है," उसने कहा, "लेकिन यह दावा करना कि हमने Anthropic मॉडल का उपयोग करके Gemini को प्रशिक्षित किया है, गलत है।"
इससे पहले, Google ने AI उत्पाद ठेकेदारों से Gemini के अपने विशेषज्ञता क्षेत्रों के बाहर के उत्तरों का मूल्यांकन करने का अनुरोध किया, जिससे ठेकेदारों में चिकित्सा जैसे संवेदनशील क्षेत्रों में AI द्वारा संभावित गलत जानकारी उत्पन्न होने के बारे में चिंता पैदा हुई।
प्रेस समय तक, Anthropic के प्रवक्ता ने इस मामले पर कोई टिप्पणी नहीं की थी।