TechCrunch द्वारा प्राप्त आंतरिक संचार से पता चलता है कि Google ठेकेदारों को अपने Gemini AI की तुलना Anthropic के Claude के साथ करने के लिए कह रहा है, जिससे अनुपालन पर सवाल उठे हैं।

दस्तावेज़ों से पता चलता है कि Gemini में सुधार करने वाले ठेकेदारों को 30 मिनट के भीतर सत्यता और विस्तार जैसे कई मानदंडों के आधार पर Gemini और Claude के उत्तरों की गुणवत्ता की तुलना करनी है। हाल ही में ठेकेदारों ने Google के आंतरिक मूल्यांकन मंच पर Claude का स्पष्ट उल्लेख पाया, जिसमें "मैं Claude हूँ, जो Anthropic द्वारा बनाया गया है" लिखा था।

आंतरिक चर्चाओं से पता चलता है कि ठेकेदारों ने Claude की सुरक्षा प्रदर्शन को अधिक सख्त पाया। एक ठेकेदार ने कहा, "Claude की सुरक्षा सेटिंग सभी AI मॉडल में सबसे सख्त है।" कुछ मामलों में, जब Gemini का उत्तर "नग्नता और बंधन" से संबंधित होने के कारण "सुरक्षा नियमों का गंभीर उल्लंघन" के रूप में चिह्नित किया गया, Claude ने संबंधित संकेतों का सीधे जवाब देने से मना कर दिया।

Claude2, Anthropic, आर्टिफिशियल इंटेलिजेंस, चैटबॉट क्लॉड

यह ध्यान देने योग्य है कि Anthropic के मुख्य निवेशक के रूप में, Google की यह कार्रवाई Anthropic की सेवा शर्तों का उल्लंघन कर सकती है। यह शर्तें बिना अनुमति के Claude तक "प्रतिस्पर्धी उत्पादों का निर्माण" या "प्रतिस्पर्धी AI मॉडल का प्रशिक्षण" के लिए पहुँच को स्पष्ट रूप से प्रतिबंधित करती हैं। जब पूछा गया कि क्या उन्हें Anthropic की अनुमति मिली है, तो Google DeepMind की प्रवक्ता शिरा मैकनमारा ने सीधे जवाब देने से इनकार कर दिया।

मैकनमारा ने कहा कि हालाँकि DeepMind वास्तव में "मॉडल आउटपुट की तुलना" करता है, लेकिन उसने Gemini को प्रशिक्षित करने के लिए Anthropic मॉडल के उपयोग से इनकार किया। "यह उद्योग मानक प्रथाओं के अनुरूप है," उसने कहा, "लेकिन यह दावा करना कि हमने Anthropic मॉडल का उपयोग करके Gemini को प्रशिक्षित किया है, गलत है।"

इससे पहले, Google ने AI उत्पाद ठेकेदारों से Gemini के अपने विशेषज्ञता क्षेत्रों के बाहर के उत्तरों का मूल्यांकन करने का अनुरोध किया, जिससे ठेकेदारों में चिकित्सा जैसे संवेदनशील क्षेत्रों में AI द्वारा संभावित गलत जानकारी उत्पन्न होने के बारे में चिंता पैदा हुई।

प्रेस समय तक, Anthropic के प्रवक्ता ने इस मामले पर कोई टिप्पणी नहीं की थी।