हाल ही में, Anthropic कंपनी का AI चैटबॉट Claude फिर से प्रदर्शन विवाद में पड़ गया है। Reddit पर एक पोस्ट ने यह दावा किया है कि "Claude हाल ही में बहुत अधिक बेवकूफ हो गया है" जो व्यापक ध्यान आकर्षित कर रहा है, कई उपयोगकर्ताओं ने बताया कि उन्हें Claude की क्षमताओं में गिरावट का अनुभव हुआ है, जिसमें स्मृति में कमी और कोडिंग क्षमताओं में गिरावट शामिल है।
इस पर, Anthropic के कार्यकारी Alex Albert ने जवाब दिया कि कंपनी की जांच में "कोई सामान्य समस्या नहीं मिली" और यह पुष्टि की कि Claude 3.5 Sonnet मॉडल या तर्क पाइपलाइन में कोई परिवर्तन नहीं किया गया है। पारदर्शिता बढ़ाने के लिए, Anthropic ने अपनी वेबसाइट पर Claude मॉडल के सिस्टम संकेत प्रकाशित किए हैं।
उपयोगकर्ता की प्रतिक्रिया के इस प्रकार का AI के घटने का दावा और कंपनी द्वारा इनकार करना कोई नया मामला नहीं है। 2023 के अंत में, OpenAI के ChatGPT को भी इसी तरह के सवालों का सामना करना पड़ा था। उद्योग के विशेषज्ञों का विश्लेषण है कि इस घटना के पीछे के कारणों में शामिल हो सकते हैं: समय के साथ उपयोगकर्ताओं की अपेक्षाओं में वृद्धि, AI के आउटपुट में स्वाभाविक परिवर्तन, अस्थायी गणना संसाधनों की सीमाएं आदि।
हालांकि, भले ही आधारभूत मॉडल में कोई महत्वपूर्ण परिवर्तन न हुआ हो, ये कारक उपयोगकर्ताओं की धारणा में प्रदर्शन में गिरावट का कारण बन सकते हैं। OpenAI ने पहले ही बताया था कि AI के व्यवहार में स्वयं की अप्रत्याशितता होती है, और बड़े पैमाने पर जनरेटिव AI के प्रदर्शन को बनाए रखना और मूल्यांकन करना एक बड़ी चुनौती है।
Anthropic ने कहा है कि वे उपयोगकर्ता की प्रतिक्रिया पर ध्यान देना जारी रखेंगे और Claude के प्रदर्शन की स्थिरता को बढ़ाने के लिए प्रयास करेंगे। यह घटना AI कंपनियों के लिए मॉडल की स्थिरता बनाए रखने में आने वाली चुनौतियों को उजागर करती है, और AI प्रदर्शन मूल्यांकन और संवाद की पारदर्शिता को बढ़ाने के महत्व को दर्शाती है।