हाल ही में, Anthropic कंपनी का AI चैटबॉट Claude फिर से प्रदर्शन विवाद में पड़ गया है। Reddit पर एक पोस्ट ने यह दावा किया है कि "Claude हाल ही में बहुत अधिक बेवकूफ हो गया है" जो व्यापक ध्यान आकर्षित कर रहा है, कई उपयोगकर्ताओं ने बताया कि उन्हें Claude की क्षमताओं में गिरावट का अनुभव हुआ है, जिसमें स्मृति में कमी और कोडिंग क्षमताओं में गिरावट शामिल है।

इस पर, Anthropic के कार्यकारी Alex Albert ने जवाब दिया कि कंपनी की जांच में "कोई सामान्य समस्या नहीं मिली" और यह पुष्टि की कि Claude 3.5 Sonnet मॉडल या तर्क पाइपलाइन में कोई परिवर्तन नहीं किया गया है। पारदर्शिता बढ़ाने के लिए, Anthropic ने अपनी वेबसाइट पर Claude मॉडल के सिस्टम संकेत प्रकाशित किए हैं।

QQ20240829-093549.png

उपयोगकर्ता की प्रतिक्रिया के इस प्रकार का AI के घटने का दावा और कंपनी द्वारा इनकार करना कोई नया मामला नहीं है। 2023 के अंत में, OpenAI के ChatGPT को भी इसी तरह के सवालों का सामना करना पड़ा था। उद्योग के विशेषज्ञों का विश्लेषण है कि इस घटना के पीछे के कारणों में शामिल हो सकते हैं: समय के साथ उपयोगकर्ताओं की अपेक्षाओं में वृद्धि, AI के आउटपुट में स्वाभाविक परिवर्तन, अस्थायी गणना संसाधनों की सीमाएं आदि।

हालांकि, भले ही आधारभूत मॉडल में कोई महत्वपूर्ण परिवर्तन न हुआ हो, ये कारक उपयोगकर्ताओं की धारणा में प्रदर्शन में गिरावट का कारण बन सकते हैं। OpenAI ने पहले ही बताया था कि AI के व्यवहार में स्वयं की अप्रत्याशितता होती है, और बड़े पैमाने पर जनरेटिव AI के प्रदर्शन को बनाए रखना और मूल्यांकन करना एक बड़ी चुनौती है।

QQ20240829-093611.png

Anthropic ने कहा है कि वे उपयोगकर्ता की प्रतिक्रिया पर ध्यान देना जारी रखेंगे और Claude के प्रदर्शन की स्थिरता को बढ़ाने के लिए प्रयास करेंगे। यह घटना AI कंपनियों के लिए मॉडल की स्थिरता बनाए रखने में आने वाली चुनौतियों को उजागर करती है, और AI प्रदर्शन मूल्यांकन और संवाद की पारदर्शिता को बढ़ाने के महत्व को दर्शाती है।