AI स्टार्टअप Antropic ने Claude 2.1 संस्करण लॉन्च करने के बाद, कई उपयोगकर्ताओं ने पाया कि Claude का उपयोग करना मुश्किल हो गया है, और यह अक्सर आदेशों को अस्वीकार कर देता है। इसका कारण यह है कि Claude 2.1 Antropic द्वारा जारी किए गए AI संविधान का पालन करता है, जो सुरक्षा और नैतिकता के मामले में अधिक सतर्क है। इसके परिणामस्वरूप, कई भुगतान करने वाले उपयोगकर्ताओं ने अपनी तीव्र असंतोष व्यक्त किया है और सब्सक्रिप्शन रद्द करने की योजना बना रहे हैं। उद्योग के विशेषज्ञ चिंतित हैं कि Antropic AI की सुरक्षा सुनिश्चित करने के लिए कुछ मॉडल प्रदर्शन का बलिदान कर रहा है, जो इसे तेजी से बढ़ती AI प्रतिस्पर्धा में कमजोर स्थिति में ला सकता है।
क्या अधिक सुरक्षित AI सहायक, उपयोगकर्ताओं द्वारा अधिक आसानी से छोड़े जाने के लिए है?

36氪
यह लेख AIbase दैनिक से है
【AI दैनिक】 कॉलम में आपका स्वागत है! यहाँ आर्टिफ़िशियल इंटेलिजेंस की दुनिया का पता लगाने के लिए आपकी दैनिक मार्गदर्शिका है। हर दिन हम आपके लिए AI क्षेत्र की हॉट कंटेंट पेश करते हैं, डेवलपर्स पर ध्यान केंद्रित करते हैं, तकनीकी रुझानों को समझने में आपकी मदद करते हैं और अभिनव AI उत्पाद अनुप्रयोगों को समझते हैं।