हालिया शोध ने बड़े भाषा मॉडल में महत्वपूर्ण खामियों का खुलासा किया है, जो निजी जानकारी के लीक और लक्षित हमलों का कारण बन सकती हैं। इस हमले के तरीके को "मॉडल परजीवी" कहा जाता है, जो कम लागत पर मॉडल की नकल करने और बंद स्रोत और ओपन-सोर्स मशीन लर्निंग मॉडल के बीच सफलतापूर्वक प्रसारित करने की अनुमति देता है। हालांकि बड़े भाषा मॉडल में विशाल संभावनाएँ हैं, कंपनियों को साइबर सुरक्षा जोखिमों पर गंभीरता से विचार करना चाहिए।
एआई शोधकर्ताओं ने बड़े भाषा मॉडल की प्रमुख कमजोरियों का पता लगाया, कम लागत पर इसकी नकल करना संभव है

站长之家
यह लेख AIbase दैनिक से है
【AI दैनिक】 कॉलम में आपका स्वागत है! यहाँ आर्टिफ़िशियल इंटेलिजेंस की दुनिया का पता लगाने के लिए आपकी दैनिक मार्गदर्शिका है। हर दिन हम आपके लिए AI क्षेत्र की हॉट कंटेंट पेश करते हैं, डेवलपर्स पर ध्यान केंद्रित करते हैं, तकनीकी रुझानों को समझने में आपकी मदद करते हैं और अभिनव AI उत्पाद अनुप्रयोगों को समझते हैं।