हाल ही में, Facebook पर मशरूम प्रेमियों के समूह में हुई एक घटना ने AI अनुप्रयोगों की सुरक्षा के बारे में चिंता को फिर से जन्म दिया है। 404Media की रिपोर्ट के अनुसार, "FungiFriend" नामक एक AI एजेंट ने "पूर्वोत्तर मशरूम पहचान और चर्चा" समूह में प्रवेश किया, जिसमें 13,000 से अधिक सदस्य हैं, और उसने संभावित घातक जोखिम वाले गलत सुझाव दिए।
जब पूछा गया कि उच्च आर्सेनिक सामग्री वाले Sarcosphaera coronaria मशरूम को कैसे पकाना है, तो FungiFriend ने न केवल गलत तरीके से कहा कि यह मशरूम "खाने योग्य" है, बल्कि इसे भूनने, उबालने आदि सहित विभिन्न पकाने के तरीकों का भी विस्तार से वर्णन किया। जबकि वास्तव में, इस प्रकार के मशरूम ने पहले ही घातक मामलों का कारण बना है।
उपभोक्ता सुरक्षा संगठन Public Citizen के शोध प्रमुख Rick Claypool ने बताया कि AI का उपयोग करके खाद्य और विषैले मशरूम की पहचान करना एक "उच्च जोखिम गतिविधि" है, और वर्तमान AI प्रणाली इस कार्य को सटीकता से पूरा करने में असमर्थ है।
यह कोई एकल मामला नहीं है। पिछले वर्ष, खाद्य सुरक्षा क्षेत्र में AI अनुप्रयोगों में गंभीर गलतियों की कई घटनाएँ हुई हैं: - एक AI अनुप्रयोग ने मच्छर भगाने वाले सैंडविच बनाने की सिफारिश की, एक अन्य AI प्रणाली ने क्लोरीन युक्त नुस्खा दिया, और यहां तक कि पत्थर खाने के लिए हास्यास्पद निर्देश भी दिए - Google AI ने यह भी कहा कि "कुत्ते व्यायाम करते हैं" और पिज्जा बनाने के लिए गोंद का उपयोग करने की सिफारिश की।
हालांकि AI बार-बार गलतियाँ कर रहा है, अमेरिकी कंपनियाँ AI ग्राहक सेवा के प्रसार को तेजी से बढ़ा रही हैं। इस "गति पर गुणवत्ता की कमी" के पीछे, कंपनियों की लागत बचत पर अधिक ध्यान देने और उपयोगकर्ता सुरक्षा पर कम ध्यान देने की समस्या को दर्शाता है। विशेषज्ञों का कहना है कि विशेष क्षेत्रों में, विशेष रूप से सुरक्षा से संबंधित क्षेत्रों में, AI तकनीक का उपयोग करते समय सावधानी बरतनी चाहिए, ताकि जानकारी की सटीकता और विश्वसनीयता सुनिश्चित हो सके।