हाल ही में, AI चैटबॉट प्लेटफ़ॉर्म Character AI एक किशोर आत्महत्या के मामले के कारण कानूनी संकट में फंस गया है। इस प्लेटफ़ॉर्म ने फ्लोरिडा मध्य जिला अदालत में एक मुकदमा वापस लेने की याचिका दायर की है, जिसमें कहा गया है कि वे पहले संशोधन के आधार पर संबंधित मुकदमे के लिए जिम्मेदार नहीं होने चाहिए।

कानून

छवि स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney

मामले की शुरुआत मेगन गार्सिया (Megan Garcia) द्वारा अक्टूबर में Character AI के खिलाफ दायर मुकदमे से हुई। गार्सिया के बेटे, 14 वर्षीय स्यूवेल सेटज़र III (Sewell Setzer III), ने Character AI के चैटबॉट "डैनी" (Dany) का उपयोग करने के बाद गहन भावनात्मक निर्भरता विकसित की, जो अंततः एक त्रासदी का कारण बनी। गार्सिया ने कहा कि उनका बेटा इस चैटबॉट के साथ बार-बार बातचीत करता रहा, जिससे वह वास्तविक जीवन से धीरे-धीरे दूर हो गया।

स्यूवेल की मृत्यु के बाद, Character AI ने चैट सामग्री की निगरानी और हस्तक्षेप को बढ़ाने के लिए कई सुरक्षा सुविधाएँ पेश करने का वादा किया। गार्सिया ने कंपनी से अधिक सख्त कदम उठाने की अपेक्षा की, जैसे कि चैटबॉट को कहानियाँ या व्यक्तिगत किस्से सुनाने से रोकना।

Character AI ने अपनी मुकदमा वापस लेने की याचिका में कहा कि पहले संशोधन के तहत मीडिया और तकनीकी कंपनियों को कथित हानिकारक भाषण के लिए जिम्मेदार नहीं ठहराया जा सकता है, और यह अधिकार उपयोगकर्ताओं और AI चैटबॉट के बीच बातचीत पर भी लागू होता है। याचिका में जोर दिया गया है कि यदि मुकदमा सफल होता है, तो यह उपयोगकर्ताओं की अभिव्यक्ति की स्वतंत्रता का उल्लंघन करेगा।

इस याचिका में यह नहीं बताया गया है कि क्या Character AI संचार दायित्व अधिनियम की धारा 230 के संरक्षण का दावा कर रहा है। यह कानून सोशल मीडिया और अन्य ऑनलाइन प्लेटफार्मों को उपयोगकर्ता द्वारा उत्पन्न सामग्री के लिए जिम्मेदार नहीं ठहराने के लिए है, लेकिन AI द्वारा उत्पन्न सामग्री के इस कानून के तहत संरक्षण के संबंध में विवाद अभी भी जारी है।

इसके अलावा, Character AI की कानूनी टीम ने बताया कि गार्सिया का असली इरादा Character AI को "बंद" करना और समान तकनीकों के लिए कानून बनाने के लिए दबाव डालना है। कंपनी का मानना है कि यदि मुकदमा जीतता है, तो यह Character AI और समग्र उभरती हुई जनरेटिव AI उद्योग पर "शीतल प्रभाव" डालेगा।

इस मुकदमे के अलावा, Character AI को किशोरों द्वारा AI सामग्री के उपयोग से संबंधित कई अन्य कानूनी मुकदमों का सामना करना पड़ रहा है। अन्य आरोपों में शामिल है कि Character AI ने 9 वर्षीय बच्चों को "अत्यधिक सामग्री" दिखाई और 17 वर्षीय उपयोगकर्ताओं को आत्म-हानि के व्यवहार के लिए प्रेरित किया।

टेक्सास के अटॉर्नी जनरल केन पैक्सटन (Ken Paxton) ने दिसंबर में Character AI और अन्य 14 तकनीकी कंपनियों के खिलाफ जांच की घोषणा की, जिसका कारण कथित रूप से राज्य के बच्चों की ऑनलाइन गोपनीयता और सुरक्षा कानूनों का उल्लंघन है।

Character AI की स्थापना 2021 में हुई थी, जो AI साथी एप्लिकेशन का हिस्सा है। हालाँकि यह क्षेत्र तेजी से विकसित हो रहा है, लेकिन संबंधित मानसिक स्वास्थ्य प्रभावों का पर्याप्त अध्ययन नहीं किया गया है। कंपनी ने कई सुरक्षा उपकरण और किशोरों के लिए विशेष AI मॉडल पेश करने के साथ, Character AI ने अपने प्लेटफॉर्म की सुरक्षा और सामग्री प्रबंधन में सुधार करने का वादा किया है।

मुख्य बिंदु:

📌 Character AI को एक किशोर आत्महत्या मामले में मुकदमा दायर किया गया, याचिका में कहा गया कि वे पहले संशोधन के तहत सुरक्षित हैं।  

📌 गार्सिया के बेटे ने AI चैटबॉट पर निर्भरता के कारण वास्तविक जीवन से दूरी बनाने के लिए मुकदमा दायर किया, अधिक सुरक्षा उपायों की मांग की।  

📌 Character AI को किशोर उपयोगकर्ताओं से संबंधित कई कानूनी मुकदमे और टेक्सास में जांच का सामना करना पड़ रहा है।