दो तकनीकी गुरुओं ने चेतावनी दी है कि शक्तिशाली कृत्रिम बुद्धिमत्ता प्रणाली सामाजिक स्थिरता के लिए खतरा बन सकती हैं, और एआई कंपनियों से आग्रह किया है कि वे अपने उत्पादों के कारण होने वाले नुकसान के लिए जिम्मेदार रहें। उन्होंने जोर देकर कहा कि अधिक शक्तिशाली कृत्रिम बुद्धिमत्ता प्रणाली के विकास से पहले, यह समझना आवश्यक है कि इसकी सुरक्षा कैसे सुनिश्चित की जाए। नीति के सुझावों में एआई अनुसंधान और विकास को सुरक्षा और नैतिक उपयोग के लिए धन आवंटित करना, एक लाइसेंसिंग प्रणाली स्थापित करना, और प्रौद्योगिकी कंपनियों को उत्पादों के नुकसान के लिए जिम्मेदार ठहराना शामिल है। विशेषज्ञों को चिंता है कि स्वायत्त कृत्रिम बुद्धिमत्ता प्रणाली को पूरी तरह से नियंत्रित नहीं किया जा सकता, और उन्होंने अनिवार्य रिपोर्टिंग और खतरनाक मॉडल की नकल को रोकने के लिए नीति सुझाव दिए हैं।
टेक्नोलॉजी के पितामह AI कंपनियों से उनके उत्पादों की सुरक्षा के लिए ज़िम्मेदारी लेने की अपील करते हैं
