एक नई रिपोर्ट के अनुसार, एआई इमेज जनरेटर की बुनियाद में हजारों बच्चों की अश्लील तस्वीरें छिपी हुई हैं, जो कंपनियों से इस तकनीक में कमियों को हल करने के लिए कार्रवाई करने की अपील करती है। ये तस्वीरें एआई सिस्टम को यथार्थवादी झूठी बच्चों की तस्वीरें उत्पन्न करना आसान बनाती हैं और सोशल मीडिया पर पूरी तरह से कपड़े पहने वास्तविक किशोरों की तस्वीरों को नग्न तस्वीरों में बदल देती हैं। इस समस्या का कोई सरल समाधान नहीं है, और कंपनियों को तकनीक में खामियों को हल करने के लिए कार्रवाई करनी होगी। रिपोर्ट के अनुसार, इससे एआई इमेज जनरेटर में संभावित जोखिमों के बारे में चिंता बढ़ी है।