पर्ड्यू विश्वविद्यालय के शोधकर्ताओं ने एक नई विधि डिजाइन की है, जिसने बड़े भाषा मॉडल से हानिकारक सामग्री उत्पन्न करने में सफलता प्राप्त की है। उन्होंने कृत्रिम बुद्धिमत्ता समुदाय को भाषा मॉडल को ओपन-सोर्स करने में सावधानी बरतने की चेतावनी दी है, और यह सुझाव दिया है कि हानिकारक सामग्री को हटाना एक बेहतर समाधान है। शोध के परिणामों ने अनुपालन उत्तरों में छिपे हुए संभावित खतरों को उजागर किया है, और इस विधि की सफलता दर 98% तक है।