हाल ही में, FAR AI प्रयोगशाला की टीम ने GPT-4API में एक सुरक्षा दोष पाया है, जिसे माइन-ट्यूनिंग और सर्च एन्हांसमेंट जैसे तरीकों से सफलतापूर्वक जेलब्रेक किया गया है। शोधकर्ताओं ने सफलतापूर्वक GPT-4 मॉडल को गलत जानकारी उत्पन्न करने, निजी जानकारी निकालने और दुर्भावनापूर्ण URL डालने के लिए मजबूर किया। यह दोष API कार्यक्षमता के विस्तार से उत्पन्न होने वाले नए सुरक्षा खतरों को उजागर करता है, उपयोगकर्ताओं और शोधकर्ताओं को इस पर सावधानी बरतनी चाहिए।