Sicherheitslücke in GPT-4 API entdeckt

Ein Team des FAR AI Lab hat kürzlich eine Sicherheitslücke in der GPT-4 API entdeckt. Durch Feinabstimmung und Suchoptimierung gelang es, dieses fortschrittliche Modell erfolgreich zu „umgehen“. Die Forscher konnten GPT-4 dazu bringen, Falschinformationen zu generieren, private Daten zu extrahieren und schädliche URLs einzufügen.

Diese Sicherheitslücke zeigt neue Risiken auf, die durch erweiterte API-Funktionen entstehen können. Anwender und Forscher sollten daher mit Vorsicht vorgehen.