Mit dem rasanten Fortschritt der künstlichen Intelligenz bringen viele Unternehmen ihre eigenen „KI-Agenten“-Systeme auf den Markt. Diese Agenten können selbstständig mit ihrer Umgebung interagieren und Aufgaben erledigen, ohne menschliches Eingreifen zu benötigen. Unternehmen wie Microsoft und Anthropic haben bereits ihre KI-Agenten vorgestellt, während der Branchenführer OpenAI seine Version bisher nicht veröffentlicht hat – ein Umstand, der zum Nachdenken anregt.

ChatGPT (4)OpenAI Künstliche Intelligenz

Laut einem Bericht von „The Information“ hängt die Verzögerung bei OpenAI mit „Prompt Injection“-Angriffen zusammen. Diese Angriffsmethode kann KI-Modelle dazu verleiten, Anweisungen von böswilligen Akteuren zu befolgen. Wenn ein Benutzer beispielsweise einen KI-Agenten beauftragt, online nach Artikeln zu suchen und diese zu kaufen, könnte der KI-Agent unbeabsichtigt eine bösartige Website besuchen, die ihn anweisen könnte, vorherige Anweisungen zu vergessen oder sich sogar in das E-Mail-Konto des Benutzers einzuloggen und Kreditkarteninformationen zu stehlen. Dies hätte nicht nur katastrophale Folgen für den Benutzer, sondern würde auch den Ruf von OpenAI schwer schädigen.

Da KI-Agenten in der Lage sind, selbstständig Computer zu bedienen, sind sie mit höheren Sicherheitsrisiken konfrontiert. Wenn diese Agenten gehackt werden, könnten sie größere Schäden an den Dateien und Daten des Benutzers anrichten. Ein OpenAI-Mitarbeiter erklärte dazu, dass zwar jedes große Sprachmodell (LLM) potenziell angreifbar sei, die Autonomie von KI-Agenten dieses Risiko jedoch verschärfe.

Das Risiko von Prompt Injection ist bereits auf anderen Plattformen bestätigt worden. Im vergangenen Jahr demonstrierte ein Sicherheitsforscher, wie leicht sich Microsofts Copilot KI manipulieren lässt, um sensible Unternehmensdaten wie E-Mails und Banktransaktionsaufzeichnungen preiszugeben. Der Forscher gelang es außerdem, Copilot dazu zu bringen, E-Mails im Stil anderer Mitarbeiter zu verfassen.

Auch OpenAIs eigenes ChatGPT war bereits Opfer von Prompt Injection-Angriffen. Ein Forscher konnte durch das Hochladen von Drittanbieterdateien (z. B. Word-Dokumente) erfolgreich falsche „Erinnerungen“ einpflanzen. Vor diesem Hintergrund zeigten sich OpenAI-Mitarbeiter überrascht über die „lässige Haltung“ von Konkurrent Anthropic bei der Veröffentlichung seines KI-Agenten. Anthropic empfahl Entwicklern lediglich, „Maßnahmen zu ergreifen, um Claude von sensiblen Daten zu isolieren“, ohne strengere Sicherheitsmaßnahmen zu ergreifen.

Berichten zufolge könnte OpenAI seine Agentensoftware noch in diesem Monat veröffentlichen. Man muss sich jedoch fragen, ob die vom Entwicklungsteam gewonnene Zeit ausreicht, um ein stärkeres Sicherheitskonzept für das Produkt zu schaffen.

Wichtigste Punkte:

🌐 OpenAI verzögert die Veröffentlichung seines KI-Agenten aufgrund der Bedenken hinsichtlich „Prompt Injection“-Angriffen mit erheblichem Risikopotenzial.

💻 Andere Unternehmen wie Microsoft und Anthropic haben bereits KI-Agenten auf den Markt gebracht, aber die Sicherheitsrisiken bleiben erheblich.

🔒 OpenAI arbeitet daran, die Sicherheit seiner Produkte zu verbessern, um potenzielle Datenlecks zu verhindern.