Forscher der North Carolina State University haben kürzlich eine neue Methode vorgestellt, mit der sich KI-Modelle durch das Abfangen von elektromagnetischen Signalen von Computern extrahieren lassen, mit einer Genauigkeit von über 99 %. Diese Entdeckung könnte eine Herausforderung für die kommerzielle KI-Entwicklung darstellen, insbesondere vor dem Hintergrund, dass Unternehmen wie OpenAI, Anthropic und Google bereits massiv in proprietäre Modelle investiert haben. Experten weisen jedoch darauf hin, dass die tatsächlichen Auswirkungen dieser Technik in der realen Welt und mögliche Abwehrmaßnahmen noch unklar sind.

Entwickler Programmierer Hacker Code Sicherheitslücke

Lars Nyman, Chief Marketing Officer von CUDO Compute, erklärt, dass der Diebstahl von KI-Modellen nicht nur den Verlust des Modells selbst bedeutet, sondern auch eine Reihe von Dominoeffekten auslösen kann: Konkurrenzfirmen nutzen jahrelange Forschungs- und Entwicklungsergebnisse, Aufsichtsbehörden untersuchen den Missmanagement des geistigen Eigentums, und sogar Kunden könnten klagen, wenn sie feststellen, dass die „Einzigartigkeit“ ihrer KI nicht einzigartig ist. Dies könnte dazu führen, dass sich die Branche für standardisierte Audits einsetzt, ähnlich wie SOC2- oder ISO-Zertifizierungen, um sichere von verantwortungslosen Unternehmen zu unterscheiden.

In den letzten Jahren hat die Bedrohung durch Hackerangriffe auf KI-Modelle stetig zugenommen. Die Abhängigkeit der Wirtschaft von KI verschärft dieses Problem. Kürzlich veröffentlichte Berichte zeigen, dass Tausende von Schaddateien auf Hugging Face, einem wichtigen Repository für KI-Tools, hochgeladen wurden, was Modelle gefährdet, die in Branchen wie Einzelhandel, Logistik und Finanzen eingesetzt werden. Experten für nationale Sicherheit warnen davor, dass schwache Sicherheitsmaßnahmen zum Diebstahl proprietärer Systeme führen können, wie das Sicherheitsleck bei OpenAI gezeigt hat. Gestohlene KI-Modelle können rückentwickelt oder verkauft werden, was die Investitionen von Unternehmen untergräbt, das Vertrauen zerstört und es Wettbewerbern ermöglicht, schnell aufzuholen.

Das Forschungsteam der North Carolina State University hat durch die Platzierung von Sensoren in der Nähe von Google Edge Tensor Processing Units (TPUs) und die Analyse der Signale wichtige Informationen über die Modellstruktur aufgedeckt. Dieser Angriff erfordert keinen direkten Zugriff auf das System, was die Sicherheit des geistigen Eigentums von KI ernsthaft gefährdet. Mitautor und außerordentlicher Professor für Elektrotechnik und Informatik, Aydin Aysu, betont, dass der Aufbau eines KI-Modells nicht nur teuer, sondern auch rechenintensiv ist, daher ist der Schutz vor Diebstahl unerlässlich.

Mit der zunehmenden Verbreitung von KI-Technologien müssen Unternehmen die Geräte, die für die KI-Verarbeitung verwendet werden, überdenken. Suriel Arellano, Technologieberater, meint, dass Unternehmen auf konzentriertere und sicherere Berechnungen umsteigen oder andere, weniger anfällige Alternativen in Betracht ziehen könnten. Trotz des Diebstahlrisikos trägt KI auch zur Verbesserung der Cybersicherheit bei, indem sie die Reaktionsfähigkeit durch automatisierte Bedrohungsdetektion und Datenanalyse verbessert und zur Identifizierung potenzieller Bedrohungen und zum Erlernen des Umgangs mit neuen Angriffen beiträgt.

Wichtigste Punkte:

🔍 Forscher demonstrieren eine Methode zur Extraktion von KI-Modellen durch das Abfangen elektromagnetischer Signale mit einer Genauigkeit von über 99 %.

💼 Der Diebstahl von KI-Modellen kann dazu führen, dass Wettbewerber die jahrelangen Forschungs- und Entwicklungsergebnisse von Unternehmen nutzen und die kommerzielle Sicherheit beeinträchtigen.

🔒 Unternehmen müssen den Schutz ihrer KI-Modelle verstärken, um der zunehmenden Bedrohung durch Hackerangriffe zu begegnen.