Meta gab kürzlich bekannt, sein Llama-Modell für künstliche Intelligenz US-Behörden und deren Auftragnehmer für Anwendungen im Bereich der nationalen Sicherheit zur Verfügung zu stellen.
Dieser Schritt zielt darauf ab, Bedenken auszuräumen, dass „offene“ KI-Systeme von ausländischen Gegnern missbraucht werden könnten. In einem Blogbeitrag erklärte Meta: „Wir freuen uns, bestätigen zu können, dass Llama US-Behörden zur Verfügung gestellt wird, einschließlich solcher, die sich auf Verteidigung und nationale Sicherheit konzentrieren, sowie privaten Partnern, die diese Arbeit unterstützen.“
Um dieses Projekt voranzutreiben, hat Meta mit mehreren bekannten Unternehmen zusammengearbeitet, darunter Accenture, Amazon Web Services, Andrill, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI und Snowflake. Diese Unternehmen werden dabei helfen, das Llama-Modell auf verschiedene Aufgaben im Bereich der nationalen Sicherheit anzuwenden.
Oracle beispielsweise verwendet Llama zur Verarbeitung von Flugzeugwartungsdokumenten, während Scale AI Llama für bestimmte Aufgaben der nationalen Sicherheit feinabstimmt. Lockheed Martin plant, Llama seinen Verteidigungskunden zur Verfügung zu stellen, um ihnen beispielsweise bei der Generierung von Computercode zu helfen.
Normalerweise verbietet die Politik von Meta Entwicklern die Verwendung von Llama für militärische, kriegerische oder spionagebezogene Projekte. In diesem Fall hat Meta jedoch eine Ausnahme gemacht und erlaubt die Nutzung von Llama durch US-Behörden und deren Auftragnehmer, sowie ähnliche Einrichtungen in Großbritannien, Kanada, Australien und Neuseeland.
Bemerkenswert ist, dass kürzlich berichtet wurde, dass einige Forscher mit Verbindungen zur Volksbefreiungsarmee Chinas eine ältere Version des Llama-Modells (Llama2) verwendet haben, um einen militärisch ausgerichteten Chatbot zu entwickeln, der Informationen sammeln und verarbeiten und so die Entscheidungsfindung im Kampf unterstützen soll. Meta antwortete darauf, dass die Nutzung des Modells „unerlaubt“ war und gegen die akzeptablen Nutzungsbedingungen des Unternehmens verstieß. Dieser Vorfall hat jedoch eine breite Diskussion über die Vor- und Nachteile offener KI-Systeme ausgelöst.
Mit dem Einsatz von KI in militärischer Aufklärung, Überwachung und Aufklärung treten zunehmend Sicherheitsbedenken in den Vordergrund. Eine Studie des AI Now Institute zeigt, dass bestehende KI-Systeme auf persönlichen Daten beruhen, die von Gegnern extrahiert und als Waffe eingesetzt werden könnten. Gleichzeitig weisen KI-Systeme Vorurteile und Halluzinationen auf, für die es derzeit keine effektive Lösung gibt. Die Forscher empfehlen die Entwicklung spezieller KI-Systeme, die von „kommerziellen“ Modellen getrennt sind.
Obwohl Meta behauptet, dass offene KI die Verteidigungsforschung beschleunigen und die wirtschaftlichen und sicherheitsrelevanten Interessen der USA fördern wird, ist das US-Militär bei der Einführung dieser Technologie nach wie vor vorsichtig. Bisher hat nur die Armee generative KI eingesetzt.
Wichtigste Punkte:
🌐 Meta stellt das Llama-Modell US-Behörden und Verteidigungsunternehmen für Anwendungen im Bereich der nationalen Sicherheit zur Verfügung.
🤝 Mehrere bekannte Unternehmen arbeiten mit Meta zusammen, um die Anwendung des Llama-Modells im Verteidigungsbereich voranzutreiben.
⚖️ Die Sicherheitsbedenken im Zusammenhang mit dem militärischen Einsatz offener KI-Systeme werden diskutiert, Forscher fordern die Entwicklung spezieller Modelle.