Mit der rasanten Entwicklung der künstlichen Intelligenz (KI) arbeiten führende KI-Entwickler wie OpenAI und Anthropic eng mit dem US-Militär zusammen. Ziel ist es, die Effizienz des Pentagon zu steigern und gleichzeitig sicherzustellen, dass ihre KI-Technologie nicht für tödliche Waffen eingesetzt wird.

Radha Plumb, Chief Digital & AI Officer des Pentagons, erklärte in einem Interview mit TechCrunch, dass KI derzeit nicht für Waffen eingesetzt wird, dem Verteidigungsministerium aber erhebliche Vorteile bei der Erkennung, Verfolgung und Bewertung von Bedrohungen bietet.

Roboter Künstliche Intelligenz KI

Bildquelle: Das Bild wurde mit KI generiert, Bildrechte: Midjourney

Plumb erwähnte, dass das Pentagon die „Kill Chain“ beschleunigt, einen Prozess, der die Identifizierung, Verfolgung und Beseitigung von Bedrohungen umfasst und komplexe Sensoren, Plattformen und Waffensysteme beinhaltet. Generative KI zeigt ihr Potenzial in der Planungs- und Strategiephase der Kill Chain. Sie betonte, dass KI Kommandanten helfen kann, schnell und effektiv auf Bedrohungen zu reagieren.

In den letzten Jahren hat sich die Beziehung zwischen dem Pentagon und KI-Entwicklern verstärkt. Im Jahr 2024 lockerte OpenAI, Anthropic und Meta ihre Nutzungsbedingungen, so dass US-Geheimdienste und Verteidigungseinrichtungen ihre KI-Systeme nutzen können, wobei der Einsatz dieser KI-Technologien zur Schädigung von Menschen weiterhin verboten ist. Dieser Wandel hat zu einer rasanten Zusammenarbeit zwischen KI-Unternehmen und Rüstungsunternehmen geführt.

Beispielsweise hat Meta im November mit Unternehmen wie Lockheed Martin und Booz Allen zusammengearbeitet, um sein Llama KI-Modell im Verteidigungsbereich einzusetzen. Anthropic hat eine ähnliche Partnerschaft mit Palantir geschlossen. Obwohl die genauen technischen Details dieser Kooperationen noch unklar sind, erklärte Plumb, dass der Einsatz von KI in der Planungsphase möglicherweise mit den Nutzungsbedingungen mehrerer führender Entwickler kollidiert.

Die Frage, ob KI-Waffen über die Entscheidungsbefugnis über Leben und Tod verfügen sollten, wird kontrovers diskutiert. Palmer Luckey, CEO von Anduril, erwähnte, dass das US-Militär eine lange Geschichte im Bezug auf den Kauf autonomer Waffensysteme hat. Plumb widersprach dem jedoch und betonte, dass in jedem Fall ein Mensch an der Entscheidung über den Waffengebrauch beteiligt sein muss.

Sie betonte, dass die Vorstellung, dass automatisierte Systeme unabhängig Entscheidungen über Leben und Tod treffen, zu vereinfachend ist und die Realität viel komplexer ist. Die KI-Systeme des Pentagons sind eine Zusammenarbeit zwischen Mensch und Maschine, wobei hochrangige Führungskräfte an der Entscheidungsfindung beteiligt sind.

Wichtigste Punkte:

🌐 KI bietet dem Pentagon erhebliche Vorteile bei der Erkennung und Bewertung von Bedrohungen und steigert die Effizienz der militärischen Entscheidungsfindung.

🤝 Die Zusammenarbeit zwischen KI-Entwicklern und dem Pentagon wird immer intensiver, wobei stets darauf geachtet wird, dass KI-Technologie nicht zur Schädigung von Menschen eingesetzt wird.

🔍 Die Diskussion darüber, ob KI-Waffen über die Entscheidungsbefugnis über Leben und Tod verfügen sollten, ist weiterhin aktuell. Das Pentagon betont, dass immer ein Mensch beteiligt sein muss.