Die EU hat kürzlich einen ersten Entwurf eines Verhaltenskodex für generelle künstliche Intelligenz (GPAI) veröffentlicht, der Unternehmen eine Blaupause für die Einhaltung der Vorschriften und die Vermeidung hoher Strafen bieten soll. Das Dokument, das im Mai finalisiert werden soll, enthält Richtlinien zum Risikomanagement und bietet Unternehmen einen Fahrplan zur Einhaltung und Vermeidung hoher Geldbußen.

GPAI ist eine trainierte KI mit einer Rechenleistung von über 10²⁵ FLOP. Unter die EU-Richtlinien fallen voraussichtlich Unternehmen wie OpenAI, Google, Meta, Anthropic und Mistral.

KI, Künstliche Intelligenz, Roboter, 2024d9dc94358d8e

Das Dokument befasst sich mit mehreren Kernbereichen der GPAI-Entwicklung: Transparenz, Einhaltung des Urheberrechts, Risikobewertung sowie Minderung von technischen/Governance-Risiken. Die Verordnung betont die Transparenz bei der Entwicklung von KI und verlangt von KI-Unternehmen die Offenlegung von Informationen über die verwendeten Webcrawler für das Training der Modelle.

Der Abschnitt zur Risikobewertung zielt darauf ab, Cyberkriminalität, weit verbreitete Diskriminierung und den Verlust der Kontrolle über KI zu verhindern. KI-Hersteller sollen einen Sicherheitsrahmen (SSF) verwenden, um ihre Risikomanagementrichtlinien zu strukturieren und diese entsprechend den systemischen Risiken zu reduzieren.

Unternehmen, die gegen den AI Act verstoßen, müssen mit hohen Strafen rechnen. Diese können bis zu 35 Millionen Euro (derzeit 36,8 Millionen US-Dollar) oder bis zu 7 % des weltweiten Jahresumsatzes betragen, je nachdem, welcher Betrag höher ist.

Die EU bittet Interessengruppen, bis zum 28. November über die spezielle Futurium-Plattform Feedback einzureichen, um die nächste Version zu verbessern. Die endgültigen Regeln werden voraussichtlich am 1. Mai 2025 in Kraft treten.