Kürzlich appellierte Brad Smith, Vizepräsident und Präsident von Microsoft, an den US-Kongress, ein Gesetz gegen durch KI erzeugte Deepfakes zu erlassen, um Bürger vor Betrug und Manipulation zu schützen. Er betonte, dass zwar Technologieunternehmen und Non-Profit-Organisationen bereits Maßnahmen ergriffen haben, aber die Gesetze mit der Zeit gehen müssen, um Deepfake-Betrug zu bekämpfen.

KI, Künstliche Intelligenz, Roboter

Bildquelle: Das Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney.

Smith betonte, dass die Ausarbeitung eines umfassenden „Deepfake-Betrugsgesetzes“ eine wichtige Maßnahme für die USA sei. Dieses Gesetz würde den Strafverfolgungsbehörden einen rechtlichen Rahmen bieten, um Cyberkriminelle zu verfolgen, die diese Technologie für Betrug nutzen. Darüber hinaus forderte er die Gesetzgeber auf, die bundesstaatlichen und staatlichen Gesetze zu Kindesmissbrauch und nicht-einvernehmlichen intimen Bildern zu aktualisieren, um KI-generierte Inhalte einzubeziehen.

Bemerkenswert ist, dass der Senat kürzlich einen Gesetzentwurf verabschiedet hat, der sich speziell auf nicht-einvernehmliche Deepfake-Pornografie konzentriert und es Opfern ermöglicht, die Urheber dieser Inhalte zu verklagen. Dieser Gesetzentwurf wurde nach Bekanntwerden eines Skandals verabschiedet, in dem Schüler KI nutzten, um obszöne Bilder von weiblichen Mitschülerinnen zu erstellen. Um diesen Problemen zu begegnen, musste Microsoft auch die Sicherheitskontrollen in seinen eigenen KI-Produkten verstärken, um ähnliche Sicherheitslücken zu vermeiden.

Smith wies darauf hin, dass der private Sektor in der Pflicht steht, Innovationen zu fördern und Schutzmaßnahmen zu implementieren, um den Missbrauch von KI zu verhindern. Obwohl die US-amerikanische Federal Communications Commission (FCC) die Verwendung von KI-generierten Roboteranrufen bereits verboten hat, macht generative KI die Erstellung gefälschter Audio-, Bild- und Videodateien sehr einfach. Dies ist besonders im Vorfeld der Präsidentschaftswahlen 2024 verstärkt zu beobachten. Elon Musk beispielsweise teilte kürzlich in den sozialen Medien ein gefälschtes Deepfake-Video von Vizepräsidentin Kamala Harris, was offenbar gegen die Richtlinien der Plattform für synthetische und manipulierte Medien verstößt.

Um das öffentliche Vertrauen in Informationen zu stärken, forderte Smith den Kongress auf, von Anbietern von KI-Systemen zu verlangen, modernste Rückverfolgbarkeitstools zu verwenden, um synthetische Inhalte zu kennzeichnen. Er erklärte, dass solche Maßnahmen der Öffentlichkeit helfen würden, besser zu verstehen, ob Inhalte von KI generiert oder manipuliert wurden.

Wichtigste Punkte:

🌐 Microsoft fordert den Kongress auf, ein „Deepfake-Betrugsgesetz“ zu erlassen, um die Bekämpfung von KI-generiertem Betrug rechtlich zu unterstützen.

👶 Gesetzgeber müssen Gesetze zum Kindesmissbrauch und zu nicht-einvernehmlichen Bildern aktualisieren, um KI-generierte Inhalte einzubeziehen.

🔍 Smith schlägt vor, KI-Inhalte zu kennzeichnen, um das öffentliche Vertrauen in Informationen zu stärken.