Ein laufender Bundesgerichtsprozess in Minnesota über ein Gesetz zur „Beeinflussung von Wahlen durch Deepfakes“ ist in neue Kontroversen geraten. Die Anwälte der Kläger behaupten in neuen Gerichtsdokumenten, dass die eidesstattliche Erklärung zur Unterstützung des Gesetzes möglicherweise KI-generierten Text enthält.

KI-Assistent Roboter

Bildquelle: Das Bild wurde mit KI erstellt, Lizenzgeber: Midjourney

Laut Berichten des „Minnesota Reformer“ forderte der Generalstaatsanwalt des Bundesstaates, Keith Ellison, den Gründungsdirektor des Stanford Social Media Lab, Jeff Hancock, zur Vorlage von Beweisen auf. Hancocks eidesstattliche Erklärung enthielt jedoch mehrere Studien, für die es keine Beweise gab und die auf mögliche KI-„Halluzinationen“ hindeuten.

Hancocks eidesstattliche Erklärung bezieht sich auf eine im Jahr 2023 im „Journal of Information Technology & Politics“ veröffentlichte Studie mit dem Titel „Der Einfluss von Deepfake-Videos auf politische Einstellungen und Verhalten“.

Berichten zufolge konnte diese Studie jedoch weder in diesem Journal noch in anderen Publikationen gefunden werden. Eine weitere in der eidesstattlichen Erklärung erwähnte Studie mit dem Titel „Deepfakes und die Illusion der Wahrheit: Kognitive Prozesse hinter der Akzeptanz von Fehlinformationen“ fehlt ebenfalls jeglicher empirischer Grundlage.

Die Anwälte von Mary Franson, einer Abgeordneten aus Minnesota, und dem konservativen YouTuber Christopher Khols erklärten in ihren Dokumenten: „Diese Zitate weisen eindeutig Merkmale von KI-‚Halluzinationen‘ auf und deuten darauf hin, dass zumindest Teile des Textes von großen Sprachmodellen wie ChatGPT generiert wurden.“ Sie argumentieren weiter, dass dies die Glaubwürdigkeit der gesamten eidesstattlichen Erklärung in Frage stelle, insbesondere da viele Argumente ohne methodische und analytische Grundlage blieben.

Hancock hat sich zu diesem Vorfall nicht geäußert. Der Vorfall hat eine Diskussion über den Einsatz von künstlicher Intelligenz im Rechtsbereich ausgelöst, insbesondere die Frage, wie die Genauigkeit und Zuverlässigkeit von Informationen im Zusammenhang mit öffentlichen Interessen und Wahlen sichergestellt werden kann.

Dieser Vorfall lenkt nicht nur die Aufmerksamkeit auf die Auswirkungen von Deepfake-Technologie, sondern gibt dem Rechtswesen auch Anlass zum Nachdenken über den Umgang mit KI-bezogenen Beweisen. Die effektive Unterscheidung und Verifizierung von Informationsquellen stellt eine wichtige Herausforderung für die Rechtspraxis dar.

Wichtigste Punkte:

📰 Der Inhalt einer eidesstattlichen Erklärung zu einem Minnesota Deepfake-Gesetz wird als KI-generierter Text in Frage gestellt.

🔍 Das Anwaltsteam weist darauf hin, dass die zitierten Studien nicht existieren und es sich möglicherweise um KI-„Halluzinationen“ handelt.

⚖️ Der Vorfall löst eine breite Diskussion über den Einsatz von künstlicher Intelligenz in Rechtsdokumenten aus und konzentriert sich auf die Genauigkeit von Informationen.