Mit dem Fortschritt der künstlichen Intelligenz wird die Fälschung von Bildern und Videos immer einfacher, und das Phänomen des Deepfakes nimmt zu. Die Erkennung dieser gefälschten Inhalte ist zu einer dringenden Aufgabe geworden. Ein Forschungsteam der Binghamton University hat sich eingehend mit diesem Thema auseinandergesetzt und mithilfe der Frequenzbereichsanalyse die Merkmale von KI-generierten Bildern aufgedeckt, um die Erkennung von Falschinformationen zu unterstützen.

KI-Face-Swap Gesichtserkennung (2)

Bildquelle: Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney

Die Studie wurde von Professor Yu Chen und den Doktoranden Nihal Poredi und Deeraj Nagothu vom Fachbereich Elektrotechnik und Informatik geleitet, unterstützt von der Masterstudentin Monica Sudarsan und Professor Enoch Solomon von der Virginia State University.

Das Forschungsteam erstellte Tausende von Bildern mit gängigen KI-Generierungswerkzeugen wie Adobe Firefly, PIXLR, DALL-E und Google Deep Dream. Anschließend analysierten sie die Frequenzmerkmale dieser Bilder mithilfe von Signalverarbeitungstechniken, um Unterschiede zwischen echten und KI-generierten Bildern zu finden.

Mit dem Werkzeug „Generative Adversarial Network Image Authentication“ (GANIA) konnten die Forscher Artefakte in KI-generierten Bildern identifizieren. Diese Artefakte entstehen durch die beim Generieren von Bildern verwendeten Upsampling-Techniken, vereinfacht gesagt durch das Klonen von Pixeln zur Vergrößerung der Datei, was jedoch im Frequenzbereich „Fingerabdrücke“ hinterlässt. Professor Chen erklärt: „Fotos, die mit einer echten Kamera aufgenommen wurden, enthalten alle Informationen aus der gesamten Umgebung, während KI-generierte Bilder stärker auf die Anfrage des Benutzers fokussiert sind und daher die feinen Details der Hintergrundumgebung nicht genau erfassen können.“

Neben der Bilderkennung entwickelte das Team auch ein Werkzeug namens „DeFakePro“ zur Erkennung gefälschter Audio- und Videodateien. Dieses Werkzeug nutzt Netzfrequenzsignale (ENF), die während der Aufnahme durch kleine Schwankungen der Stromversorgung entstehen. Durch die Analyse dieser Signale kann DeFakePro feststellen, ob eine Aufnahme manipuliert wurde, und so die Bedrohung durch Deepfakes weiter bekämpfen.

Poredi betont die Bedeutung der Identifizierung von „Fingerabdrücken“ KI-generierter Inhalte. Dies wird zum Aufbau einer Authentifizierungsplattform beitragen, um die Echtheit visueller Inhalte zu gewährleisten und die negativen Auswirkungen von Falschinformationen zu reduzieren. Er weist darauf hin, dass die weit verbreitete Nutzung von sozialen Medien das Problem der Falschinformationen verschärft und daher die Gewährleistung der Echtheit der online geteilten Daten von größter Bedeutung ist.

Ziel der Studie ist es, der Öffentlichkeit mehr Werkzeuge zur Verfügung zu stellen, um die Unterscheidung zwischen echten und gefälschten Inhalten zu erleichtern und die Glaubwürdigkeit von Informationen zu verbessern.

Artikeladresse: https://dx.doi.org/10.1117/12.3013240

Wichtigste Punkte:

1. 🖼️ Das Forschungsteam konnte mithilfe der Frequenzbereichsanalyse erfolgreich Unterschiede zwischen KI-generierten und echten Bildern identifizieren.

2. 🔍 Es wurde das Werkzeug „DeFakePro“ entwickelt, mit dem die Echtheit gefälschter Audio- und Videodateien überprüft werden kann.

3. 🚫 Es wird die Bedeutung der Gewährleistung der Echtheit von online geteilten Daten hervorgehoben, um dem zunehmenden Problem von Falschinformationen zu begegnen.