OpenAIs Video-Generator Sora hat seit seiner Veröffentlichung große Aufmerksamkeit erregt, doch seine Ursprünge blieben bisher ein Rätsel. Nun scheint ein Teil des Geheimnisses gelüftet: Es ist sehr wahrscheinlich, dass eine große Menge an Twitch-Gaming-Streams und -Anleitungen in den Trainingsdaten von Sora enthalten sind!

Sora agiert wie ein meisterhafter „Imitator“. Mit nur einem Textprompt oder einem Bild kann es mühelos Videos mit einer Länge von bis zu 20 Sekunden erstellen und dabei verschiedene Seitenverhältnisse und Auflösungen beherrschen. Bei der ersten Vorstellung von Sora im Februar dieses Jahres deutete OpenAI an, dass das Modell in Videos von „Minecraft“ trainiert wurde. Welche weiteren „Handbücher“ der Spielewelt stecken aber noch in Soras „Waffenkatalog“?

Das Ergebnis ist überraschend: Sora scheint mit verschiedenen Spielgenres vertraut zu sein. Es kann ein Klon-Spielvideo mit einem „Mario“-artigen Schatten erstellen, wenngleich mit kleinen Fehlern; es kann auch mitreißende Ego-Shooter-Szenen simulieren, die an eine Mischung aus „Call of Duty“ und „Counter-Strike“ erinnern; und es kann sogar Kampfsequenzen aus dem Arcade-Spiel „Teenage Mutant Ninja Turtles“ der 90er Jahre nachbilden, die nostalgische Gefühle wecken.

image.png

Noch überraschender ist, dass Sora die Struktur von Twitch-Streams bestens kennt, was darauf hindeutet, dass es eine große Menge an Livestream-Inhalten „gesehen“ hat. Die Screenshots der von Sora generierten Videos erfassen nicht nur die Struktur der Streams präzise, sondern stellen sogar das Aussehen des bekannten Streamers Auronplay detailgetreu dar, einschließlich seines Tattoos auf dem linken Arm.

image.png

Darüber hinaus „kennt“ Sora auch die Twitch-Streamerin Pokimane und generiert Videos mit ihr ähnlichen Charakteren. Um Urheberrechtsprobleme zu vermeiden, hat OpenAI jedoch Filtermechanismen eingerichtet, die die Generierung von Videos mit markenrechtlich geschützten Charakteren verhindern.

Obwohl OpenAI die Herkunft der Trainingsdaten verschleiert, deuten viele Hinweise darauf hin, dass Spielinhalte in den Datensatz von Sora aufgenommen wurden. Die ehemalige CTO von OpenAI, Mira Murati, bestritt in einem Interview mit dem „Wall Street Journal“ im März nicht direkt, dass Sora Inhalte von YouTube, Instagram und Facebook für das Training verwendet hat. In den technischen Spezifikationen von Sora räumt OpenAI ein, dass „öffentlich zugängliche“ Daten sowie lizenzierte Daten von Medienbibliotheken wie Shutterstock verwendet wurden.

image.png

Wenn Spielinhalte tatsächlich für das Training von Sora verwendet wurden, könnte dies eine Reihe von rechtlichen Problemen auslösen, insbesondere wenn OpenAI auf Basis von Sora interaktivere Erlebnisse entwickelt. Joshua Wagenseilberg, Anwalt für geistiges Eigentum bei Pryor Cashman, weist darauf hin, dass die nicht autorisierte Verwendung von Spielvideos zum Trainieren von KI-Modellen ein enormes Risiko birgt, da das Trainieren von KI-Modellen in der Regel das Kopieren der Trainingsdaten erfordert, und Spielvideos eine große Menge urheberrechtlich geschützter Inhalte enthalten.

Generative KI-Modelle wie Sora basieren auf Wahrscheinlichkeiten. Sie lernen Muster aus großen Datenmengen und treffen Vorhersagen. Diese Fähigkeit ermöglicht es ihnen, die Funktionsweise der Welt zu „lernen“. Es besteht jedoch auch ein Risiko: Bei bestimmten Eingaben kann das Modell Inhalte generieren, die seinen Trainingsdaten sehr ähnlich sind. Dies hat bei den Schöpfern zu großer Unzufriedenheit geführt, da sie der Meinung sind, dass ihre Werke ohne Erlaubnis zum Training verwendet wurden.

Derzeit werden Microsoft und OpenAI wegen des Verdachts der Vervielfältigung von lizenziertem Code durch ihre KI-Tools verklagt. Auch KI-Kunst-Anwendungen wie Midjourney, Runway und Stability AI sehen sich Vorwürfen der Verletzung von Künstlerrechten ausgesetzt. Große Musikfirmen haben zudem Klagen gegen die Start-ups Udio und Suno eingereicht, die KI-Tools zur Songgenerierung entwickeln.

Viele KI-Unternehmen berufen sich seit langem auf das Prinzip der „Fair Use“ und argumentieren, dass ihre Modelle „transformative“ Werke schaffen und keine Plagiate darstellen. Spielinhalte sind jedoch besonders. Evan Everist, Urheberrechtsanwalt bei Dorsey & Whitney, weist darauf hin, dass Spielvideos mindestens zwei Ebenen des Urheberrechtsschutzes betreffen: das Urheberrecht der Spieleentwickler an den Spielinhalten und das Urheberrecht der Spieler oder Videoersteller an den einzigartigen Videos. Bei einigen Spielen kann es sogar eine dritte Ebene geben: das Urheberrecht an nutzergenerierten Inhalten.

Beispielsweise erlaubt „Fortnite“ Spielern, eigene Spielkarten zu erstellen und mit anderen zu teilen. Ein Spielvideo über diese Karten betrifft mindestens drei Urheberrechtsinhaber: Epic, den Spieler und den Kartenersteller. Wenn ein Gericht eine Urheberrechtsverantwortung im Zusammenhang mit dem Training von KI-Modellen feststellt, könnten all diese Urheberrechtsinhaber potenzielle Kläger oder Lizenzgeber sein.

Wagenseilberg weist außerdem darauf hin, dass Spiele selbst viele „schützbare“ Elemente haben, wie z. B. proprietäre Texturen, die von Richtern in Klagen wegen geistigen Eigentums berücksichtigt werden könnten.

image.png

Derzeit haben sich mehrere Spieleentwickler und -Publisher, darunter Epic, Microsoft (Inhaber von „Minecraft“), Ubisoft, Nintendo, Roblox und CD Projekt Red (Entwickler von „Cyberpunk 2077“), noch nicht zu diesem Thema geäußert.

Selbst wenn KI-Unternehmen in diesen Rechtsstreitigkeiten gewinnen, sind die Nutzer möglicherweise nicht schadlos. Wenn ein generatives Modell urheberrechtlich geschützte Werke kopiert, kann die Person, die dieses Werk veröffentlicht oder in andere Projekte integriert, immer noch wegen Verletzung des geistigen Eigentums belangt werden.

Einige KI-Unternehmen haben Schadensersatzklauseln eingerichtet, um solchen Situationen zu begegnen, aber es gibt in der Regel Ausnahmen. Die Klauseln von OpenAI gelten beispielsweise nur für Unternehmenskunden, nicht für Privatkunden. Neben dem Urheberrechtsrisiko besteht auch die Gefahr der Verletzung von Markenrechten, z. B. wenn die Ausgabe Inhalte enthält, die für Marketing und Branding verwendet werden, einschließlich Charaktere aus Spielen.

Mit dem wachsenden Interesse an Weltmodellen könnte die Situation noch komplexer werden. Eine Anwendung von Weltmodellen ist die Generierung von Videospielen in der Realität. Wenn diese „synthetischen“ Spiele den Inhalten des Modelltrainings zu ähnlich sind, kann dies zu rechtlichen Problemen führen.

Avery Williams, Anwalt für geistiges Eigentum bei McKool Smith, weist darauf hin, dass das Trainieren von KI-Plattformen mit Elementen wie Sprache, Aktionen, Charakteren, Musik, Dialogen und Kunstwerken aus Spielen eine Urheberrechtsverletzung darstellt. Die in den zahlreichen Klagen gegen generative KI-Unternehmen aufgeworfenen Fragen zur „Fair Use“ werden sich auf die Videospielbranche genauso auswirken wie auf andere kreative Märkte.