Adobe, ein in der Kreativbranche renommierter Name, wurde aufgrund seiner Position zum Urheberrechtsschutz als „Urheberrechtswächter“ gefeiert. Doch kürzlich geriet das Unternehmen aufgrund einer stillschweigend aktualisierten Nutzungsbedingungen in einen Strudel der öffentlichen Meinung.
Im Februar dieses Jahres aktualisierte Adobe still und heimlich seine Produkt-Nutzungsbedingungen und fügte einen bemerkenswerten Punkt hinzu: Benutzer müssen zustimmen, dass Adobe auf automatische und manuelle Weise auf ihre Werke zugreifen kann, einschließlich solcher, die durch Geheimhaltungsvereinbarungen geschützt sind. Adobe wird diese Werke verwenden, um seine Dienste und Software mithilfe von Technologien wie maschinellem Lernen zu verbessern. Wenn Benutzer diesen neuen Bedingungen nicht zustimmen, können sie die Adobe-Software nicht verwenden.
Diese Änderung wurde kürzlich publik und löste bei den Kernbenutzern von Adobe, darunter Kreative, digitale Künstler und Designer, starken Widerstand aus. Sie sehen darin eine Zwangslizenzierung, im Wesentlichen eine „Klausel im Kleingedruckten“, deren eigentliches Ziel darin besteht, das generative KI-Modell „Firefly“ von Adobe zu trainieren. Ein Blogger namens Sam Santala stellte diese Klausel auf Twitter in Frage, und sein Tweet wurde millionenfach angesehen.
Viele Benutzer äußerten ihre Bedenken hinsichtlich ihrer Privatsphäre und Urheberrechte und entschieden sich daher, die Produkte von Adobe nicht mehr zu verwenden. Gleichzeitig ergriff Meta ähnliche Maßnahmen und aktualisierte seine Datenschutzrichtlinien, um die Verwendung von Informationen zuzulassen, die Benutzer auf Meta-Produkten und -Diensten geteilt haben, um KI zu trainieren. Wenn Benutzer den neuen Datenschutzrichtlinien nicht zustimmen, sollten sie die Nutzung von Social-Media-Produkten wie Facebook und Instagram in Erwägung ziehen.
Mit der rasanten Entwicklung der KI-Technologie verschärft sich der Kampf zwischen Technologieunternehmen und Nutzern um Datenschutz, Inhaberschaft und Kontrolle von Inhalten. Adobe behauptet, dass die Trainingsdaten seines Firefly-Modells aus Hunderten von Millionen von Bildern aus der Adobe-Bilddatenbank, einigen öffentlich lizenzierten Bildern und öffentlich zugänglichen Bildern stammen, deren Urheberrechte abgelaufen sind. Andere KI-Bildgenerierungs-Tools wie Stability AI's Stable Diffusion, OpenAI's Dall-E2 und Midjourney waren jedoch bereits wegen Urheberrechtsproblemen umstritten.
Adobe versucht, sich in diesem Bereich durch eine differenzierte Marktpositionierung als „weißer Ritter“ im KI-Wettrüsten zu profilieren, indem es die Rechtmäßigkeit seiner Modell-Trainingsdaten betont und verspricht, Ansprüche im Zusammenhang mit Urheberrechtsstreitigkeiten zu zahlen, die durch die Verwendung von mit Adobe Firefly erstellten Bildern entstehen. Diese Strategie hat jedoch nicht alle Bedenken der Benutzer ausgeräumt. Einige Benutzer, wie der erfahrene Designer Aje, bezeichnen sich selbst als „Opfer von Adobe-Originalprodukten“ und meinen, Adobe nutze sein riesiges kreatives Ökosystem zum Trainieren von KI. Dies sei zwar eine clevere Geschäftsstrategie, aber die Aufteilung der Interessen zwischen Plattform und Schöpfern sowie das Informationsrecht der Benutzer fehle.
Darüber hinaus gab es im Ausland immer wieder Urheberrechtsstreitigkeiten im Zusammenhang mit Adobe, die bei den Nutzern Zweifel daran aufkommen ließen, ob Adobe die Urheberrechte von Schöpfern tatsächlich respektiert. Beispielsweise stellte der Künstler Brian Kesinger fest, dass in der Adobe-Bilddatenbank ohne seine Zustimmung AI-generierte Bilder im Stil seiner Werke unter seinem Namen verkauft wurden. Auch die Nachlassverwaltung des Fotografen Ansel Adams beschuldigte Adobe öffentlich, generative KI-Imitationen der Werke des verstorbenen Fotografen verkauft zu haben.
Unter dem Druck der öffentlichen Meinung überarbeitete Adobe am 19. Juni seine Nutzungsbedingungen und erklärte klar, dass es keine Inhalte verwenden werde, die Benutzer lokal oder in der Cloud speichern, um KI-Modelle zu trainieren. Diese Klarstellung hat die Bedenken der Urheber jedoch nicht vollständig ausgeräumt. Einige bekannte Blogger aus dem Bereich KI im Ausland wiesen darauf hin, dass die überarbeiteten Nutzungsbedingungen von Adobe es weiterhin ermöglichen, private Cloud-Daten von Benutzern zum Trainieren von Machine-Learning-Modellen für nicht-generative KI-Tools zu verwenden. Obwohl Benutzer die „Inhaltsanalyse“ deaktivieren können, schrecken die komplexen Abmeldeverfahren viele Benutzer ab.
Die unterschiedlichen Vorschriften zum Schutz von Benutzerdaten in verschiedenen Ländern und Regionen beeinflussen auch die Strategien von Social-Media-Plattformen bei der Gestaltung ihrer Nutzungsbedingungen. Im Rahmen der Datenschutz-Grundverordnung (DSGVO) haben beispielsweise Benutzer in Großbritannien und der EU ein „Widerspruchsrecht“, d. h., sie können sich ausdrücklich dagegen entscheiden, dass ihre personenbezogenen Daten zum Trainieren von KI-Modellen von Meta verwendet werden. US-amerikanische Benutzer haben jedoch keinen gleichwertigen Anspruch auf Information. Gemäß den bestehenden Richtlinien von Meta zur Datenfreigabe können Inhalte, die US-amerikanische Benutzer auf Social-Media-Produkten von Meta veröffentlichen, möglicherweise ohne ausdrückliche Zustimmung zum Trainieren von KI verwendet werden.
Daten werden als das „neue Öl“ des KI-Zeitalters bezeichnet, aber bei der „Förderung“ dieser Ressource gibt es derzeit noch viele Grauzonen. Einige Technologieunternehmen gehen bei der Beschaffung von Benutzerdaten vage vor, was zu einer doppelten Schwierigkeit für die Rechte der Benutzer auf persönliche Informationen führt: die Frage des digitalen Urheberrechts und des Datenschutzes, was das Vertrauen der Benutzer in die Plattform stark beeinträchtigt.
Derzeit bestehen bei Plattformen noch erhebliche Mängel bei der Gewährleistung, dass generative KI die Rechte von Urhebern nicht verletzt, und es fehlt an ausreichender Regulierung. Einige Entwickler und Urheber haben Maßnahmen ergriffen und eine Reihe von „Anti-KI“-Tools auf den Markt gebracht, von dem Werkzeugs zum Schutz von Werken Glaze über das KI-Datenvergiftungs-Tool Nightshade bis hin zur beliebten Anti-KI-Community Cara. Angesichts der Tatsache, dass Technologieunternehmen Daten ohne Zustimmung von Benutzern/Urhebern erfassen, um KI-Modelle zu trainieren, wächst die Wut der Menschen immer mehr.
In Zeiten der rasanten Entwicklung der KI-Technologie gilt es, ein Gleichgewicht zwischen technologischer Innovation und dem Schutz der Privatsphäre der Benutzer sowie der Rechte der Urheber zu finden. Dies erfordert eine weitere Entwicklung der Branche und die ständige Verbesserung der gesetzlichen Regulierung. Gleichzeitig müssen Benutzer wachsamer sein, ihre Datenrechte kennen und gegebenenfalls Maßnahmen zum Schutz ihrer Kreationen und ihrer Privatsphäre ergreifen.