Kürzlich wurde das in San Francisco ansässige KI-Startup Anthropic von einer Gruppe von Schriftstellern verklagt, weil es angeblich eine große Menge urheberrechtlich geschützter Bücher ohne Genehmigung zum Trainieren seines beliebten Chatbots Claude verwendet hat. Dies ist die erste Klage von Schriftstellern gegen Anthropic, obwohl in den letzten zwölf Monaten bereits eine Reihe ähnlicher Klagen gegen den Konkurrenten OpenAI eingereicht wurden. Anthropic, ein kleineres Unternehmen, das von ehemaligen OpenAI-Führungskräften gegründet wurde, bezeichnet sich selbst als verantwortungsbewusster und sicherheitsorientierter Entwickler von generativen KI-Modellen, die E-Mails verfassen, Dokumente zusammenfassen und auf natürliche Weise mit Menschen kommunizieren können.

Anthropic, Claude

Die am Montag beim Bundesgericht in San Francisco eingereichte Klage wirft Anthropic vor, seine „hochgesteckten Ziele zu verspotten“, indem es beim Aufbau seiner KI-Produkte auf urheberrechtlich geschützte Bücher zurückgreift. Die Klage argumentiert: „Es ist keine Übertreibung zu sagen, dass Anthropic versucht, von dem menschlichen Ausdruck und der Kreativität hinter jedem Werk zu profitieren.“

Die Kläger sind drei Schriftsteller, Andrea Bartz, Charles Graeber und Kirk Wallace Johnson, die eine Gruppe von ebenfalls betroffenen Roman- und Sachbuchautoren vertreten wollen. Obwohl dies die erste Klage von Schriftstellern gegen Anthropic ist, steht das Unternehmen auch vor Klagen großer Musikverlage, die Claude beschuldigen, urheberrechtlich geschützte Liedtexte zu verwenden.

Dieser Fall steht in Zusammenhang mit einer Reihe weiterer Klagen gegen Entwickler großer Sprachmodelle der KI. OpenAI und Microsoft stehen mit bekannten Schriftstellern wie John Grisham, Jodi Picoult und George R.R. Martin (Autor von „Game of Thrones“) vor Gericht. Weitere Klagen stammen von Medienunternehmen wie der „New York Times“, dem „Chicago Tribune“ und „Mother Jones“.

Allen diesen Fällen gemeinsam ist, dass Technologieunternehmen große Mengen an menschlichen Werken ohne Genehmigung zum Trainieren von KI-Chatbots verwendet haben, um menschenähnliche Texte zu generieren. Die Klagen kommen nicht nur von Schriftstellern, sondern auch von bildenden Künstlern, Musikfirmen und anderen Kreativen, die behaupten, dass die Gewinne der generativen KI auf der Aneignung von Originalwerken beruhen.

Obwohl Anthropic und andere Technologieunternehmen argumentieren, dass das Training von KI-Modellen unter die „Fair Use“-Klausel des US-amerikanischen Rechts fällt, werfen die Klagen vor, dass der verwendete Datensatz „The Pile“ eine große Anzahl urheberrechtlich geschützter Bücher enthält. Die Klage bestreitet auch die Behauptung, dass KI-Systeme auf ähnliche Weise wie Menschen lernen, und betont, dass Menschen durch den Kauf legaler Bücher oder das Ausleihen von Büchern in Bibliotheken lernen, was zumindest eine gewisse wirtschaftliche Entschädigung für Autoren und Urheber ermöglicht.

Wichtige Punkte:

📚 Schriftsteller verklagen Anthropic, weil es angeblich urheberrechtlich geschützte Bücher zum Trainieren des KI-Chatbots Claude verwendet hat.

⚖️ Dies ist die erste Klage von Schriftstellern gegen Anthropic; zuvor wurden bereits mehrere ähnliche Klagen gegen OpenAI eingereicht.

💡 Anthropic und andere Unternehmen argumentieren, dass das KI-Training unter „Fair Use“ fällt, stehen aber vor heftigen Urheberrechtsstreitigkeiten.