Récemment, Anthropic, une start-up californienne spécialisée dans l'intelligence artificielle, a été poursuivie par un groupe d'écrivains pour avoir utilisé, sans autorisation, un grand nombre de livres protégés par le droit d'auteur pour entraîner son populaire chatbot, Claude. Il s'agit de la première action en justice intentée contre Anthropic par des auteurs, bien que des poursuites similaires aient été déposées à plusieurs reprises contre son concurrent OpenAI au cours de l'année écoulée. Anthropic, une petite entreprise fondée par d'anciens dirigeants d'OpenAI, se présente comme un développeur de modèles d'IA générative plus responsable et axé sur la sécurité, capable de rédiger des e-mails, de résumer des documents et d'interagir naturellement avec les humains.

Anthropic, Claude

Cependant, cette plainte, déposée lundi devant un tribunal fédéral de San Francisco, accuse Anthropic de « se moquer de ses nobles objectifs » en utilisant des livres piratés pour construire ses produits d'IA. La plainte indique : « Il n'est pas exagéré de dire que le modèle d'Anthropic tente de tirer profit de l'expression et de la créativité humaines derrière chaque œuvre. »

Les plaignants sont trois auteurs, Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, qui cherchent à représenter un groupe d'auteurs de romans et d'ouvrages de non-fiction ayant subi le même sort. Bien qu'il s'agisse de la première action en justice intentée contre Anthropic par des auteurs, la société fait également face à un procès intenté par de grands éditeurs de musique, accusant Claude d'avoir réutilisé des paroles de chansons protégées par le droit d'auteur.

Cette affaire s'inscrit dans une série de procès intentés contre les développeurs de grands modèles linguistiques d'IA. OpenAI et Microsoft sont engagés dans des batailles juridiques avec des auteurs de renom tels que John Grisham, Jodi Picoult et George R.R. Martin, l'auteur de « Le Trône de Fer ». Des poursuites ont également été intentées par des médias tels que le New York Times, le Chicago Tribune et Mother Jones.

Le point commun à toutes ces affaires est que les entreprises technologiques utilisent de vastes quantités d'œuvres humaines sans autorisation pour entraîner des chatbots d'IA, générant ainsi des textes semblables à ceux écrits par des humains. Les poursuites ne proviennent pas seulement d'écrivains, mais aussi d'artistes visuels, de maisons de disques et d'autres créateurs, qui affirment que les profits de l'IA générative sont construits sur l'appropriation d'œuvres originales.

Bien qu'Anthropic et d'autres entreprises technologiques soutiennent que l'entraînement des modèles d'IA relève de « l'utilisation équitable » en vertu du droit américain, les plaintes les accusent d'avoir utilisé un ensemble de données, « The Pile », contenant un grand nombre de livres piratés. La plainte réfute également l'idée que la manière dont les systèmes d'IA apprennent est similaire à celle des humains, soulignant que les humains apprennent en achetant des livres légalement ou en les empruntant à la bibliothèque, ce qui permet au moins une certaine compensation financière aux auteurs et aux créateurs.

Points clés :

📚 Des écrivains poursuivent Anthropic, affirmant qu'il a utilisé des livres piratés pour entraîner son chatbot d'IA, Claude.

⚖️ Il s'agit de la première action en justice intentée contre Anthropic par des auteurs, après de multiples poursuites similaires contre OpenAI.

💡 Anthropic et d'autres entreprises soutiennent que l'entraînement de l'IA relève de « l'utilisation équitable », mais font face à une vive controverse sur les droits d'auteur.