Selon les médias, le tribunal de district sud de New York a récemment rejeté le procès intenté par les médias Alternet et Raw Story contre OpenAI pour violation de droits d'auteur. Cependant, cette victoire pourrait être de courte durée. La décision du tribunal n'a pas abordé la question la plus controversée du domaine de l'intelligence artificielle : faut-il obtenir une autorisation pour utiliser du contenu protégé par des droits d'auteur pour entraîner des modèles d'IA ?

Les deux médias ont intenté une action en justice en février dernier, accusant OpenAI de supprimer les informations de gestion des droits d'auteur (CMI) lors de l'entraînement de ses données, notamment le nom de l'auteur, les conditions d'utilisation et le titre de l'œuvre. Le procès réclamait au minimum 2 500 $ par infraction et demandait au tribunal d'interdire à OpenAI de continuer à utiliser leurs œuvres protégées par des droits d'auteur.

Le tribunal a rejeté le procès principalement parce que les plaignants n'ont pas prouvé avoir subi des dommages spécifiques du fait de la suppression des informations sur les droits d'auteur. OpenAI a déclaré dans sa défense que les plaignants n'ont pu prouver ni que ChatGPT avait été entraîné avec leurs œuvres, ni démontrer de pertes concrètes. Le juge a approuvé ce point de vue et a indiqué que, compte tenu de la taille de la base de données, la probabilité que ChatGPT produise le contenu des articles des plaignants était faible.

OpenAI, ChatGPT, intelligence artificielle, IA

You Yun Ting, associé principal du cabinet d'avocats Shanghai Dabang, a déclaré que la production de preuves reste le principal défi des litiges sur les droits d'auteur liés à l'IA. En raison de la nature « boîte noire » des grands modèles, il est difficile de prouver si une œuvre spécifique a été utilisée pour l'entraînement. Dans le cadre juridique actuel, il manque de mécanismes pour aider les parties faibles à recueillir des preuves.

OpenAI fait actuellement face à au moins six procès similaires, notamment des poursuites intentées par le New York Times, le Daily News et des actions collectives de groupes d'écrivains. Tous ces procès portent sur une question fondamentale : les entreprises d'IA doivent-elles obtenir une autorisation pour utiliser du contenu protégé par des droits d'auteur pour entraîner leurs modèles ?

Il est à noter que les pays ont des attitudes différentes à ce sujet. Le Japon a classé l'utilisation d'œuvres protégées par des droits d'auteur pour l'entraînement de l'IA comme un « usage loyal », tandis que les tribunaux chinois et américains n'ont pas encore donné de réponse claire. Yao Zhiwei, professeur à la faculté de droit de l'Université des finances et de l'économie du Guangdong, souligne que la théorie de l'usage loyal manque de fondement législatif en Chine et que son acceptation judiciaire est très incertaine.

Bien que le procès ait été rejeté, le juge a indiqué dans son jugement que les plaignants pouvaient intenter une nouvelle action concernant le fait qu'OpenAI utilise des œuvres pour entraîner l'IA sans payer de frais. Les avocats de Raw Story et AlterNet ont déclaré qu'ils modifieraient leur plainte pour poursuivre leur action en justice.