De acordo com a mídia, o Tribunal Distrital do Sul de Nova York recentemente rejeitou a ação judicial por direitos autorais contra a OpenAI movida pelas empresas de notícias Alternet e Raw Story, mas essa vitória pode ser temporária. A decisão do tribunal não abordou a questão central mais controversa no campo da inteligência artificial: se é necessário obter autorização para usar conteúdo protegido por direitos autorais para treinar modelos de IA.
As duas empresas de mídia entraram com a ação em fevereiro deste ano, acusando a OpenAI de remover informações de gerenciamento de direitos autorais (CMI) durante o processo de treinamento de dados, incluindo o nome do autor, os termos de uso e o título da obra. A ação exigia uma indenização de pelo menos US$ 2.500 por infração e solicitava ao tribunal que proibisse a OpenAI de continuar usando suas obras protegidas por direitos autorais.
O principal motivo para o tribunal rejeitar a ação foi a incapacidade dos autores de provar danos específicos sofridos devido à exclusão das informações de direitos autorais. Em sua defesa, a OpenAI afirmou que os autores não conseguiram provar que o ChatGPT foi treinado com suas obras, nem apresentar provas de perdas específicas. O juiz concordou com esse ponto de vista e observou que, considerando o tamanho do banco de dados, a probabilidade do ChatGPT gerar o conteúdo dos artigos dos autores é pequena.
Yu Yun Ting, sócio sênior do escritório de advocacia Shanghai Dabang, disse que a apresentação de provas continua sendo um desafio fundamental em disputas de direitos autorais de IA. Devido à natureza de "caixa preta" dos grandes modelos, é difícil provar se uma obra específica foi usada para treinamento. E, no quadro legal atual, faltam mecanismos para ajudar as partes mais fracas a obter provas.
Atualmente, a OpenAI enfrenta pelo menos seis ações judiciais relacionadas, incluindo ações judiciais de meios de comunicação como o New York Times e o Daily News, bem como uma ação coletiva de um grupo de escritores. Todos esses casos envolvem uma questão central: as empresas de IA precisam de autorização para usar conteúdo protegido por direitos autorais para treinar seus modelos?
É importante notar que os países têm diferentes abordagens para essa questão. O Japão já classificou o uso de obras protegidas por direitos autorais para treinamento de IA como um ato de "uso justo", enquanto os tribunais da China e dos EUA ainda não deram uma resposta clara a isso. Yao Zhiwei, professor da Faculdade de Direito da Universidade de Finanças e Economia de Guangdong, apontou que a teoria do uso justo carece de base legal na China e sua aceitação judicial apresenta grande incerteza.
Embora a ação tenha sido rejeitada, o juiz afirmou em sua decisão que os autores podem entrar com uma nova ação sobre a questão de a OpenAI ter usado obras para treinar a IA sem pagar por isso. Os advogados de Raw Story e AlterNet já declararam que modificarão a petição inicial para continuar defendendo seus direitos.