Recentemente, a OpenAI fez um pedido bastante controverso em um processo por direitos autorais contra o New York Times, solicitando acesso aos dados de pesquisa e documentos internos do jornal. O New York Times se opôs veementemente, argumentando que o pedido da OpenAI é uma forma de intimidação destinada a sufocar o funcionamento normal das instituições de notícias.
Nota da imagem: Imagem gerada por IA, fornecedora de serviços de licenciamento de imagens Midjourney
A posição do New York Times é que as questões de direitos autorais devem ser avaliadas apenas com base em seus artigos publicados, e não em notas privadas de repórteres ou materiais de entrevistas. O jornal teme que essa ação da OpenAI possa ter um efeito inibidor sobre jornalistas e organizações de notícias, afetando sua liberdade criativa.
Os advogados da OpenAI argumentam que, como o New York Times alegou em sua petição inicial que suas obras exigem "muito tempo, experiência e habilidade" e "investigação aprofundada", eles precisam acessar esses documentos internos para avaliar a relevância das questões de direitos autorais. O New York Times entrou com uma ação por violação de direitos autorais contra a OpenAI e a Microsoft no final de 2023, alegando que o ChatGPT, em alguns casos, copiou quase literalmente seu conteúdo. Em resposta, a OpenAI contra-atacou com a alegação de "hackers de prompts", dizendo que o New York Times violou seus termos de serviço por meio de inúmeras tentativas.
Curiosamente, os advogados da OpenAI parecem não estar buscando diretamente uma decisão sobre uso justo, mas sim focando em outras questões relacionadas a direitos autorais e tecnologia. Se o caso do New York Times for rejeitado por causa disso, a OpenAI vencerá o caso, mas a decisão sobre uso justo ainda ficará em aberto. Talvez a OpenAI e a Microsoft estejam apenas ganhando tempo, esperando que as empresas de IA encontrem métodos de treinamento que não infrinjam direitos autorais antes que a relevância do uso justo diminua.
Enquanto isso, o Meta recentemente lançou uma atualização do modelo Llama3, em que modelos menores foram aprimorados com a ajuda de modelos maiores, sugerindo que o futuro do treinamento de IA pode envolver o aprendizado de mais com menos dados. O CEO da OpenAI, Sam Altman, disse recentemente que o treinamento de IA futuro dependerá mais da qualidade dos dados do que da quantidade.
Destaques:
📄 A OpenAI solicitou ao New York Times dados de pesquisa de repórteres em um processo por direitos autorais, causando forte oposição da mídia.
⚖️ O New York Times acredita que os direitos autorais devem ser baseados em conteúdo publicado, e não em notas privadas de repórteres, temendo que isso afete a liberdade de imprensa.
⏳ Os advogados da OpenAI parecem estar evitando uma decisão sobre uso justo, possivelmente buscando novos métodos de treinamento de IA para reduzir os riscos de violação de direitos autorais.