A ferramenta de geração de vídeo da OpenAI, Sora, tem chamado a atenção desde seu lançamento, mas sua origem permaneceu um mistério. Agora, uma parte do enigma parece ter sido desvendada: é muito provável que os dados de treinamento do Sora incluam uma grande quantidade de vídeos de jogos ao vivo e tutoriais do Twitch!
Sora se assemelha a um mestre da imitação, capaz de gerar vídeos de até 20 segundos a partir de apenas um prompt de texto ou imagem, com diferentes proporções e resoluções. Em fevereiro, quando a OpenAI apresentou o Sora pela primeira vez, insinuou que o modelo havia "treinado" em vídeos de Minecraft. Então, além de Minecraft, quais outros jogos compõem o "manual de habilidades" do Sora?
O resultado é surpreendente: o Sora parece dominar diversos gêneros de jogos. Ele pode gerar um vídeo de um jogo clone com a sombra do Mario, apesar de alguns "pequenos defeitos"; também consegue simular cenas de jogos de tiro em primeira pessoa emocionantes, como uma combinação de Call of Duty e Counter-Strike; e ainda consegue reproduzir cenas de luta do jogo de arcade Tartarugas Ninja dos anos 90, transportando-nos de volta à infância.

Ainda mais surpreendente é o conhecimento do Sora sobre as transmissões ao vivo do Twitch, sugerindo que ele "assistiu" a uma grande quantidade de conteúdo ao vivo. As capturas de tela dos vídeos gerados pelo Sora não apenas capturam com precisão a estrutura das transmissões, mas também reproduzem com precisão a imagem do famoso streamer Auronplay, incluindo sua tatuagem no braço esquerdo.

Além disso, o Sora também "conhece" outra streamer do Twitch, Pokimane, e gerou vídeos com personagens semelhantes à sua aparência. Naturalmente, para evitar problemas de direitos autorais, a OpenAI implementou um mecanismo de filtro para impedir o Sora de gerar vídeos com personagens de marcas registradas.
Embora a OpenAI seja discreta sobre a origem dos dados de treinamento, vários indícios sugerem que o conteúdo de jogos foi incluído no conjunto de treinamento do Sora. A ex-CTO da OpenAI, Mira Murati, em uma entrevista ao Wall Street Journal em março, não negou diretamente que o Sora utilizou conteúdo do YouTube, Instagram e Facebook para treinamento. A OpenAI também admite nas especificações técnicas do Sora que ele utilizou dados "publicamente disponíveis" e dados licenciados de bibliotecas de mídia como a Shutterstock.

Se o conteúdo de jogos realmente foi usado para treinar o Sora, isso pode gerar uma série de problemas legais, especialmente se a OpenAI desenvolver experiências mais interativas com base no Sora. Joshua Wagensberg, advogado de propriedade intelectual da Pryor Cashman, aponta que o uso não autorizado de vídeos de jogos para treinamento de IA apresenta riscos significativos, pois o treinamento de modelos de IA geralmente requer a replicação dos dados de treinamento, e os vídeos de jogos contêm uma grande quantidade de conteúdo protegido por direitos autorais.
Modelos de IA generativos como o Sora são baseados em probabilidade. Eles aprendem padrões a partir de grandes quantidades de dados e fazem previsões. Essa capacidade permite que eles "aprendam" como o mundo funciona. No entanto, também existe um risco: sob prompts específicos, o modelo pode gerar conteúdo muito semelhante aos seus dados de treinamento. Isso causou grande insatisfação entre os criadores, que acreditam que seus trabalhos estão sendo usados sem permissão.
Atualmente, a Microsoft e a OpenAI estão sendo processadas por alegada replicação de código licenciado em suas ferramentas de IA. Empresas de aplicativos de arte com IA como Midjourney, Runway e Stability AI também enfrentam acusações de violação de direitos de artistas. As grandes gravadoras também processaram as startups Udio e Suno, desenvolvedoras de geradores de músicas com IA.
Muitas empresas de IA há muito tempo defendem o princípio do "uso justo", argumentando que seus modelos criam obras "transformativas", e não plágio. Mas o conteúdo de jogos tem suas particularidades. Evan Everist, advogado de direitos autorais do escritório de advocacia Dorsey & Whitney, aponta que os vídeos de jogos envolvem pelo menos duas camadas de proteção de direitos autorais: os direitos autorais sobre o conteúdo do jogo pertencentes aos desenvolvedores e os direitos autorais sobre o vídeo único criado pelos jogadores ou criadores de vídeo. Para alguns jogos, pode haver uma terceira camada de direitos: os direitos autorais sobre o conteúdo gerado pelo usuário.
Por exemplo, Fortnite permite que os jogadores criem seus próprios mapas de jogo e os compartilhem com outros. Um vídeo de jogo sobre esses mapas envolveria pelo menos três detentores de direitos autorais: Epic, o jogador e o criador do mapa. Se o tribunal determinar que o treinamento do modelo de IA é responsável pela violação de direitos autorais, todos esses detentores de direitos autorais podem se tornar potenciais autores ou fontes de licenças.
Além disso, Wagensberg também aponta que os próprios jogos possuem muitos elementos "protegidos", como texturas exclusivas, e os juízes podem levar esses fatores em consideração em litígios de propriedade intelectual.

Atualmente, vários estúdios e editoras de jogos, incluindo Epic, Microsoft (detentora do Minecraft), Ubisoft, Nintendo, Roblox e CD Projekt Red (desenvolvedora do Cyberpunk 2077), não comentaram sobre o assunto.
Mesmo que as empresas de IA ganhem esses litígios, os usuários podem não estar isentos. Se o modelo gerador replicar uma obra protegida por direitos autorais, a pessoa que publicar essa obra ou a incorporar em outros projetos ainda pode ser responsabilizada por violação de direitos de propriedade intelectual.
Algumas empresas de IA estabeleceram cláusulas de indenização para lidar com essas situações, mas geralmente existem exceções. Por exemplo, as cláusulas da OpenAI se aplicam apenas a clientes corporativos, não a usuários individuais. Além dos riscos de direitos autorais, existem também riscos de violação de marcas registradas, como a saída de conteúdo que pode incluir ativos usados para marketing e branding, incluindo personagens de jogos.
À medida que o interesse em modelos de mundo aumenta, a situação pode se tornar ainda mais complexa. Um aplicativo de modelos de mundo é a geração de videogames na realidade, e se esses jogos "sintéticos" forem muito semelhantes ao conteúdo de treinamento do modelo, isso pode gerar problemas legais.
Avery Williams, advogado de litígios de propriedade intelectual da McKool Smith, aponta que o treinamento de plataformas de IA em elementos de jogos, como voz, ação, personagens, músicas, diálogos e arte, constitui violação de direitos autorais. As questões sobre "uso justo" levantadas nas inúmeras ações judiciais contra empresas de IA generativas terão o mesmo impacto na indústria de videogames que em outros mercados criativos.