No campo de batalha da era digital, a indústria da música está travando uma guerra sem precedentes. Diante da ameaça da deepfake impulsionada pela inteligência artificial, gravadoras, artistas e produtores estão lutando contra ela por vários canais, mas o caminho para a proteção dos direitos autorais está repleto de espinhos.

A Sony Music revelou recentemente que solicitou a remoção de até 75.000 conteúdos deepfake. Esse número surpreendente revela a gravidade atual do problema de violação de direitos autorais por IA. A empresa de segurança da informação Pindrop aponta que a música gerada por IA geralmente possui "características óbvias", teoricamente fáceis de serem identificadas — "mesmo que soe realista, as músicas geradas por IA tendem a apresentar pequenas irregularidades na variação de frequência, ritmo e padrões digitais que não aparecem em performances humanas".

No entanto, a situação real é preocupante. Basta passar alguns minutos no YouTube ou Spotify, plataformas de streaming de música de ponta, para encontrar facilmente um falso rap de 2Pac cantando sobre pizza ou uma versão inexistente de Ariana Grande fazendo um cover de uma música K-pop. Diante disso, Sam Duboff, chefe de organização de políticas do Spotify, disse: "Levamos este problema muito a sério e estamos trabalhando para desenvolver novas ferramentas para melhorar a situação". O YouTube afirma estar "aprimorando" sua capacidade de identificar conteúdo de imitação de IA e espera anunciar resultados em breve.

Jeremy Goldman, analista da Emarketer, observa com precisão: "Os atores mal-intencionados estão sempre um passo à frente", fazendo com que artistas, gravadoras e outros participantes da indústria musical "só possam reagir". No entanto, Goldman também afirma que o YouTube, como gigante de tecnologia com bilhões de dólares em receita anual, tem forte motivação para resolver o problema: "Você não quer que sua plataforma se torne um pesadelo de IA".

Música Áudio Onda Sonora

Nota da imagem: A imagem foi gerada por IA, fornecida pela Midjourney.

Além da deepfake, a indústria musical está mais preocupada com o uso não autorizado de seu conteúdo para treinar modelos de IA generativa como Suno, Udio ou Mubert. No ano passado, várias grandes gravadoras entraram com uma ação na justiça federal de Nova York contra a empresa-mãe da Udio, acusando-a de usar "gravações protegidas por direitos autorais" para desenvolver sua tecnologia, com o objetivo final de "roubar os ouvintes, fãs e potenciais licenciados das gravações que ela copia". Um processo semelhante contra a Suno foi apresentado em Massachusetts. No entanto, após mais de nove meses, esses processos ainda não começaram de fato.

O cerne dessas ações judiciais é o princípio do "uso justo", ou seja, o uso limitado de certos materiais protegidos por direitos autorais sem permissão prévia. Joseph Fishman, professor de direito da Universidade Vanderbilt, chama isso de "um campo realmente cheio de incertezas". Como diferentes tribunais podem ter opiniões diferentes, uma decisão preliminar não é necessariamente definitiva, e a questão final pode ser encaminhada à Suprema Corte.

Enquanto isso, os principais participantes da geração de música por IA continuam treinando seus modelos com obras protegidas por direitos autorais, o que levanta uma questão: a batalha já foi perdida? Fishman acredita que é muito cedo para dizer: embora muitos modelos já tenham sido treinados em materiais protegidos, novas versões desses modelos são lançadas constantemente, e não está claro se qualquer decisão judicial afetará as questões de licenciamento desses modelos no futuro.

Na área legislativa, os resultados para gravadoras, artistas e produtores também são limitados. O Congresso americano apresentou várias leis, mas ainda não houve resultados substanciais. Alguns estados, especialmente o Tennessee, com sua forte indústria de música country, já aprovaram leis de proteção, especialmente para conteúdo deepfake.

O presidente Trump pode ser outro obstáculo potencial, posicionando-se como um defensor da desregulamentação da IA. Várias gigantes da IA já entraram na briga, especialmente o Meta, instando o governo a "esclarecer que o uso de dados publicamente disponíveis para treinar modelos é claramente um uso justo". Se a administração Trump adotar essa recomendação, mesmo que os tribunais teoricamente tenham a decisão final, isso pode inclinar a balança contra os profissionais da música.

A situação no Reino Unido não é melhor. O governo trabalhista está considerando modificar as leis para permitir que empresas de IA usem o conteúdo de criadores na internet para ajudar a desenvolver modelos, a menos que os detentores de direitos optem por não participar. Para protestar contra esses esforços, mais de mil músicos, incluindo Kate Bush e Annie Lennox, lançaram em fevereiro deste ano um álbum intitulado "É isso que queremos?", com uma "música do silêncio" gravada em vários estúdios.

O analista Goldman acredita que, enquanto a indústria da música continuar fragmentada, o problema da IA continuará a assombrá-la: "A indústria da música é muito dispersa, o que a coloca em desvantagem na resolução deste problema".