O Reddit está tomando medidas para impedir que empresas de IA raspem seu conteúdo, ou pelo menos para exigir que elas paguem por isso.

No início desta semana, o Reddit anunciou que está alterando seu protocolo de exclusão de robôs, também conhecido como seu arquivo robots.txt. Essa edição aparentemente árida faz parte de uma negociação/luta maior entre os proprietários de conteúdo que as empresas de IA desejam usar para treinar seus modelos de linguagem.

Assistente de IA Robô

Nota da imagem: A imagem foi gerada por IA, provedor de serviços de licenciamento de imagens Midjourney

“Robots.txt” é a maneira como um site comunica a terceiros como ele deve ser rastreado, sendo o exemplo clássico o de permitir que o Google o rastreie para inclusão nos resultados de pesquisa.

No caso da inteligência artificial, a troca de valor não é tão clara. Quando o modelo de negócios do seu site envolve atrair cliques e atenção, permitir que empresas de IA extraiam seu conteúdo sem enviar nenhum tráfego (e, em alguns casos, roubando diretamente seu trabalho) não é atraente.

Portanto, ao alterar seu arquivo robots.txt e continuar a restringir e bloquear robôs e rastreadores desconhecidos, o Reddit parece estar tentando impedir práticas criticadas por empresas como a Perplexity AI.

Destaques:

- 📢 O Reddit está tomando medidas para impedir que empresas de IA raspem seu conteúdo, ou pelo menos para exigir que elas paguem por isso.

- 🤖 Robots.txt é a maneira como um site comunica a terceiros como ele deve ser rastreado, sendo o exemplo clássico o de permitir que o Google o rastreie para inclusão nos resultados de pesquisa.

- 💻 O Reddit alterou seu arquivo robots.txt e continua a restringir e bloquear robôs e rastreadores desconhecidos para impedir práticas criticadas por empresas como a Perplexity AI.