Reddit está tomando medidas para impedir que las empresas de IA rastreen su contenido, o al menos para exigirles que paguen.

A principios de esta semana, Reddit anunció que está modificando su protocolo de exclusión de robots, también conocido como su archivo robots.txt. Esta edición aparentemente aburrida es parte de una negociación/batalla más amplia entre los propietarios de contenido que las empresas de IA ansían utilizar para entrenar sus modelos de lenguaje.

Ayudante de IA Robot

Nota de la fuente: La imagen fue generada por IA, con licencia de Midjourney.

“Robots.txt” es la forma en que un sitio web comunica a terceros cómo debe ser rastreado. Un ejemplo clásico son los sitios web que permiten a Google rastrearlos para incluirlos en los resultados de búsqueda.

En el caso de la inteligencia artificial, el intercambio de valor no es tan claro. Cuando el modelo de negocio de su sitio web implica atraer clics y atención, permitir que las empresas de IA extraigan su contenido sin enviar ningún tráfico (en algunos casos, plagian directamente su trabajo) no es atractivo.

Por lo tanto, al modificar su archivo robots.txt y continuar restringiendo y bloqueando robots y rastreadores desconocidos, Reddit parece estar intentando evitar las prácticas criticadas de empresas como Perplexity AI.

Puntos clave:

- 📢 Reddit está tomando medidas para impedir que las empresas de IA rastreen su contenido, o al menos para exigirles que paguen.

- 🤖 Robots.txt es la forma en que un sitio web comunica a terceros cómo debe ser rastreado. Un ejemplo clásico son los sitios web que permiten a Google rastrearlos para incluirlos en los resultados de búsqueda.

- 💻 Reddit modificó su archivo robots.txt y continúa restringiendo y bloqueando robots y rastreadores desconocidos para evitar las prácticas criticadas de empresas como Perplexity AI.