Redditは、AI企業によるコンテンツのスクレイピングを阻止、または少なくとも対価の支払いを求める措置を取っています。
今週初め、Redditはロボット排除プロトコル(robots.txtファイル)を変更すると発表しました。この一見地味な変更は、AI企業が言語モデルの学習に熱心に使おうとするコンテンツ所有者間の、より大きな交渉/争いのほんの一部です。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
「Robots.txt」とは、ウェブサイトがサードパーティに、どのようにウェブサイトがクロールされるべきかを伝える方法です。代表的な例としては、Googleが検索結果に含めるためにウェブサイトをクロールすることを許可する、といったことが挙げられます。
しかし、AIに関しては、価値交換があまり明確ではありません。ウェブサイトのビジネスモデルがクリック数や閲覧数の獲得にかかっている場合、AI企業にコンテンツを吸い取られ、何のトラフィックも送られない(場合によっては、直接作品を盗用される)のは魅力的ではありません。
そのため、robots.txtファイルを変更し、未知のロボットやクローラーに対するアクセス制限とブロックを継続することで、RedditはPerplexity AIのような企業による批判されている行為を防ごうとしているようです。
要点:
- 📢 Redditは、AI企業によるコンテンツのスクレイピングを阻止、または少なくとも対価の支払いを求める措置を取っています。
- 🤖 Robots.txtは、ウェブサイトがサードパーティに、どのようにウェブサイトがクロールされるべきかを伝える方法です。代表的な例としては、Googleが検索結果に含めるためにウェブサイトをクロールすることを許可する、といったことが挙げられます。
- 💻 Redditはrobots.txtファイルを変更し、未知のロボットやクローラーに対するアクセス制限とブロックを継続することで、Perplexity AIのような企業による批判されている行為を防ごうとしています。