Reddit एआई कंपनियों को इसकी सामग्री को स्क्रैप करने से रोकने के लिए कदम उठा रहा है, या कम से कम उनसे शुल्क मांग रहा है।
इस सप्ताह की शुरुआत में, Reddit ने अपने रोबोट्स.txt फ़ाइल को बदलने की घोषणा की। यह साधारण दिखने वाला संपादन एआई कंपनियों के लिए अपने भाषा मॉडल को प्रशिक्षित करने के लिए सामग्री के मालिकों के बीच एक बड़े वार्तालाप/लड़ाई का हिस्सा है।
छवि स्रोत नोट: छवि एआई द्वारा उत्पन्न, छवि लाइसेंस सेवा प्रदाता Midjourney
“Robots.txt” वेबसाइटों को तृतीय पक्षों को यह संप्रेषित करने का तरीका है कि उन्हें कैसे स्क्रैप किया जाना चाहिए, एक क्लासिक उदाहरण है कि Google को स्क्रैप करने की अनुमति देने वाली वेबसाइटें ताकि वे खोज परिणामों में शामिल हो सकें।
कृत्रिम बुद्धिमत्ता के मामले में, मूल्य विनिमय इतना स्पष्ट नहीं है। जब आपके द्वारा चलाए जा रहे वेबसाइट के व्यावसायिक मॉडल में क्लिक और ध्यान आकर्षित करना शामिल होता है, तो एआई कंपनियों को आपकी सामग्री को अवशोषित करने देना और कोई ट्रैफ़िक न भेजना (कुछ मामलों में, वे सीधे आपके काम की नकल कर सकते हैं) आकर्षक नहीं होता।
इसलिए, अपने robots.txt फ़ाइल को बदलकर और अज्ञात रोबोटों और वेब क्रॉलर पर रेटिंग प्रतिबंध और रोक जारी रखकर, Reddit ऐसा लगता है कि Perplexity AI जैसी कंपनियों की आलोचना की जाने वाली प्रथाओं को रोकने के लिए प्रयासरत है।
मुख्य बिंदु:
- 📢 Reddit एआई कंपनियों को इसकी सामग्री को स्क्रैप करने से रोकने के लिए कदम उठा रहा है, या कम से कम उनसे शुल्क मांग रहा है।
- 🤖 Robots.txt वेबसाइटों को तृतीय पक्षों को यह संप्रेषित करने का तरीका है कि उन्हें कैसे स्क्रैप किया जाना चाहिए, एक क्लासिक उदाहरण है कि Google को स्क्रैप करने की अनुमति देने वाली वेबसाइटें ताकि वे खोज परिणामों में शामिल हो सकें।
- 💻 Reddit अपने robots.txt फ़ाइल को बदलता है और अज्ञात रोबोटों और वेब क्रॉलर पर रेटिंग प्रतिबंध और रोक जारी रखता है, ताकि Perplexity AI जैसी कंपनियों की आलोचना की जाने वाली प्रथाओं को रोका जा सके।