in
AI उत्पाद रैंकिंग
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
होम
AI समाचार
AI दैनिक
मुद्रीकरण गाइड
AI ट्यूटोरियल
AI उपकरण नेविगेशन
AI उत्पाद लाइब्रेरी
in
AI उत्पाद रैंकिंग
वैश्विक AI उत्पाद गतिशीलता खोजें
वैश्विक AI जानकारी खोजें, AI में नए अवसर खोजें
समाचार जानकारी
उत्पाद अनुप्रयोग
मुद्रीकरण मामले
AI ट्यूटोरियल
प्रकार :
समाचार जानकारी
उत्पाद अनुप्रयोग
मुद्रीकरण मामले
AI ट्यूटोरियल
2024-10-10 11:31:16
.
AIbase
.
12.3k
टीप और माइक्रोसॉफ्ट का एक साथ Differential Transformer का निर्माण, एआई की ध्यान केंद्रितता बढ़ती है, सटीकता 30% तक बढ़ती है!
हाल ही में बड़े भाषा मॉडल (LLM) में तेजी से विकास हुआ है, जिसमें Transformer मॉडल का महत्वपूर्ण योगदान है। Transformer का मुख्य भाग ध्यान तंत्र है, जो एक सूचना फ़िल्टर की तरह कार्य करता है, जिससे मॉडल वाक्य के सबसे महत्वपूर्ण हिस्सों पर ध्यान केंद्रित करता है। लेकिन अत्यंत शक्तिशाली Transformer भी अप्रासंगिक जानकारी से प्रभावित हो सकता है, जैसे कि जब आप पुस्तकालय में एक किताब खोजने की कोशिश कर रहे हों और अप्रासंगिक किताबों के एक ढेर में डूब जाएं, जिससे आपकी दक्षता स्वाभाविक रूप से कम हो जाती है। इस ध्यान तंत्र द्वारा उत्पन्न अप्रासंगिक जानकारी को शोध पत्रों में ध्यान शोर के रूप में संदर्भित किया जाता है। कल्पना करें, आप इसे पढ़ना चाहते हैं।