स्टार-अटेंशन

उच्च-कुशल लंबी श्रृंखला वाले बड़े भाषा मॉडल अनुमान तकनीक

सामान्य उत्पादप्रोग्रामिंगNVIDIAबड़े भाषा मॉडल
स्टार-अटेंशन NVIDIA द्वारा प्रस्तावित एक नया ब्लॉक-विरल ध्यान तंत्र है, जिसका उद्देश्य ट्रांसफॉर्मर-आधारित बड़े भाषा मॉडल (LLM) की लंबी श्रृंखलाओं पर अनुमान दक्षता में सुधार करना है। यह तकनीक दो चरणों के संचालन के माध्यम से अनुमान गति में उल्लेखनीय वृद्धि करती है, साथ ही 95-100% सटीकता बनाए रखती है। यह अधिकांश ट्रांसफॉर्मर-आधारित LLM के साथ संगत है, और इसे सीधे उपयोग करने के लिए अतिरिक्त प्रशिक्षण या ठीक-ट्यूनिंग की आवश्यकता नहीं है, और इसे फ्लैश अटेंशन और KV कैशे संपीड़न तकनीक जैसे अन्य अनुकूलन विधियों के साथ जोड़ा जा सकता है, जिससे प्रदर्शन में और वृद्धि होती है।
वेबसाइट खोलें

स्टार-अटेंशन नवीनतम ट्रैफ़िक स्थिति

मासिक कुल विज़िट

474564576

बाउंस दर

36.20%

प्रति विज़िट औसत पृष्ठ

6.1

औसत विज़िट अवधि

00:06:34

स्टार-अटेंशन विज़िट प्रवृत्ति

स्टार-अटेंशन विज़िट भौगोलिक वितरण

स्टार-अटेंशन ट्रैफ़िक स्रोत

स्टार-अटेंशन विकल्प