स्टार-अटेंशन
उच्च-कुशल लंबी श्रृंखला वाले बड़े भाषा मॉडल अनुमान तकनीक
सामान्य उत्पादप्रोग्रामिंगNVIDIAबड़े भाषा मॉडल
स्टार-अटेंशन NVIDIA द्वारा प्रस्तावित एक नया ब्लॉक-विरल ध्यान तंत्र है, जिसका उद्देश्य ट्रांसफॉर्मर-आधारित बड़े भाषा मॉडल (LLM) की लंबी श्रृंखलाओं पर अनुमान दक्षता में सुधार करना है। यह तकनीक दो चरणों के संचालन के माध्यम से अनुमान गति में उल्लेखनीय वृद्धि करती है, साथ ही 95-100% सटीकता बनाए रखती है। यह अधिकांश ट्रांसफॉर्मर-आधारित LLM के साथ संगत है, और इसे सीधे उपयोग करने के लिए अतिरिक्त प्रशिक्षण या ठीक-ट्यूनिंग की आवश्यकता नहीं है, और इसे फ्लैश अटेंशन और KV कैशे संपीड़न तकनीक जैसे अन्य अनुकूलन विधियों के साथ जोड़ा जा सकता है, जिससे प्रदर्शन में और वृद्धि होती है।
स्टार-अटेंशन नवीनतम ट्रैफ़िक स्थिति
मासिक कुल विज़िट
474564576
बाउंस दर
36.20%
प्रति विज़िट औसत पृष्ठ
6.1
औसत विज़िट अवधि
00:06:34