वेबमास्टर होम (ChinaZ.com) 20 जून की खबर:Kimi ओपन प्लेटफॉर्म ने हाल ही में घोषणा की है कि बहुप्रतीक्षित Context Caching फ़ीचर जल्द ही आंतरिक परीक्षण के लिए लॉन्च किया जाएगा। यह नवोन्मेषी फ़ीचर लंबे पाठ बड़े मॉडल का समर्थन करेगा और एक कुशल संदर्भ कैशिंग तंत्र के माध्यम से उपयोगकर्ताओं को पहले कभी न देखी गई अनुभव प्रदान करेगा।

Kimi ओपन प्लेटफॉर्म के आधिकारिक विवरण के अनुसार, Context Caching एक अत्याधुनिक तकनीक है, जिसका उद्देश्य दोहराए गए Tokens सामग्री को कैश करके, उपयोगकर्ताओं की समान सामग्री के लिए अनुरोध करते समय लागत को काफी कम करना है। इसका कार्यप्रणाली स्मार्ट पहचान और संग्रहीत किए गए पाठ के टुकड़ों पर आधारित है, जब उपयोगकर्ता फिर से अनुरोध करते हैं, तो प्रणाली तेजी से कैश से जानकारी निकाल सकती है, जिससे API के इंटरफेस की प्रतिक्रिया गति में काफी सुधार होता है।

微信截图_20240620091624.png

विशाल, उच्च दोहराव वाले prompt परिदृश्यों के लिए, Context Caching फ़ीचर के लाभ विशेष रूप से स्पष्ट हैं। यह बड़ी मात्रा में बार-बार अनुरोधों का तेजी से उत्तर दे सकता है और पहले से कैश की गई सामग्री के पुन: उपयोग के माध्यम से, प्रक्रिया की दक्षता को महत्वपूर्ण रूप से बढ़ाता है, साथ ही लागत को भी कम करता है।

विशेष रूप से उल्लेखनीय है कि Context Caching फ़ीचर उन अनुप्रयोग परिदृश्यों के लिए विशेष रूप से उपयुक्त है जिन्हें बार-बार अनुरोध करने और बड़ी मात्रा में प्रारंभिक संदर्भ को दोहराने की आवश्यकता होती है। इस फ़ीचर के माध्यम से, उपयोगकर्ता कुशल संदर्भ कैशिंग को आसानी से लागू कर सकते हैं, जिससे काम की दक्षता बढ़ती है और संचालन की लागत में कमी आती है।