चाँद की अंधेरी ओर के तहत Kimi ओपन प्लेटफ़ॉर्म ने घोषणा की है कि संदर्भ कैश (Cache) भंडारण शुल्क 50% कम किया गया है। विशेष रूप से: कैश भंडारण शुल्क 10 युआन/1M टोकन/मिनट से घटकर 5 युआन/1M टोकन/मिनट हो गया है।
1 जुलाई को, Kimi ओपन प्लेटफ़ॉर्म ने घोषणा की कि संदर्भ कैशिंग (Context Caching) का सार्वजनिक परीक्षण शुरू हो गया है।
संदर्भ कैशिंग (Context Caching) एक कुशल डेटा प्रबंधन तकनीक है, जो सिस्टम को उन बड़े डेटा या जानकारी को पूर्व-भंडारण करने की अनुमति देती है, जिन्हें बार-बार अनुरोध किया जा सकता है।
इस तरह, जब आप फिर से समान जानकारी का अनुरोध करते हैं, तो सिस्टम कैश से सीधे तेजी से प्रदान कर सकता है, बिना पुनः गणना किए या मूल डेटा स्रोत से पुनर्प्राप्त किए, जिससे समय और संसाधनों की बचत होती है।
संदर्भ कैशिंग (Context Caching) विशेष रूप से उन परिदृश्यों के लिए उपयुक्त है जहाँ बार-बार अनुरोध किए जाते हैं और बड़ी मात्रा में प्रारंभिक संदर्भ को दोहराया जाता है, जिससे लंबे पाठ मॉडल की लागत को काफी कम किया जा सकता है और दक्षता बढ़ाई जा सकती है!