चाँद की अंधेरी ओर के तहत Kimi ओपन प्लेटफ़ॉर्म ने घोषणा की है कि संदर्भ कैश (Cache) भंडारण शुल्क 50% कम किया गया है। विशेष रूप से: कैश भंडारण शुल्क 10 युआन/1M टोकन/मिनट से घटकर 5 युआन/1M टोकन/मिनट हो गया है।

微信截图_20240807110150.png

1 जुलाई को, Kimi ओपन प्लेटफ़ॉर्म ने घोषणा की कि संदर्भ कैशिंग (Context Caching) का सार्वजनिक परीक्षण शुरू हो गया है।

संदर्भ कैशिंग (Context Caching) एक कुशल डेटा प्रबंधन तकनीक है, जो सिस्टम को उन बड़े डेटा या जानकारी को पूर्व-भंडारण करने की अनुमति देती है, जिन्हें बार-बार अनुरोध किया जा सकता है।

इस तरह, जब आप फिर से समान जानकारी का अनुरोध करते हैं, तो सिस्टम कैश से सीधे तेजी से प्रदान कर सकता है, बिना पुनः गणना किए या मूल डेटा स्रोत से पुनर्प्राप्त किए, जिससे समय और संसाधनों की बचत होती है।

संदर्भ कैशिंग (Context Caching) विशेष रूप से उन परिदृश्यों के लिए उपयुक्त है जहाँ बार-बार अनुरोध किए जाते हैं और बड़ी मात्रा में प्रारंभिक संदर्भ को दोहराया जाता है, जिससे लंबे पाठ मॉडल की लागत को काफी कम किया जा सकता है और दक्षता बढ़ाई जा सकती है!