हाल ही में, 魔搭社区 ने vLLM और FastChat के साथ सहयोग किया है, जिससे चीनी डेवलपर्स को तेज़ और अधिक प्रभावी LLM इनफेरेंस और डिप्लॉयमेंट सेवाएँ प्रदान की जा सकें। डेवलपर्स vLLM का उपयोग FastChat में इनफेरेंस इंजन के रूप में कर सकते हैं, जो उच्च थ्रूपुट मॉडल इनफेरेंस प्रदान करता है। FastChat एक ओपन प्लेटफ़ॉर्म है, जो LLM आधारित चैटबॉट के प्रशिक्षण, सेवा और मूल्यांकन के लिए है। vLLM एक LLM सेवा प्रणाली है, जिसे कैलिफोर्निया विश्वविद्यालय बर्कले, स्टैनफोर्ड विश्वविद्यालय और कैलिफोर्निया विश्वविद्यालय सैन डिएगो के शोधकर्ताओं द्वारा विकसित किया गया है। FastChat और vLLM के माध्यम से, डेवलपर्स 魔搭 के मॉडल को तेजी से लोड करके इनफेरेंस कर सकते हैं।
मोड़ा समुदाय ने vLLM और FastChat के साथ सहयोग किया, कुशल LLM अनुमान और तैनाती सेवा प्रदान की
