Hugging Face ने हाल ही में अप्रैल 2025 के दूसरे सप्ताह के सबसे लोकप्रिय मॉडल की सूची जारी की है, जिसमें टेक्स्ट जेनरेशन, इमेज जेनरेशन से लेकर वीडियो जेनरेशन तक कई मोडेलिटी शामिल हैं, जो AI तकनीक के तेजी से विकास और बहुआयामी अनुप्रयोगों को दर्शाता है। AIbase के अनुसार, इस सूची में शामिल मॉडल न केवल ओपन-सोर्स समुदाय की नवीनता को दर्शाते हैं, बल्कि कम-परिशुद्धता प्रशिक्षण से लेकर मल्टी-मोडेलिटी जेनरेशन तक की तकनीकी प्रवृत्ति को भी दर्शाते हैं। नीचे सूची के मुख्य आकर्षणों का विश्लेषण दिया गया है, AIbase की संपादकीय टीम आपके लिए पेशेवर व्याख्या लेकर आई है।
टेक्स्ट जेनरेशन मॉडल: दक्षता और व्यावसायिकता का संतुलन
microsoft/bitnet-b1.58-2B-4T: 1-बिट परिशुद्धता प्रशिक्षण का उपयोग करने वाला पहला टेक्स्ट जेनरेशन मॉडल होने के नाते, BitNet कम कंप्यूटिंग लागत पर कुशल अनुमान लगाता है, जो इसे एज डिवाइस पर तैनाती के लिए उपयुक्त बनाता है। इसकी नवीन क्वांटाइजेशन तकनीक प्रदर्शन को बनाए रखते हुए ऊर्जा की खपत को काफी कम करती है, जिससे समुदाय का व्यापक ध्यान आकर्षित हुआ है।
agentica-org/DeepCoder-14B-Preview: कोड जेनरेशन के लिए अनुकूलित टेक्स्ट जेनरेशन मॉडल, विशेष रूप से फ्रंट-एंड डेवलपमेंट कार्यों में उत्कृष्ट प्रदर्शन करता है। इसके माइक्रो-ट्यूनिंग डिज़ाइन ने कोड लॉजिक की सटीकता में सुधार किया है, डेवलपर्स को एक शक्तिशाली उपकरण प्रदान किया है।
THUDM/GLM-4-32B-0414 & GLM-Z1-32B-0414: ज़ीपु AI का GLM सीरीज़ फिर से सूची में है, GLM-4-32B को 15T उच्च-गुणवत्ता डेटा के साथ प्री-ट्रेन किया गया है, जो संवाद, कोड जेनरेशन और निर्देशों का पालन करता है; GLM-Z1-32B तर्क क्षमता को मजबूत करता है, प्रदर्शन GPT-4o और DeepSeek-V3 के बराबर है। AIbase को इस सप्ताह समुदाय द्वारा जारी किए गए परीक्षण परिणामों से इसकी क्षमता का और सत्यापन करने की उम्मीद है।
deepseek-ai/DeepSeek-V3-0324: DeepSeek-V3 का "छोटा अपडेट" संस्करण, 671B पैरामीटर स्केल के साथ टेक्स्ट जेनरेशन क्षेत्र में अग्रणी बना हुआ है। जटिल तर्क और बहुभाषी कार्यों में इसके उत्कृष्ट प्रदर्शन ने इसे ओपन-सोर्स समुदाय में एक बेंचमार्क मॉडल बना दिया है।
microsoft/MAI-DS-R1: माइक्रोसॉफ्ट द्वारा DeepSeek पर आधारित पोस्ट-ट्रेनिंग मॉडल, विशिष्ट कार्यों की निर्देश-पालन क्षमता को अनुकूलित करता है, हालाँकि समुदाय में इसके प्रदर्शन पर अलग-अलग राय हैं, फिर भी कुशल माइक्रो-ट्यूनिंग के कारण यह ध्यान आकर्षित करता है।
इमेज और मल्टी-मोडेलिटी मॉडल: विज़ुअल जेनरेशन नई ऊंचाइयों पर
HiDream-ai/HiDream-I1-Full: यह टेक्स्ट-टू-इमेज मॉडल उच्च जेनरेशन गुणवत्ता के साथ अलग दिखता है, विवरण और शैली की विविधता प्रभावशाली है। AIbase का मानना है कि कला निर्माण और व्यावसायिक डिजाइन में इसकी व्यापक क्षमता है।
Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0: FLUX.1-dev के बेहतर संस्करण पर आधारित, यह व्यक्ति निर्माण पर केंद्रित है, ControlNet तकनीक के संयोजन से छवि की स्थिरता और नियंत्रण सटीकता में सुधार हुआ है, जो उच्च-सटीकता वाले दृश्य कार्यों के लिए उपयुक्त है।
moonshotai/Kimi-VL-A3B-Thinking: Kimi का मल्टी-मोडेलिटी मॉडल, इमेज-टेक्स्ट से टेक्स्ट जेनरेशन का समर्थन करता है, मजबूत दृश्य समझ और तर्क क्षमता के साथ, जटिल प्रश्नोत्तर और सामग्री विश्लेषण परिदृश्यों के लिए उपयुक्त है। AIbase ने पहले ही मल्टी-मोडेलिटी क्षेत्र में इसकी नवीन सफलता की सूचना दी है।
वीडियो जेनरेशन मॉडल: गतिशील सामग्री निर्माण में तेजी
Wan-AI/Wan2.1-FLF2V-14B-720P: अलीबाबा द्वारा ओपन-सोर्स किया गया पहला और अंतिम फ्रेम वीडियो जेनरेशन मॉडल, 5 सेकंड 720p उच्च-परिभाषा वीडियो जेनरेशन का समर्थन करता है। CLIP सिमेंटिक फीचर और DiT आर्किटेक्चर के माध्यम से, यह मॉडल इमेज स्थिरता और संक्रमण चिकनाई में उत्कृष्ट प्रदर्शन करता है, जो व्यापक रूप से लघु वीडियो निर्माण और फिल्म पोस्ट-प्रोडक्शन में उपयोग किया जाता है।
AIbase विश्लेषण के अनुसार, Hugging Face की सूची AI विकास के दो प्रमुख रुझानों को दर्शाती है: एक मल्टी-मोडेलिटी मॉडल का उदय, जैसे कि Kimi-VL और Wan2.1-FLF2V ने इमेज से वीडियो जेनरेशन क्षमता दिखाई है; दूसरा कुशल अनुमान में सफलता, जैसे कि BitNet के 1-बिट प्रशिक्षण ने कम संसाधन वाले वातावरण के लिए नई संभावनाएं खोली हैं। भविष्य में, मॉडल के आकार और कंप्यूटिंग अनुकूलन के साथ, AI शिक्षा, चिकित्सा और रचनात्मक उद्योगों में बड़ी भूमिका निभाएगा। AIbase सूची की गतिविधियों पर लगातार नज़र रखेगा और पाठकों को नवीनतम तकनीकी अंतर्दृष्टि प्रदान करेगा।