OLMoE-1B-7B

उच्च-प्रभावी खुला स्रोत बृहत भाषा मॉडल

सामान्य उत्पादउत्पादकताबृहत भाषा मॉडलखुला स्रोत
OLMoE-1B-7B एक विशेषज्ञ मिश्रित बृहत भाषा मॉडल (LLM) है जिसमें 10 करोड़ सक्रिय पैरामीटर और 70 करोड़ कुल पैरामीटर हैं, जिसे सितंबर 2024 में जारी किया गया था। यह मॉडल समान लागत वाले मॉडल में उत्कृष्ट प्रदर्शन करता है, और Llama2-13B जैसे बड़े मॉडल के साथ प्रतिस्पर्धा करता है। OLMoE पूरी तरह से खुला स्रोत है, और पाठ निर्माण, मॉडल प्रशिक्षण और परिनियोजन सहित कई कार्यों का समर्थन करता है।
वेबसाइट खोलें

OLMoE-1B-7B नवीनतम ट्रैफ़िक स्थिति

मासिक कुल विज़िट

29742941

बाउंस दर

44.20%

प्रति विज़िट औसत पृष्ठ

5.9

औसत विज़िट अवधि

00:04:44

OLMoE-1B-7B विज़िट प्रवृत्ति

OLMoE-1B-7B विज़िट भौगोलिक वितरण

OLMoE-1B-7B ट्रैफ़िक स्रोत

OLMoE-1B-7B विकल्प