OLMoE-1B-7B एक विशेषज्ञ मिश्रित बृहत भाषा मॉडल (LLM) है जिसमें 10 करोड़ सक्रिय पैरामीटर और 70 करोड़ कुल पैरामीटर हैं, जिसे सितंबर 2024 में जारी किया गया था। यह मॉडल समान लागत वाले मॉडल में उत्कृष्ट प्रदर्शन करता है, और Llama2-13B जैसे बड़े मॉडल के साथ प्रतिस्पर्धा करता है। OLMoE पूरी तरह से खुला स्रोत है, और पाठ निर्माण, मॉडल प्रशिक्षण और परिनियोजन सहित कई कार्यों का समर्थन करता है।