OLMoE-1B-7B ist ein Experten-Mix-Großes Sprachmodell (LLM) mit 100 Millionen aktiven Parametern und 700 Millionen Parametern insgesamt, das im September 2024 veröffentlicht wurde. Das Modell übertrifft bei vergleichbaren Kosten andere Modelle und konkurriert mit größeren Modellen wie Llama2-13B. OLMoE ist vollständig Open Source und unterstützt diverse Funktionen, darunter Textgenerierung, Modelltraining und -bereitstellung.