OLMoE-1B-7B

Hochleistungsfähiges, Open-Source-Großes Sprachmodell

Normales ProduktProduktivitätGroßes SprachmodellOpen Source
OLMoE-1B-7B ist ein Experten-Mix-Großes Sprachmodell (LLM) mit 100 Millionen aktiven Parametern und 700 Millionen Parametern insgesamt, das im September 2024 veröffentlicht wurde. Das Modell übertrifft bei vergleichbaren Kosten andere Modelle und konkurriert mit größeren Modellen wie Llama2-13B. OLMoE ist vollständig Open Source und unterstützt diverse Funktionen, darunter Textgenerierung, Modelltraining und -bereitstellung.
Website öffnen

OLMoE-1B-7B Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

OLMoE-1B-7B Besuchstrend

OLMoE-1B-7B Geografische Verteilung der Besuche

OLMoE-1B-7B Traffic-Quellen

OLMoE-1B-7B Alternativen