OLMoE-1B-7B
Hochleistungsfähiges, Open-Source-Großes Sprachmodell
Normales ProduktProduktivitätGroßes SprachmodellOpen Source
OLMoE-1B-7B ist ein Experten-Mix-Großes Sprachmodell (LLM) mit 100 Millionen aktiven Parametern und 700 Millionen Parametern insgesamt, das im September 2024 veröffentlicht wurde. Das Modell übertrifft bei vergleichbaren Kosten andere Modelle und konkurriert mit größeren Modellen wie Llama2-13B. OLMoE ist vollständig Open Source und unterstützt diverse Funktionen, darunter Textgenerierung, Modelltraining und -bereitstellung.
OLMoE-1B-7B Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44