Mixtral-8x22B
Ein großes Sprachmodell auf Basis eines sparsamen Expertenmodells
Normales ProduktProgrammierungSprachmodellTextgenerierung
Mixtral-8x22B ist ein vortrainiertes, generatives, sparsames Experten-Sprachmodell. Es wurde vom Mistral AI-Team entwickelt, um die offene Entwicklung von künstlicher Intelligenz voranzutreiben. Das Modell verfügt über 141 Milliarden Parameter und unterstützt verschiedene optimierte Bereitstellungsmethoden wie Halbpräzision und Quantisierung, um den Anforderungen unterschiedlicher Hardware und Anwendungsszenarien gerecht zu werden. Mixtral-8x22B kann für Aufgaben der Verarbeitung natürlicher Sprache wie Textgenerierung, Frage-Antwort-Systeme und Übersetzung eingesetzt werden.
Mixtral-8x22B Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44