Mistral NeMo ist ein von Mistral AI in Zusammenarbeit mit NVIDIA entwickeltes 12-Milliarden-Parameter-Modell mit einem großen Kontextfenster von 128.000 Tokens. Es zeichnet sich durch herausragende Leistung in den Bereichen Schlussfolgern, Weltwissen und Codegenauigkeit aus. Das Modell wurde speziell für globale, mehrsprachige Anwendungen entwickelt und unterstützt zahlreiche Sprachen, darunter Englisch, Französisch, Deutsch, Spanisch, Italienisch, Portugiesisch, Chinesisch, Japanisch, Koreanisch, Arabisch und Hindi. Mistral NeMo verwendet außerdem den neuen Tokenizer Tekken, der die Komprimierungseffizienz von Text und Quellcode verbessert. Darüber hinaus wurde das Modell durch Instruktion-Tuning optimiert, um die Befolgung präziser Anweisungen, das Schlussfolgern, die Verarbeitung mehrstufiger Dialoge und die Codegenerierung zu verbessern.