Meta Llama 3.3 ist ein großes, multilingual trainiertes Sprachmodell (LLM) mit 70 Milliarden Parametern, das speziell für mehrsprachige Dialoganwendungen optimiert wurde und in gängigen Branchen-Benchmark-Tests viele bestehende Open-Source- und geschlossene Chatmodelle übertrifft. Das Modell verwendet eine optimierte Transformer-Architektur und wird mit Supervised Fine-Tuning (SFT) und Reinforcement Learning from Human Feedback (RLHF) trainiert, um die Nützlichkeit und Sicherheit aus menschlicher Perspektive zu gewährleisten.