Développé entièrement par une équipe chinoise chez Microsoft, le modèle WizardMath est un grand modèle open source de 70 milliards de paramètres. Il a été affiné grâce à des instructions générées par l'IA, ce qui lui permet de surpasser des modèles de pointe tels que ChatGPT, Claude Instant 1 et PaLM 2-540B en matière de compétences mathématiques.
Le code source et l'article scientifique du modèle WizardMath sont disponibles sur GitHub et ont suscité un vif intérêt auprès de la communauté académique et des développeurs. La méthode employée repose sur la technique des "Evil Instructions", qui consiste à générer automatiquement des instructions à domaine ouvert de différents niveaux de difficulté pour améliorer les capacités de traitement du grand modèle.
Les auteurs ont également développé d'autres modèles basés sur cette méthode, comme WizardCoder, spécialisé dans les compétences de codage.
L'équipe de recherche est composée de nombreux scientifiques chinois, issus notamment de l'Institut d'ingénierie Internet de Microsoft Asie et de Microsoft Research.