Das von einem vollständig chinesischen Team bei Microsoft entwickelte WizardMath-Modell ist ein Open-Source-Großmodell mit 70 Milliarden Parametern. Durch Feinabstimmung mit KI-generierten Anweisungen übertrifft es in seinen mathematischen Fähigkeiten Modelle wie ChatGPT, Claude Instant 1 und PaLM 2-540B.
Der Quellcode und die Forschungsarbeit zu WizardMath wurden auf GitHub veröffentlicht und haben in der akademischen Welt und unter Entwicklern große Aufmerksamkeit erregt. Die Methode basiert auf der „Evil Instruction“-Technik. Dabei werden automatisch Open-Domain-Anweisungen mit unterschiedlichen Schwierigkeitsgraden generiert, um die Leistungsfähigkeit des Großmodells zu verbessern.
Die Autoren haben diese Methode auch zur Entwicklung von Modellen in anderen Bereichen eingesetzt, beispielsweise WizardCoder, das auf Code-Fähigkeiten spezialisiert ist.
Das Forschungsteam besteht aus mehreren chinesischen Wissenschaftlerinnen und Wissenschaftlern, darunter Forschende vom Microsoft Asia Internet Engineering Institute und Microsoft Research.