Die japanische Regierung arbeitet mit führenden Technologieunternehmen wie NEC, Fujitsu und SoftBank zusammen, um mehrere hundert Millionen US-Dollar in die Entwicklung eines kultursensitiven japanischen Sprachmodells zu investieren. Dieses Modell wird auf dem nationalen Supercomputer Fugaku trainiert und wird mindestens 300 Milliarden Parameter umfassen. Ziel ist es, die Schwächen bestehender Modelle auf dem japanischen Markt zu beheben.
Die Forscher haben außerdem das Rakuda-Ranking-System entwickelt, um die kulturelle Sensibilität der Modelle zu bewerten. GPT-3.5 belegt derzeit den ersten Platz.
Darüber hinaus plant die japanische Regierung die Entwicklung noch größerer Modelle mit mindestens 100 Milliarden Parametern für wissenschaftliche Anwendungen. Diese sollen der Öffentlichkeit im Jahr 2031 zugänglich gemacht werden.