Le gouvernement japonais, en collaboration avec des entreprises technologiques majeures telles que NEC, Fujitsu et SoftBank, investit plusieurs centaines de millions de dollars dans le développement d'un modèle linguistique japonais sensible à la culture. Ce modèle sera entraîné sur le supercalculateur national Fugaku et comptera au moins 30 milliards de paramètres. Son objectif est de pallier les lacunes des modèles existants sur le marché japonais.
Les chercheurs ont également développé le système de classement Rakuda pour évaluer la sensibilité du modèle à la culture japonaise. GPT-3.5 occupe actuellement la première place.
De plus, le gouvernement japonais prévoit de créer un modèle encore plus grand, avec au moins 100 milliards de paramètres, destiné aux applications scientifiques. Ce modèle sera mis à la disposition du public en 2031.