El gobierno japonés, en colaboración con empresas tecnológicas líderes como NEC, Fujitsu y SoftBank, está invirtiendo cientos de millones de dólares en el desarrollo de un modelo de lenguaje japonés con sensibilidad cultural. Este modelo se entrenará en la supercomputadora nacional Fugaku, contará con al menos 300 mil millones de parámetros y busca solucionar las deficiencias de los modelos existentes en el mercado japonés.
Los investigadores también han desarrollado el sistema de clasificación Rakuda para evaluar la sensibilidad cultural del modelo. Actualmente, GPT-3.5 ocupa el primer lugar en esta clasificación.
Además, el gobierno japonés planea crear un modelo aún mayor, con al menos 100 mil millones de parámetros, destinado a aplicaciones científicas. Este modelo estará disponible para el público en 2031.