日本人工智能初创公司 ELYZA 发布了一款基于 Meta 的 Llama 2 的日本语言模型,参数量达到 70 亿,性能与 GPT3.5 相媲美。该模型经过追加事前学习和独特的事后学习,获得了 5 级手动评估的最高分。ELYZA 成功将其他语言的 LLM 能力引入日本语,通过减少日本语学习量改进了模型。