ELYZA 发布基于 Llama 2 的日语 LLM,参数量达 70 亿,可与 GPT3.5 匹敌
站长之家
80
日本人工智能初创公司 ELYZA 发布了一款基于 Meta 的 Llama 2 的日本语言模型,参数量达到 70 亿,性能与 GPT3.5 相媲美。该模型经过追加事前学习和独特的事后学习,获得了 5 级手动评估的最高分。ELYZA 成功将其他语言的 LLM 能力引入日本语,通过减少日本语学习量改进了模型。
© 版权所有 AIbase基地 2024, 点击查看来源出处 - https://www.aibase.com/zh/news/1256