日本考虑建立第三方认证系统以减轻生成式 AI 风险

Meta 公司近日宣布,将于4月29日举行首届 LlamaCon 开发者大会,专注于其 Llama 系列生成式 AI 模型的最新进展。这一大会旨在为开发者提供一个平台,分享开源 AI 的最新成果,帮助他们更好地构建应用和产品。随着生成式 AI 技术的迅猛发展,Meta 希望通过此次大会进一步推动其生态系统的建设。在这场即将到来的大会上,Meta 计划展示多项与 Llama 模型相关的新功能和技术进展。Llama 模型自推出以来下载量已达数亿次,已经吸引了至少25个合作伙伴进行托管,显示出其在行业中的广泛应用。Met
根据 Gartner 最近的分析,到2027年,超过40% 的人工智能相关数据泄露将源于生成式人工智能(GenAI)的误用。随着 GenAI 技术的迅速普及,企业和组织在数据治理与安全措施的制定上面临着严峻挑战。尤其是在数据本地化的背景下,这一问题显得尤为突出,因为这些技术对集中计算能力的需求很高。Gartner 的副总裁分析师 Joerg Fritsch 指出,组织在集成 GenAI 工具时,常常缺乏足够的监督,导致意外的跨境数据转移。他提到,“如果员工在使用 GenAI 工具时发送了敏感提示,而这些工具和 API 又托
乐天集团宣布推出其首个日本大语言模型(LLM)和小语言模型(SLM),命名为Rakuten AI2.0和Rakuten AI2.0mini。这两款模型的发布旨在推动日本的人工智能(AI)发展。Rakuten AI2.0基于混合专家(MoE)架构,是一款8x7B 的模型,由八个各自拥有70亿参数的模型组成,每个模型充当一个专家。每当处理输入的 token 时,系统会将其发送给最相关的两个专家,由路由器负责选择。这些专家和路由器不断通过大量的高质量日英双语数据进行联合训练。Rakuten AI2.0mini 则是一款全新的、参数量为15亿的稠密模型,专为
中国初创企业DeepSeek(深度求索)开发的高性能、低成本生成式AI大规模语言模型(LLM)近日引发全球关注。日本AI研究领域的权威、东京大学教授松尾丰在接受日本经济新闻采访时,对DeepSeek的技术水平、开源战略及其对日本企业的影响进行了深入分析。 松尾丰表示,DeepSeek的技术非常出色,其性能与美国OpenAI开发的ChatGPT接近。他指出,DeepSeek每次发布新模型时都会发布详细的技术论文,展示其在模型优化方面的创新之处。例如,今年1月发布的最新模型“R1”通过强化学习提升了推理能力,