zh
AI产品榜
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
首页
AI资讯
AI日报
变现指南
AI教程
AI工具导航
AI产品库
zh
AI产品榜
搜索全球AI产品动态
搜索全球AI信息,发现AI新机遇
新闻资讯
产品应用
变现案例
AI教程
类型 :
新闻资讯
产品应用
变现案例
AI教程
2024-07-24 08:56:49
.
AIbase
.
10.5k
最强开源模型来了!Llama3.1以405B参数领先GPT-4o
Meta AI发布的Llama3.1模型在性能上与顶级闭源模型并驾齐驱,标志着开源AI重大突破。这是新一代大型语言模型,经过优化的训练栈和大规模GPU计算资源支持,实现多项技术亮点。包括上下文长度扩展至128K,支持8种语言,以及在多个测试领域展现卓越能力。通过迭代的post-training流程,模型不断提高性能,特别是在遵循指令、一致性、多语言翻译上表现出色。Llama3.1在15万亿token上进行的训练是业界首次,采用标准仅解码器的Transformer架构并进行了改进。Meta强调开源AI的开放性、可修改性和成本效率,它将推动AI技术的普及和发展。与多家公司合作发展生态系统,Llama3.1的发布预示开源AI可能成为行业标准,为AI的广泛应用辟新径。
2024-07-10 16:41:51
.
AIbase
.
10.2k
谷歌提出百万专家Mixture 释放进一步扩展 Transformer 的潜力
Google DeepMind发布了一项引领性的研究,中心围绕其提出的百万级专家模型——Mixture,该模型采用了革新性架构在Transformer基础上跨出重要一步。Mixture通过让从十万多个微型专家中高效快速进行稀疏检索,实现了在保持计算效率的同时释放Transformer架构潜力的目标。核心亮点在于参数效益高的专家检索机制,通过乘积密钥技术分离计算成本与参数计数,PEER架构在语言模型任务中展现出卓越性能,优于密集式FFW,粗粒度MoE和PKM层。实证结果显示,通过调整专家数量与活跃专家数量,Mixture模型性能显著提升,特别是其在降低困惑度方面的出色表现。这项技术突破性地展示了个性化和智能化能力在提升转化率和用户满意度上的潜力,对于AIGC领域具有重要影响。
2024-07-02 11:32:31
.
AIbase
.
10.0k
韩国团队提出全新Transformer架构 可让大模型解码提速20倍
2024-06-26 08:42:01
.
AIbase
.
9.8k
Etched公司押注Transformer架构 推出革命性AI芯片Sohu
在人工智能发展日新月异的今天,一家名为Etched的公司正在押上一切,赌注于一种被称为Transformer的AI架构。该公司近日宣布推出全球首款专为Transformer设计的专用集成电路(ASIC)芯片——Sohu,声称其性能远超目前市面上的任何GPU,将为AI领域带来革命性变革。