文章讨论当前主流的人工智能对齐研究是否能有效防止未来的灾难性危害。作者认为这些研究主要服务于提高产品表现,很难真正解决深层次的安全问题。防止灾难还需要更广泛地参与人工智能伦理和治理方面的讨论。公众舆论非常重要,但不能只依赖那些从人工智能部署中获得利益的人。
字节跳动旗下豆包大模型团队近日宣布,成功攻克混合专家模型(MoE)架构的关键瓶颈,并开源一项名为COMET的重大优化技术。该技术显著提升了大模型的训练效率,实现了高达1.7倍的效率提升,并有效降低了40%的训练成本。图源备注:图片由AI生成,图片授权服务商Midjourney据介绍,COMET技术已在字节跳动的万卡集群训练中得到实际应用,累计节省了数百万GPU小时的训练算力。与近期DeepSeek开源的DualPipe等MoE优化方案相比,COMET具有更强的兼容性和便捷性,能够像插件一样直接接入现有的MoE训
3月10日,智元机器人正式推出其首个通用具身基座大模型 ——Genie Operator-1(简称 GO-1)。这一消息引起了广泛关注,特别是其在家庭服务机器人的潜力方面,似乎为未来的家务管理带来了新的希望。根据智元机器人的官方介绍,GO-1大模型通过学习大量人类视频,展示了其在执行多项家务任务上的出色表现,如递送水杯、制作餐点和迎接客人等。在技术性能方面,GO-1的表现相较于现有模型有显著提升,其平均成功率提高了32%。经过测试,GO-1在一些特定任务如倒水、清理桌面和补充饮料等方
近日,魔乐社区(Modelers)正式上线了由阶跃星辰研发的 Step-Video 和 Step-Audio 两款开源多模态大模型。这两款模型分别用于视频生成和语音交互,旨在为开发者和企业用户提供更强大的 AI 工具。Step-Video 模型的全名为 Step-Video-T2V,这是一款参数量高达300亿的全球最大开源视频生成模型。该模型能够直接生成204帧、540P 分辨率的高质量视频,并在指令遵循、运动平滑性、物理合理性以及美感等方面,表现超越了市场上现有的顶尖开源视频模型。另一方面,Step-Audio 则是业内首款能够生成多种情
富士康旗下的鸿海研究院近日发布了一款全新的传统中文大型语言模型(LLM)——FoxBrain。这一模型的推出引起了业界的广泛关注,标志着在中文人工智能领域的一次重要进展。FoxBrain 的训练过程在短短四周内完成,展示了强大的技术能力和高效的研发速度。图源备注:图片由AI生成,图片授权服务商MidjourneyFoxBrain 的研发旨在提升传统中文的处理能力,满足日益增长的市场需求。在互联网及社交媒体的推动下,中文内容的生成和处理对技术的要求越来越高,FoxBrain 的推出正是为了应对这种