2024 年值得关注的 6 大生成式 AI 趋势

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
据科技媒体 Business Insider 报道,苹果公司可能正在考虑通过一项数百亿美元的交易,来提升其在人工智能(AI)领域的竞争力。前 OpenAI 首席技术官 Mira Murati 所创立的 Thinking Machines Lab 成为了苹果的潜在收购目标,该团队汇聚了超过30名来自 OpenAI、Meta 和 Google DeepMind 的顶尖专家,专注于开发多模态 AI 模型。目前,苹果在 AI 战略上采取了一种 “平台 + 自研” 的混合模式,既为前沿 AI 产品提供 iOS 运行环境,又通过 Apple Intelligence 开发自有功能。然而,与微软和谷歌等企业级 AI 服务的竞争对
人工智能初创公司 Cohere 的非营利研究实验室本周发布了一款多模态 “开放” AI 模型 ——Aya Vision。该实验室声称,该模型在行业内处于领先地位。Aya Vision 能够执行多项任务,包括撰写图片说明、回答与照片相关的问题、翻译文本以及生成23种主要语言的摘要。Cohere 表示,他们通过 WhatsApp 免费提供 Aya Vision,希望能让世界各地的研究人员更方便地获取技术突破。Cohere 在其博客中指出,尽管人工智能已经取得了显著进展,但在不同语言之间的模型表现仍存在很大差距,尤其是在涉及文本和
近日,微软研究团队联合多所高校的研究人员,发布了一款名为 “Magma” 的多模态 AI 模型。这款模型的设计旨在处理和整合图像、文本和视频等多种数据类型,以便在数字和物理环境中执行复杂任务。随着科技的不断进步,多模态 AI 代理正在被广泛应用于机器人技术、虚拟助手和用户界面自动化等领域。以往的 AI 系统通常专注于视觉 - 语言理解或机器人操作,难以将这两种能力结合成一个统一的模型。许多现有模型虽然在特定领域内表现良好,但在不同应用场景中的泛化能力较差。例如
有“AI教母”之称的斯坦福大学教授李飞飞及其团队近日发布了一项关于多模态大模型“空间智能”的研究,揭示这些模型在记忆和回忆空间方面已经具备初步能力,并展现出形成局部世界模型的潜力。研究团队开发了用于评估视觉空间智能能力的工具——VSI-Bench,其中包含超过5000个基于288个真实视频的高质量问答对。测试视频涵盖居住空间、专业场所及工业场景,涉及多个地理区域。研究结果显示,尽管多模态模型的总体表现尚低于人类,但在某些任务上已达到或接近人类水平。例如,
阿联酋政府支持的技术创新研究所(TII)近日宣布推出其新一代开源小型语言模型(SLM)——Falcon3系列。这一系列包括四个不同规模的模型:1B、3B、7B和10B,并提供基础版与指令版两种变体,旨在为开发人员、研究人员和企业提供一种高效且成本低廉的AI解决方案。这些模型的推出,标志着AI功能的进一步民主化,能够在轻量级的单GPU基础设施上运行,满足对计算资源有限的设备和应用场景的需求。图源备注:图片由AI生成,图片授权服务商MidjourneyFalcon3的表现已在Hugging Face排行榜上脱颖而出,超
Hugging Face今天发布了SmolLM2,一组新的紧凑型语言模型,实现了令人印象深刻的性能,同时所需的计算资源比大型模型少得多。新模型采用Apache2.0许可发布,有三种大小——135M、360M和1.7B参数——适合部署在智能手机和其他处理能力和内存有限的边缘设备上。SmolLM2-1B模型在几个关键基准测试中优于Meta的Llama1B模型,尤其是在科学推理和常识任务中表现出色。该模型在大多数认知基准上的表现都优于大型竞争模型,使用了包括FineWeb-Edu和专门的数学和编码数据集在内的多样化数据集组合。SmolL
在未来的2025年,生成式人工智能(GenAI)有望迎来一个关键的转折点,届时我们将更清楚地看到其真正潜力的展现。随着对其在各个行业多种应用案例的分析逐步深入,原本笼罩在噪音中的 GenAI 将逐渐显露出其真实的面貌。最近,Hieb 认为,企业在投资 GenAI 时并不一定要选择昂贵而复杂的解决方案。实际上,越来越多的企业发现,大型语言模型(LLMs)并不总是适用于某些具体目标。图源备注:图片由AI生成,图片授权服务商Midjourney相比之下,小型语言模型(SLMs)因为参数较少,通常更加经
最近,Zyphra 正式推出了 Zamba2-7B,这是一款具有前所未有性能的小型语言模型,参数数量达到7B。这款模型号称在质量和速度上超越了目前的竞争对手,包括 Mistral-7B、谷歌的 Gemma-7B 以及 Meta 的 Llama3-8B。Zamba2-7B 的设计目标是满足那些需要强大语言处理能力但又受限于硬件条件的环境,比如在设备上处理或使用消费级 GPU。通过提高效率而不牺牲质量,Zyphra 希望能让更广泛的用户,无论是企业还是个人开发者,都能享受到先进 AI 的便利。Zamba2-7B 在架构上做了很多创新,提升了模型的效率和表
最近,微软公司宣布,其人工智能副总裁塞巴斯蒂安・布贝克将离开公司,加入 OpenAI。对于这位在微软工作了整整十年的资深员工来说,这无疑是一个重大的职业转折。图源备注:图片由AI生成,图片授权服务商Midjourney布贝克在微软期间,主要负责小型语言模型的研发。小型语言模型是一种致力于在效率和效果之间寻找平衡的技术,目的是在不牺牲性能的情况下,实现与大型 AI 系统相似的功能。微软与 OpenAI 的关系十分复杂,既是投资者也是竞争对手。这让布贝克的转会变得更加引人注目
最近,日本东京的初创公司 Rhymes AI 推出了他们的首款人工智能模型 ——Aria。该公司自称,Aria 是全球首个开源的多模态混合专家(MoE)模型。这个模型不仅具有处理多种输入模态的能力,还声称在能力上与一些知名的商业模型不相上下,甚至更胜一筹。Aria 的设计理念是希望能够在文本、代码、图像和视频等多种输入形式上,提供卓越的理解和处理能力。与传统的 Transformer 模型不同,MoE 模型通过多个专业的专家来替代其前馈层。当处理每个输入令牌时,一个路由模块会选择一部分专家进