亚马逊公司近日被报道正在开发一种名为 “Olympus” 的多模态大型语言模型,预计最早将于下周的 AWS re:Invent 大会上正式发布。根据theinformation的消息,这一算法的内部代号为 “Olympus”。去年11月,《路透社》曾报道,亚马逊在训练名为 “Olympus” 的大型语言模型上投入了数百万美元,模型的参数量高达2万亿。至于这次报道中提到的模型是否与之前的 “Olympus” 相同,或是其新版本,亦或是全新的系统,仍然不清楚。图源备注:图片由AI生成,图片授权服务商Midjourney据悉,新的 “Olympus”
Meta AI近日重磅开源了名为SPIRIT LM的基础多模态语言模型,该模型能够自由混合文本和语音,为音频和文本的多模态任务打开了新的可能性。SPIRIT LM基于一个70亿参数的预训练文本语言模型,通过在文本和语音单元上进行持续训练,扩展到语音模态。它可以像文本大模型一样理解和生成文本,同时还能理解和生成语音,甚至可以把文本和语音混合在一起,创造出各种神奇的效果! 比如,你可以用它来做语音识别,把语音转换成文字;也可以用它来做语音合成,把文字转换成语音;还可以用它来做
近日,北京零一万物信息技术有限公司与华为技术有限公司在北京举行了签约仪式,正式启动基于华为昇腾硬件的原生大模型应用开发。这一合作将结合双方的技术优势,着力于人工智能在多个行业中的应用,特别是在金融、政务、制造、能源、交通和运营商等领域。此次合作的核心在于零一万物将利用华为的昇腾硬件底座、昇腾异构计算架构(CANN)、昇思 MindSpore AI 框架以及 MindIE 推理引擎,开发一系列原生大模型应用。该项目旨在构建更高效的 AI 智能体(AI-Agents),为各行业提供更加智
最近,Salesforce AI 研究团队推出了一款全新的多模态语言模型 ——BLIP-3-Video。随着视频内容的快速增加,如何高效处理视频数据成为了一个亟待解决的问题。这款模型的出现,旨在提升视频理解的效率和效果,适用于从自动驾驶到娱乐等各个行业。传统的视频理解模型往往是逐帧处理视频,生成大量的视觉信息。这一过程不仅消耗了大量的计算资源,还极大地限制了处理长视频的能力。随着视频数据量的不断增长,这种方法变得愈发低效,因此,找到一种既能捕捉到视频的关键信息,又能