全球开发者目光再次聚焦中国!在备受瞩目的全球开发者大会(GDC)上,阿里云魔搭社区重磅宣布,首发上线阶跃星辰最新开源的两款多模态模型,包括
图源备注:图片由AI生成,图片授权服务商Midjourney
全球开发者目光再次聚焦中国!在备受瞩目的全球开发者大会(GDC)上,阿里云魔搭社区重磅宣布,首发上线阶跃星辰最新开源的两款多模态模型,包括
图源备注:图片由AI生成,图片授权服务商Midjourney
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里通义千问开源发布新一代端到端多模态模型Qwen2.5-Omni阿里云通义千问团队推出了Qwen2.5-Omni,这是一个新一代的多模态旗舰模型,旨在实现文本、图像、音频和视频的无缝处理。这项技术为视频生成领域带来了新的发展机遇,尤其是在文本到视频生成等应用场景中,展现了巨大的潜力。
阿里云通义千问Qwen团队宣布推出Qwen模型家族中的新一代端到端多模态旗舰模型——Qwen2.5-Omni。这一全新模型专为全方位多模态感知而设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。
在人工智能领域,阿里巴巴再次带来了重磅消息。近日,阿里开源了最新的多模态模型 ——Qwen2.5-VL-32B-Instruct。这款新模型是 Qwen2.5系列中的一员,其他版本包括3B、7B 和72B,而32B 版本在保持性能的同时,更加注重便捷的本地运行体验。Qwen2.5-VL-32B 经过强化学习的优化,在多个方面表现出色。首先,它的回答更加符合人类的认知习惯,这意味着用户在与模型互动时,将能获得更自然和流畅的交流体验。其次,这款模型在数学推理能力方面的提升也十分显著。无论是复杂的数学题还是几何体
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里巴巴推出AI旗舰应用“新夸克”全面升级为“AI超级框”阿里巴巴于3月13日推出了其全新升级的AI旗舰应用——新夸克。预计到2025年,智谱将推出多款开源大模型,助力AI行业的发展,同时推动珠海的AI产业生态建设。
谷歌 CEO 桑达尔・皮查伊(Sundar Pichai)在一场发布会上宣布,谷歌开源了最新的多模态大模型 Gemma-3,该模型以低成本、高性能为特点,备受关注。Gemma-3提供了四种不同参数规模的选项,分别为10亿、40亿、120亿和270亿参数。令人惊讶的是,最大参数的270亿模型只需一张 H100显卡即可高效推理,而同类模型往往需要十倍的算力,这使 Gemma-3成为目前算力要求最低的高性能模型之一。根据最新的测试数据,Gemma-3在各类对话模型的评比中表现不俗,仅次于知名的 DeepSeek 模型,超越了 OpenAI 的 o3-m
在人工智能领域,阿里通义实验室团队近日宣布开源其最新研发的多模态模型 ——R1-Omni。这一模型结合了强化学习与可验证奖励(RLVR)方法,展现出了在处理音频和视频信息方面的卓越能力。R1-Omni 的亮点在于其透明性,让我们得以更清晰地理解各模态在决策过程中的作用,尤其是在情绪识别等任务中。随着 DeepSeek R1的推出,强化学习在大模型的应用潜力被不断挖掘。RLVR 方法为多模态任务带来了新的优化思路,能够有效处理几何推理、视觉计数等复杂任务。尽管目前的研究多集中于图像
近日,魔乐社区(Modelers)正式上线了由阶跃星辰研发的 Step-Video 和 Step-Audio 两款开源多模态大模型。这两款模型分别用于视频生成和语音交互,旨在为开发者和企业用户提供更强大的 AI 工具。Step-Video 模型的全名为 Step-Video-T2V,这是一款参数量高达300亿的全球最大开源视频生成模型。该模型能够直接生成204帧、540P 分辨率的高质量视频,并在指令遵循、运动平滑性、物理合理性以及美感等方面,表现超越了市场上现有的顶尖开源视频模型。另一方面,Step-Audio 则是业内首款能够生成多种情
近年来,大语言模型(LLM)在人工智能领域取得了显著进展,尤其是在多模态融合方面。华中科技大学、字节跳动与香港大学的联合团队最近提出了一种新型的多模态生成框架 ——Liquid,旨在解决当前主流多模态模型在视觉处理上的局限性。传统的多模态大模型依赖复杂的外部视觉模块,这不仅增加了系统的复杂性,还限制了其扩展性。Liquid 的创新之处在于,它采用 VQGAN 作为图像分词器,摒弃了对外部视觉组件的依赖,通过将图像编码为离散的视觉 token,使得模型可以直接与文本 token 共
今日,阶跃星辰与吉利汽车集团宣布,联合开源两款阶跃Step系列多模态大模型——Step-Video-T2V视频生成模型和Step-Audio语音模型。其中,阶跃Step-Video-T2V视频生成模型在参数量和性能上均处于全球领先水平。该模型拥有300亿参数量,能够直接生成204帧、540P分辨率的高质量视频,确保生成内容信息密度高、一致性强。评测结果显示,Step-Video-T2V在指令遵循、运动平滑性、物理合理性、美感度等方面均表现出色,显著超越市面上既有的最佳开源视频模型。
近日,微软研究院联合华盛顿大学、斯坦福大学、南加州大学、加利福尼亚大学戴维斯分校以及加利福尼亚大学旧金山分校的研究人员共同推出了 LLaVA-Rad,这是一种新型的小型多模态模型(SMM),旨在提升临床放射学报告的生成效率。该模型的推出不仅标志着医学图像处理技术的一大进步,也为放射学的临床应用带来了更多的可能性。在生物医学领域,基于大规模基础模型的研究已经展现出良好的应用前景,尤其是在多模态生成 AI 的发展下,可以同时处理文本与图像,从而支持视觉问答