阿里巴巴近日推出了一款名为QVQ-72B的全新多模态推理模型,该模型基于Qwen2-VL-72B构建,融合了强大的语言和视觉能力,能够处理更为复杂的推理和分析任务,标志着阿里巴巴在多模态AI领域取得了新的突破。
阿里巴巴近日推出了一款名为QVQ-72B的全新多模态推理模型,该模型基于Qwen2-VL-72B构建,融合了强大的语言和视觉能力,能够处理更为复杂的推理和分析任务,标志着阿里巴巴在多模态AI领域取得了新的突破。
Qwen团队近日宣布开源其最新研发的多模态推理模型QVQ,标志着人工智能在视觉理解和复杂问题解决能力方面迈出了重要一步。该模型基于Qwen2-VL-72B构建,旨在通过结合语言和视觉信息,提升AI的推理能力。在MMMU评测中,QVQ取得了70.3的高分,并在多项数学相关基准测试中相较Qwen2-VL-72B-Instruct显示出显著的性能提升。
有“AI教母”之称的斯坦福大学教授李飞飞及其团队近日发布了一项关于多模态大模型“空间智能”的研究,揭示这些模型在记忆和回忆空间方面已经具备初步能力,并展现出形成局部世界模型的潜力。研究团队开发了用于评估视觉空间智能能力的工具——VSI-Bench,其中包含超过5000个基于288个真实视频的高质量问答对。测试视频涵盖居住空间、专业场所及工业场景,涉及多个地理区域。研究结果显示,尽管多模态模型的总体表现尚低于人类,但在某些任务上已达到或接近人类水平。例如,
阿里云百炼大模型服务平台最近推出了“音视频实时互动”功能,使用户能够轻松搭建多模态AI应用,无需编程知识。这一新功能使得用户可以快速将AI模型集成到Web、iOS和Android应用中,并与他人分享。用户可以通过简单的步骤来搭建智能体应用:首先新建智能体应用,然后在阿里云百炼平台上选择并配置所需的文本、语音或视觉理解大模型。平台提供了200多种大模型,包括具备强大视觉智能体能力的阿里云Qwen2-VL大模型。接下来,用户需要编写提示词,设置音视频API-KEY,并发布自己的专属AI应用。
OpenAI在其为期12天的发布活动中宣布了新一代推理系列模型——o3及其精简版o3-mini,这两款模型被视为o1系列的继任者,特别设计为在回答问题前进行更深入的思考以提高准确率。o3模型在ARC-AGI基准测试中达到了优良水平,成为首个突破该基准的AI模型,展现了接近人类水平的问题求解能力。o3系列模型在ARC-AGI基准上的最低性能可达到75.7%,而在更多计算资源的情况下,性能可提升至87.5%。