AI语言模型助力精神分裂症诊断

慕尼黑大学、慕尼黑机器学习中心与Adobe Research近日联合发布的研究显示,包括GPT-4o、Gemini1.5Pro和Llama-3.3-70B在内的12款顶尖AI语言模型,在长文本概念推理任务中面临显著性能衰减。尽管这些模型均支持至少128,000个标记的上下文处理,但其深层逻辑关联能力仍存在根本性局限。 研究团队开发的NOLIMA(无文字匹配)基准测试系统,通过刻意规避关键词重复的设计,揭示AI模型在概念联结上的脆弱性。例如,当文本描述“Yuki住在Semperoper旁”时,模型需先理解“Semperoper位于德累斯顿”的常识
近日,一项新的研究论文揭示了不同 AI 语言模型在合作能力方面的显著差异。研究团队采用了一种经典的 “捐赠者游戏”,测试了 AI 代理在多代合作中如何共享资源。结果显示,Anthropic 的 Claude3.5Sonnet 表现出色,成功建立了稳定的合作模式,获得了更高的资源总量。而谷歌的 Gemini1.5Flash 和 OpenAI 的 GPT-4o 则表现不佳,尤其是 GPT-4o 在测试中逐渐变得不合作,Gemini 代理的合作程度也十分有限。研究团队进一步引入了惩罚机制,以观察不同 AI 模型的表现变化。结果发现,Claude3.5的表现有了显
在人工智能的应用中,如何实现与 AI 的实时互动一直是开发者和研究人员面临的重大挑战。这其中,整合多模态信息(如文本、图像和音频)以形成一个连贯的对话系统显得尤为复杂。尽管像 GPT-4这样的先进大型语言模型取得了一些进展,但许多 AI 系统在实现实时对话流畅性、上下文意识以及多模态理解方面仍然存在困难,这限制了它们在实际应用中的效果。此外,这些模型的计算需求也使得在没有大量基础设施支持的情况下实现实时部署变得极为困难。为了解决这些问题,Fixie AI 推出
最近,一项新研究显示,即便是先进的 AI 语言模型,比如 OpenAI 最新的 o1-preview,在复杂的规划任务中也显得力不从心。这项研究是由复旦大学、卡内基梅隆大学、字节跳动和俄亥俄州立大学的科学家们共同进行的,测试了 AI 模型在两个规划基准上的表现:BlocksWorld 和 TravelPlanner。在 BlocksWorld 这个经典的规划任务中,大多数模型的准确率都低于50%,只有 o1-mini(略低于60%)和 o1-preview(接近100%)的表现相对较好。然而,当研究者将目光转向更复杂的 TravelPlanner 时,所有模型的表现都令人失望。