近期的研究表明,市场上最先进的 AI 聊天机器人竟然对一些简单的技巧十分敏感,甚至可以被轻易 “越狱”。根据《404媒体》的报道,Claude 聊天机器人的开发公司 Anthropic 发现,只需在提示中故意加入一些拼写错误,便能使这些大型语言模型忽视自身的安全防护措施,生成一些本应拒绝回答的内容。图源备注:图片由AI生成,图片授权服务商Midjourney研究团队开发了一种简单的算法,名为 “最佳选择(Best-of-N, BoN)越狱”,通过对同一提示的不同变体进行尝试,诸如随机大写字母、字母替
一个被广泛视为人工智能缺陷的特性——"幻觉",竟成为科学突破的关键。据《财富》杂志报道,2024年诺贝尔化学奖得主之一的大卫·贝克教授,正是借助AI模型的"幻觉"特性实现了重大科研突破。来自华盛顿大学的贝克教授是今年三位诺贝尔化学奖得主中唯一的美国科学家。他利用计算机软件成功发明了新型蛋白质,这一成就最终为他赢得了这一殊荣。图源备注:图片由AI生成,图片授权服务商Midjourney通常情况下,AI模型的"幻觉"——即生成虚假或不准确信息的倾向——被认为是一个严重的
据TechCrunch获得的内部通讯显示,谷歌正让承包商将其Gemini AI与Anthropic的Claude进行对比评测,此举引发了合规性质疑。文件显示,负责改进Gemini的承包商需要在30分钟内根据真实性和详尽度等多个标准,对比评估Gemini和Claude的回答质量。承包商近期在谷歌内部评测平台上发现了明确提及Claude的内容,其中包含"我是Claude,由Anthropic创建"的字样。内部讨论显示,承包商注意到Claude在安全方面的表现更为严格。有承包商称"Claude的安全设置是所有AI模型中最严格的"。在某些案例中,当Gemini的回答因
有“AI教母”之称的斯坦福大学教授李飞飞及其团队近日发布了一项关于多模态大模型“空间智能”的研究,揭示这些模型在记忆和回忆空间方面已经具备初步能力,并展现出形成局部世界模型的潜力。研究团队开发了用于评估视觉空间智能能力的工具——VSI-Bench,其中包含超过5000个基于288个真实视频的高质量问答对。测试视频涵盖居住空间、专业场所及工业场景,涉及多个地理区域。研究结果显示,尽管多模态模型的总体表现尚低于人类,但在某些任务上已达到或接近人类水平。例如,