近期,一项新的研究方法揭示了 AI 模型在学习过程中潜在的能力,超出了人们之前的预期。研究人员通过分析 AI 模型在 “概念空间” 中的学习动态,发现了如何让 AI 系统更好地理解和生成图像。

机器人 人工智能  AI

图源备注:图片由AI生成,图片授权服务商Midjourney

“概念空间” 是一种抽象的坐标系统,能够表示训练数据中每个独立概念的特点,比如物体的形状、颜色或大小。研究者表示,通过在这个空间中描述学习动态,可以揭示出概念学习的速度,以及学习顺序受数据属性的影响,这一属性被称为 “概念信号”。这个概念信号反映了数据生成过程对概念值变化的敏感度。例如,当数据集中红色和蓝色之间的差异明显时,模型对颜色的学习速度会更快。

在研究过程中,研究团队观察到模型的学习动态会出现突然的方向变化,从 “概念记忆” 转向 “泛化”。为了验证这一现象,他们训练了一个模型,输入了 “大的红色圆圈”、“大的蓝色圆圈” 和 “小的红色圆圈”。在训练中未出现的 “蓝色小圆圈” 组合,模型无法通过简单文本提示生成。但是,使用 “潜在干预” 技术(即操控模型中负责颜色和大小的激活)和 “过度提示” 技术(即通过 RGB 值增强颜色规格),研究者成功生成了 “蓝色小圆圈”。这表明,尽管模型能够理解 “蓝色” 和 “小” 的组合,但它并未通过简单的文本提示掌握这一能力。

研究人员还将这一方法扩展到实际数据集,例如 CelebA,它包含多种面部图像属性如性别和微笑。结果显示,模型在生成微笑女性图像时表现出隐藏能力,而在使用基本提示时则显得乏力。此外,初步实验还发现,使用 Stable Diffusion1.4时,过度提示可以生成不寻常的图像,如三角形的信用卡。

因此,研究团队提出了一种关于隐藏能力的普遍假设:生成模型具备潜在能力,这些能力在训练过程中突然且一致地出现,尽管模型在面对普通提示时可能不会表现出这些能力。

划重点:

🌟 AI 模型在学习过程中展现出潜在的隐藏能力,超出了常规提示所能激发的水平。  

🔍 通过 “潜在干预” 和 “过度提示” 等技术,研究人员能够激活这些隐藏能力,生成意想不到的图像。  

📊 研究分析了 “概念空间” 的学习动态,表明不同概念的学习速度受数据特征的影响。