来自纽约大学、麻省理工学院和谷歌的研究团队近日提出了一个创新框架,旨在解决扩散模型在推理时间扩展方面的瓶颈问题。这一突破性研究超越了传统简单增加去噪步骤的方法,为提升生成模型性能开辟了新途径。

该框架主要从两个维度展开:一是利用验证器提供反馈,二是实施算法以发现更优的噪声候选。研究团队以256×256分辨率的预训练SiT-XL模型为基础,在保持250个固定去噪步骤的同时,创新性地引入了专用于搜索操作的额外计算资源。

在验证系统方面,研究采用了两个Oracle Verifier:Inception Score (IS)和Fréchet Inception Distance (FID)。IS基于预训练的InceptionV3模型选择最高分类概率,而FID则致力于最小化与预先计算的ImageNet Inception特征统计之间的差异。

QQ20250120-142056.png

实验结果显示,该框架在多个基准测试中表现出色。在DrawBench测试中,LLM Grader评估证实了搜索验证方法能持续提升样本质量。特别是ImageReward和Verifier Ensemble在各项指标上都取得了显著进步,这归功于它们精确的评估能力和与人类偏好的高度一致性。

这项研究不仅证实了基于搜索的计算扩展方法的有效性,也揭示了不同验证器的固有偏差,为未来开发更专业化的视觉生成任务验证系统指明了方向。这一发现对于提升AI生成模型的整体性能具有重要意义。