最近,加州大学伯克利分校的一项研究显示,由大型语言模型(LLM)进行的自动提示修改,会显著降低 DALL-E3生成图像的质量。该研究对1,891名参与者进行了一项在线实验,目的是探讨这种自动重写对图像质量的影响。
实验中,参与者被随机分配到三个组别:DALL-E2、DALL-E3和带有自动提示修订的 DALL-E3。参与者需要写十个连续的提示,尽可能准确地再现一个目标图像。结果显示,DALL-E3在图像生成上确实优于 DALL-E2,生成的图像与目标的匹配度明显提高。然而,当使用自动修改的提示时,DALL-E3的表现却下降了近58%。虽然使用提示重写的 DALL-E3用户仍然优于使用 DALL-E2的用户,但这种优势明显减小。
研究者发现,DALL-E3与 DALL-E2之间的表现差距主要源于两个因素:一是 DALL-E3技术能力的提升,二是用户在提示策略上的适应性。尤其是 DALL-E3用户使用的提示更长、更具语义相似性,并且用词更加描述性。参与者并不知道自己在使用哪个模型,但他们的表现已经证明了这种适应性。
研究人员认为,随着模型的不断进步,用户也会不断调整他们的提示,以便更好地利用最新模型的能力。这表明,虽然新模型的出现不会使提示变得过时,但提示仍然是用户挖掘新模型潜力的重要手段。
这项研究提醒我们,自动化工具并非总是能够帮助用户提升表现,反而可能限制他们发挥模型的最大潜力。因此,在使用 AI 工具时,用户应该考虑如何最有效地调整自己的提示,以获得更理想的图像生成效果。
划重点:
🖼️ 自动提示修订导致 DALL-E3图像质量下降近58%,限制用户表现。
🤖 实验发现,尽管 DALL-E3优于 DALL-E2,但自动修改提示后,效果减弱。
🔍 用户需根据模型的进步,调整提示策略,以充分发挥新模型的潜力。