近日,研究团队发布了名为 HelloMeme 的框架,可以超还原的将画面中一个人的表情迁移到另外一个画面中人物的表情上图片上。

如下图,给出一个表情图片(第一行),就可将表情细节迁移到其它图片人物形象上面。

image.png

HelloMeme 的核心在于其独特的网络结构。该框架能够从驾驶视频中提取每一帧的特征,并将这些特征输入 HMControlModule。通过这样的处理,研究人员可以生成流畅的视频画面。然而,在初步生成的视频中,帧与帧之间存在闪烁的问题,影响了整体观看体验。为了解决这一问题,团队引入了 Animatediff 模块,这一创新显著提高了视频的连续性,但也在一定程度上降低了画面的保真度。

针对这一矛盾,研究人员对 Animatediff 模块进行了进一步的优化调整,最终实现了在提升视频连续性的同时保持较高的画质。

此外,HelloMeme 框架还为面部表情编辑提供了强大的支持。通过绑定 ARKit Face Blendshapes,用户可以轻松控制生成的视频中角色的面部表情。这种灵活性使得创作者可以根据需要生成具有特定情感和表现的视频,极大地丰富了视频内容的表现力。

在技术兼容性方面,HelloMeme 采用了一种基于 SD1.5的热插拔适配器设计。这一设计的最大优势在于,不会影响 T2I(文本到图像)模型的泛化能力,允许在 SD1.5基础上开发的任何风格化模型与 HelloMeme 无缝集成。这为各种创作提供了更多的可能性。

研究团队发现,HMReferenceModule 的引入使得生成视频时的保真度条件显著提升,这意味着在生成高质量视频的同时,可以减少采样步骤。这一发现不仅提高了生成效率,也为实时视频生成打开了新的大门。

与其他方法的比较效果如下,很明显HelloMeme的表情迁移效果更为自然和接近原表情效果。

项目入口:https://songkey.github.io/hellomeme/

https://github.com/HelloVision/ComfyUI_HelloMeme

划重点:

🌐 HelloMeme 通过独特的网络结构和 Animatediff 模块,实现了视频生成的流畅性与画质的双重提升。  

🎭 框架支持 ARKit Face Blendshapes,使用户能够灵活控制角色面部表情,丰富视频内容的表现。  

⚙️ 采用热插拔适配器设计,确保与 SD1.5基础上的其他模型兼容,为创作提供更大的灵活性。