最近,Xinsir发布了全新的Controlnet++开源模型,这一模型能够通过一个网络实现十多种条件的控制。具体来说,Controlnet++支持Openpose和Canny等输入,从而避免了频繁更换模型的麻烦。

GR9sRj5aQAAdX9G.jpg

Controlnet++基于ControlNet架构,通过新增模块,支持超过十种不同的控制类型,用于文本到图像的生成和编辑。这个模型能够生成与Midjourney视觉质量相当的高分辨率图像,特别适用于需要精细编辑的设计师。

模型设计特点

  • 多种控制:Controlnet++设计了新的架构,能够支持多种图像条件的控制,使用相同的网络参数来实现不同条件的图像生成。

  • 新增模块:模型引入了两个新模块,一是扩展原有ControlNet以支持不同图像条件,二是支持多条件输入而不增加计算负担,非常适合需要详细编辑图像的设计师。

  • 性能测试:在SDXL上的实验表明,Controlnet++在控制能力和审美评分上均优于原有模型。

Controlnet++提供了多种控制条件下的图像生成示例,包括Openpose、Depth、Canny等单一条件,以及Openpose + Canny、Openpose + Depth等多条件组合示例。这些示例展示了模型在不同条件下的强大生成能力。

目前,Controlnet++在Web UI和Comfyui上还无法使用,但它的多功能性和高质量输出使其成为文本到图像生成领域的一个重要突破。设计师和开发者们可以期待在不久的将来,更多平台将支持这一强大的模型,从而更便捷地进行高质量图像的生成和编辑。

模型下载地址:https://top.aibase.com/tool/controlnet-