Recentemente, a equipe de criação da Alibaba Mama lançou um modelo de reparo de imagem de IA chamado FLUX-Controlnet-Inpainting. Este modelo é baseado na arquitetura do modelo FLUX.1-dev e foi treinado em 12 milhões de imagens laion2B e em um conjunto de dados interno da Alibaba, com uma resolução de até 768x768, capaz de reparar imagens com alta qualidade.
Esta ferramenta não apenas herda a capacidade de geração de imagens de alta qualidade do modelo FLUX.1-dev, mas também integra inteligentemente as vantagens do ControlNet. Ela pode reparar imagens com precisão com base em informações como bordas, esboços e mapas de profundidade, gerando conteúdo em áreas específicas que se harmoniza com o ambiente circundante, dando nova vida a partes danificadas ou faltantes de uma imagem.
Um dos destaques deste modelo é sua capacidade de entender descrições em linguagem natural e reparar imagens com base nessas descrições. Por exemplo, pode adicionar ou remover objetos em uma imagem ou até mesmo alterar o estilo da imagem, de acordo com a descrição fornecida pelo usuário.
O modelo FLUX-Controlnet-Inpainting já está disponível em código aberto na plataforma Hugging Face, com tutoriais detalhados e exemplos de código. Os usuários podem instalar a biblioteca diffusers via pip e clonar o código do projeto do GitHub para experimentar rapidamente os poderosos recursos deste modelo.
A equipe de criação da Alibaba Mama afirma que o modelo FLUX-Controlnet-Inpainting atualmente está em fase de teste alfa e que continuará otimizando o desempenho do modelo, planejando lançar versões atualizadas no futuro.
Endereço do projeto: https://github.com/alimama-creative/FLUX-Controlnet-Inpainting
Endereço de download do fluxo de trabalho: https://huggingface.co/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Alpha/resolve/main/images/alimama-flux-controlnet-inpaint.json