DragonDiffusion é uma solução de edição de imagem refinada baseada em modelo de difusão, que suporta diversos modos de edição, incluindo movimentação de objetos, redimensionamento de objetos, substituição da aparência de objetos e arrastar e soltar de conteúdo. Através da perda de correspondência de características, os sinais de edição são convertidos em gradientes, modificando a representação intermediária do modelo de difusão. A perda de correspondência de características considera múltiplas escalas de alinhamento semântico e geométrico, e adiciona um mecanismo de auto-atenção entre ramos para manter a consistência entre a imagem original e o resultado da edição.