ComfyUI-GGUF

Suporte à quantização GGUF, otimizando o desempenho de modelos nativos do ComfyUI

Produto ComumProgramaçãoGGUFQuantização
O ComfyUI-GGUF é um projeto que fornece suporte à quantização GGUF para modelos nativos do ComfyUI. Ele permite que arquivos de modelos sejam armazenados no formato GGUF, popularizado pelo llama.cpp. Embora modelos UNET convencionais (conv2d) não sejam adequados para quantização, modelos transformer/DiT como o flux parecem ser menos afetados. Isso permite sua execução em GPUs de baixo custo com uma taxa de bits menor por variável de peso.
Abrir Site

ComfyUI-GGUF Situação do Tráfego Mais Recente

Total de Visitas Mensais

474564576

Taxa de Rejeição

36.20%

Média de Páginas por Visita

6.1

Duração Média da Visita

00:06:34

ComfyUI-GGUF Tendência de Visitas

ComfyUI-GGUF Distribuição Geográfica das Visitas

ComfyUI-GGUF Fontes de Tráfego

ComfyUI-GGUF Alternativas