ComfyUI Ollama es un nodo personalizado diseñado para flujos de trabajo de ComfyUI. Utiliza el cliente Python de Ollama, permitiendo a los usuarios integrar fácilmente modelos de lenguaje grandes (LLM) en sus flujos de trabajo, o simplemente experimentar con GPT. Su principal ventaja radica en la capacidad de interactuar con el servidor Ollama, permitiendo a los usuarios realizar consultas de imágenes, consultar el LLM con indicaciones dadas y realizar consultas LLM con parámetros ajustables, manteniendo el contexto de la cadena de generación.