
ComfyUI intimida a primera vista. Una pantalla llena de nodos conectados con cables de colores no parece el punto de partida ideal para alguien que nunca ha tocado una herramienta técnica de IA. Pero la realidad es que los principios básicos son simples, y en menos de una tarde puedes generar imágenes y vídeos de calidad profesional sin entender nada de programación.
Esta guía explica exactamente qué es cada nodo, cómo conectarlos y cuáles son los flujos de trabajo básicos que necesitas para empezar a producir contenido real.
1. La lógica de los nodos: Cómo pensar en ComfyUI
ComfyUI funciona como una cadena de pasos donde la salida de un paso es la entrada del siguiente. Cada nodo hace una cosa concreta: uno carga el modelo de IA, otro procesa el texto del prompt, otro genera la imagen, otro la guarda. Lo que ves en pantalla es esa cadena de pasos representada visualmente.
La ventaja sobre herramientas como Midjourney es que puedes insertar pasos adicionales en cualquier punto de la cadena. ¿Quieres que el resultado pase por un proceso de mejora de resolución antes de guardarse? Añades un nodo de upscaling entre el nodo de generación y el de guardado. Así de directo.
Consejo pro: Cuando abras ComfyUI por primera vez, no empieces con el canvas vacío. Carga el workflow de ejemplo que viene preinstalado (botón «Load Default» en el panel derecho). Tendrás un flujo de texto a imagen completamente funcional para explorar antes de construir el tuyo propio.
2. Los nodos esenciales que necesitas conocer
Para generar una imagen básica solo necesitas dominar cinco tipos de nodos:
- Load Checkpoint: Carga el modelo de IA que vas a usar (FLUX, SDXL, etc.). Es el punto de partida de cualquier workflow.
- CLIP Text Encode: Procesa tu prompt de texto y lo convierte en instrucciones que el modelo entiende. Necesitas uno para el prompt positivo (lo que quieres) y otro para el negativo (lo que no quieres).
- KSampler: El motor de generación. Aquí configuras cuántos pasos de generación usar (más pasos = más calidad pero más lento) y el nivel de creatividad (CFG Scale).
- VAE Decode: Convierte el resultado interno del modelo en una imagen visible.
- Save Image: Guarda el resultado en tu carpeta de salida.
Consejo pro: El parámetro más importante del KSampler para empezar es el CFG Scale. Un valor de 7 es el equilibrio estándar entre seguir el prompt y ser creativo. Valores más altos (10-15) siguen el prompt más literalmente pero pueden producir imágenes con artefactos. Valores más bajos (3-5) dan más libertad creativa al modelo.
3. Cómo añadir y conectar nodos
Para añadir un nodo en ComfyUI, haz doble clic en el canvas vacío o clic derecho y selecciona «Add Node». Se abrirá un menú con categorías. Para conectar dos nodos, arrastra desde el punto de salida (lado derecho del nodo, círculo de color) hasta el punto de entrada del nodo siguiente (lado izquierdo).
Los colores de las conexiones indican el tipo de dato que viaja por ellas: amarillo para texto procesado, azul para el modelo, morado para la imagen latente. Si intentas conectar dos tipos incompatibles, ComfyUI no te lo permitirá.
Consejo pro: Usa el buscador de nodos (Ctrl+F en el canvas) para encontrar nodos específicos rápidamente en lugar de navegar por los menús. Cuando sepas el nombre del nodo que buscas, escribir las primeras letras es mucho más rápido que explorar las categorías.
4. Workflow básico de imagen a imagen
Además del flujo texto a imagen, el flujo imagen a imagen es de los más útiles para creadores de contenido. Tomas una imagen existente (una fotografía, una captura de pantalla) y le pides al modelo que la transforme manteniendo la composición original pero cambiando el estilo visual.
Para esto necesitas añadir un nodo «Load Image» que carga tu imagen de referencia y un nodo «VAE Encode» que la convierte al formato que el modelo entiende. El KSampler tiene un parámetro «denoise» que controla cuánto se aleja el resultado de la imagen original: 0.3 hace cambios sutiles, 0.9 hace cambios radicales.
Consejo pro: El flujo imagen a imagen es especialmente útil para generar variaciones de un producto para ecommerce. Tomas una foto real del producto, la pasas por el flujo con denoise bajo (0.3-0.4) y obtienes variaciones con diferentes fondos o iluminaciones manteniendo el producto reconocible.
5. ControlNet: Control total sobre la composición
ControlNet es el nodo que cambia el juego para creadores que necesitan control preciso sobre la pose, el encuadre o la estructura de la imagen. Permite usar una imagen como guía de composición: si le das una silueta de una persona en cierta pose, el modelo generará una persona diferente en exactamente esa misma pose.
Para instalar ControlNet en ComfyUI necesitas descargar el modelo de ControlNet desde Hugging Face y colocarlo en la carpeta correcta del servidor. Una vez instalado, aparecerá como opción en el nodo Load ControlNet Model.
Consejo pro: Para retratos y fotografía de personas, el preprocesador «OpenPose» de ControlNet es el más útil. Analiza la pose de una persona en cualquier foto y la replica con un nuevo personaje completamente diferente. Esto permite generar contenido UGC con poses naturales y variadas sin depender de poses genéricas.
6. Recursos de la comunidad: Dónde encontrar workflows gratuitos
La comunidad de ComfyUI es una de las más activas del ecosistema de IA creativa. Estos son los mejores recursos para encontrar workflows ya construidos:
- Civitai.com: La mayor biblioteca de modelos y workflows. Filtra por «ComfyUI» para ver miles de workflows descargables.
- OpenArt.ai: Workflows organizados por caso de uso con previsualizaciones del resultado.
- Reddit r/comfyui: Comunidad activa donde se comparten workflows, se resuelven dudas y se publican los últimos avances.
Para el setup en la nube con RunPod, consulta nuestro artículo sobre ComfyUI + RunPod: workflows de vídeo IA en la nube.
Conclusión: La Curva de Aprendizaje Vale la Pena
ComfyUI tiene una curva de aprendizaje inicial, pero es mucho menos pronunciada de lo que parece desde fuera. Los principios básicos de conectar nodos se aprenden en una tarde. Los workflows avanzados se aprenden explorando los que ya ha construido la comunidad.
Lo que diferencia a ComfyUI de herramientas más accesibles no es solo la calidad del resultado, sino el control total sobre el proceso. Cuando dominas esta herramienta, las posibilidades de lo que puedes crear se amplían de forma exponencial respecto a cualquier plataforma cerrada. Y esa autonomía, una vez experimentada, es difícil de abandonar.
