Обновлено: 2026-05-01
TL;DR
ComfyUI — нодовый интерфейс для Stable Diffusion. Ставится за 10–20 минут на любой ОС. На Windows проще всего скачать портативную сборку с GitHub, на Mac — клонировать репозиторий и запустить через --force-fp16, на Linux — стандартный git clone + venv. Минимум — 6 ГБ VRAM (SD 1.5), для SDXL комфортно с 8–10 ГБ, для Flux — от 12 ГБ. Базовый workflow собирается из 6 нод; после первой генерации добавляйте ComfyUI Manager и кастомные ноды.
Минимальные требования: 6 / 8 / 12 ГБ VRAM — что доступно
| VRAM | Что запустится | Что НЕ запустится | Рекомендации |
|---|---|---|---|
| 4 ГБ | SD 1.5 в 512×512 с --lowvram | SDXL, SD 3.5, Flux | Сэмплер Euler a, 20 шагов, отключите xformers, используйте Tiled VAE |
| 6 ГБ | SD 1.5 в 768×768, SDXL в 768×768 с --medvram | Flux нативно, SD 3.5 Large | Базовая комфортная конфигурация для старта |
| 8 ГБ | SDXL 1024×1024, SD 3.5 Medium, Flux GGUF Q4 | Flux Dev fp16 в 1024×1024 | Хорошая середина: SDXL без проблем |
| 10–12 ГБ | Все SDXL и SD 3.5, Flux fp8, базовый ControlNet | SD 3.5 Large fp16 в 1024×1024 с большим батчем | RTX 3060 12 GB / RTX 4070 — оптимум по цене |
| 16+ ГБ | Flux Dev fp16, SD 3.5 Large, ControlNet + LoRA + Upscale в одной цепочке | Видео-модели без ограничений | Для серьёзной работы и обучения LoRA |
| 24+ ГБ | Полноценный Flux fp16, видео-модели (CogVideoX, LTX-Video) | — | RTX 3090/4090 — топ для домашних задач |
Помимо GPU нужно: 16 ГБ системной RAM (рекомендуется 32 ГБ), SSD на 50–100 ГБ под модели, Python 3.10 (3.11 — для Flux и SD 3.5), для AMD на Windows — DirectML или ZLUDA, для AMD на Linux — ROCm 6.x.
Установка на Windows / Mac / Linux
Windows: портативная сборка (самый простой путь)
- Откройте страницу github.com/comfyanonymous/ComfyUI/releases и скачайте свежий архив ComfyUI_windows_portable.7z.
- Распакуйте 7-Zip-ом в папку без русских букв и пробелов, например
D:\ComfyUI. - Запустите
run_nvidia_gpu.bat(для NVIDIA) илиrun_cpu.bat(без GPU). - Откроется браузер на
http://127.0.0.1:8188с уже загруженным базовым workflow.
Windows: установка через Git (для AMD и продвинутых)
Поставьте Python 3.10 с python.org (галочка «Add to PATH»), Git for Windows, актуальные драйверы NVIDIA Studio. Затем в PowerShell:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python -m venv venv
.\venv\Scripts\activate
pip install --upgrade pip
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
python main.py
Для AMD замените установку torch на DirectML-версию: pip install torch-directml и запускайте python main.py --directml.
macOS (Apple Silicon M1/M2/M3/M4)
Поставьте Homebrew, Python 3.11 и Git, затем клонируйте репозиторий:
brew install python@3.11 git
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.11 -m venv venv
source venv/bin/activate
pip install --upgrade pip
pip install torch torchvision
pip install -r requirements.txt
python main.py --force-fp16
Флаг --force-fp16 экономит память и обязателен на 16 ГБ unified memory. На Intel-Mac официальная поддержка ограничена; современный путь — Apple Silicon.
Linux (Ubuntu 22.04 / 24.04)
sudo apt update
sudo apt install python3.10 python3.10-venv git -y
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.10 -m venv venv
source venv/bin/activate
pip install --upgrade pip
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
python main.py
Для AMD на Linux используйте PyTorch ROCm: pip install torch torchvision --index-url https://download.pytorch.org/whl/rocm6.0. Запуск: python main.py --highvram на RX 7900 XTX или --medvram на 12-гигабайтных картах.
Когда нет GPU: Google Colab
Бесплатный Colab даёт T4 GPU 16 GB на 4–6 часов сессии. Готовые ноутбуки ищите в репозитории ComfyUI по запросу «Colab» или используйте сборку «cubiq/ComfyUI_Colab». Учтите: Google ограничивает запуск UI-приложений, и ноутбук может «уснуть» без активности.
Где взять модели легально (Hugging Face, Civitai)
ComfyUI без моделей не работает. Минимум — один checkpoint. Источники:
- Hugging Face — huggingface.co. Официальные репозитории Stability AI и Black Forest Labs:
- stabilityai/stable-diffusion-xl-base-1.0 — SDXL 1.0 Base, ~6.6 ГБ.
- stabilityai/stable-diffusion-3.5-medium — SD 3.5 Medium.
- stabilityai/stable-diffusion-3.5-large — SD 3.5 Large.
- black-forest-labs/FLUX.1-dev — Flux Dev (нужен токен и принятие лицензии).
- Civitai — civitai.com. Кастомные модели, LoRA, embeddings, ControlNet. Перед скачиванием смотрите лицензию модели и проверяйте, разрешено ли коммерческое использование.
Для SD 3.5 и Flux на Hugging Face требуется принять лицензию в личном кабинете и сгенерировать access token. Скачивание через huggingface-cli:
pip install huggingface_hub
huggingface-cli login
huggingface-cli download stabilityai/stable-diffusion-xl-base-1.0 sd_xl_base_1.0.safetensors --local-dir models/checkpoints
Куда класть файлы
ComfyUI/
├── models/
│ ├── checkpoints/ основные модели (.safetensors)
│ ├── vae/ VAE-декодеры
│ ├── loras/ LoRA-адаптеры
│ ├── controlnet/ ControlNet-модели
│ ├── upscale_models/ модели апскейла (RealESRGAN и т.д.)
│ ├── clip/ CLIP-модели (для Flux и SD 3.5)
│ └── unet/ отдельные UNet (для Flux GGUF)
Ваш первый workflow за 10 минут
При первом запуске ComfyUI открывает базовый workflow для text-to-image. Если случайно сломали — выберите Load Default в меню справа.
6 нод базового pipeline
- Load Checkpoint — загружает основную модель. Поле
ckpt_name— выпадающий список из папкиmodels/checkpoints/. Выходы:MODEL,CLIP,VAE. - CLIP Text Encode (Prompt) — положительный промпт. Подключите вход
clipк выходуCLIPноды Load Checkpoint. В текстовое поле впишите описание желаемого изображения на английском. - CLIP Text Encode (Negative) — негативный промпт. Та же нода, тот же CLIP. В поле — список нежелательных элементов:
blurry, low quality, watermark, deformed. - Empty Latent Image — задаёт размер. Для SD 1.5 ставьте
512×512или768×768; для SDXL и SD 3.5 —1024×1024;batch_size— обычно 1. Выход:LATENT. - KSampler — сердце генерации. Входы:
model(с Load Checkpoint),positive(с положительного CLIP),negative(с негативного CLIP),latent_image(с Empty Latent). Параметры: см. таблицу ниже. - VAE Decode + Save Image — декодирует латент в пиксели и сохраняет файл. Вход
samplesот KSampler,vaeот Load Checkpoint. Save Image берёт IMAGE и пишет вoutput/.
Настройки KSampler для старта
| Параметр | SD 1.5 | SDXL / SD 3.5 | Что значит |
|---|---|---|---|
| steps | 20 | 25–30 | Шаги денойзинга. Больше — детальнее, но медленнее. |
| cfg | 7.0 | 5.0–7.0 | Насколько жёстко следовать промпту. Для SD 3.5 не выше 5. |
| sampler_name | euler_ancestral | dpmpp_2m | Алгоритм сэмплирования. Euler a — быстрый и хорошо для начала. |
| scheduler | normal | karras | Расписание шума. Karras даёт более чистый результат. |
| denoise | 1.0 | 1.0 | 1.0 для text-to-image; 0.5–0.8 для img2img. |
Запуск и проверка
- Нажмите Queue Prompt в правой панели или сочетание Ctrl+Enter.
- В консоли запуска увидите прогресс: загрузка модели, итерации сэмплера, сохранение.
- Готовое изображение появится в ноде Save Image и в папке
output/. - Изменили промпт — снова Queue Prompt. ComfyUI запоминает результаты и не пересчитывает то, что не изменилось.
Управление полотном
- Правый клик на пустом месте — меню добавления нод.
- Двойной левый клик — поиск ноды по названию.
- Перетаскивание — перемещение нод; перетягивание точки выхода — соединение с входом.
- Ctrl + колесо — масштабирование.
- Средняя кнопка мыши — панорамирование полотна.
- Delete — удалить выделенную ноду.
- Ctrl + S — сохранить workflow в JSON.
ComfyUI Manager и полезные расширения
ComfyUI Manager — must-have. Позволяет ставить кастомные ноды и модели прямо из интерфейса. Установка:
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
Перезапустите ComfyUI — в правой панели появится кнопка Manager. Через неё можно: устанавливать ноды одной кнопкой, обновлять ComfyUI и зависимости, искать недостающие ноды для импортированного workflow, находить и качать модели по имени.
Полезные кастомные ноды
- WAS Node Suite — десятки утилит для обработки изображений и текста.
- ControlNet Auxiliary Preprocessors — препроцессоры для ControlNet (Canny, Depth, OpenPose).
- Impact Pack — детектор лиц, сегментация, автоматический инпейнт.
- Efficiency Nodes — упрощённые ноды-комбинации для быстрого прототипирования.
- rgthree Comfy — улучшенные группы нод, переключатели, мьютер для отключения веток workflow.
- ComfyUI-Custom-Scripts — quality-of-life улучшения интерфейса.
Частые ошибки и их решение
1. torch.cuda.OutOfMemoryError (CUDA out of memory)
Чаще всего — на SDXL и Flux с 6–8 ГБ VRAM. Решения по убыванию эффективности: запустите ComfyUI с флагом --lowvram или --novram; уменьшите разрешение (768×768 вместо 1024×1024); поставьте batch_size = 1; включите ноду TiledVAE Decode вместо обычного VAE Decode; используйте Flux GGUF Q4 вместо fp16; закройте браузер, Discord и другие программы, использующие GPU.
2. VRAM не хватает на SDXL даже с --medvram
Если 6 ГБ карта всё равно падает на SDXL: переключитесь на SD 1.5 для большинства задач, используйте SDXL Lightning или SDXL Turbo (4 шага вместо 30), оптимизированную TensorRT-сборку, либо квантизированные GGUF-версии SDXL.
3. Чёрные изображения на выходе
Признак NaN-значений, чаще всего — проблема с VAE и FP16 на старых видеокартах. Решения: запуск с флагом --no-half-vae; для SDXL — отдельная нода Load VAE с файлом sdxl_vae.safetensors; для GTX 16xx — флаг --force-fp32.
4. Модель не появляется в выпадающем списке Load Checkpoint
Проверьте: файл лежит в models/checkpoints/ (не в подпапке вроде SDXL/ — её ComfyUI тоже видит, но имена будут с префиксом), расширение .safetensors или .ckpt. После добавления нажмите Refresh в правой панели или перезапустите ComfyUI.
5. Нода красная: «Failed to validate prompt» / «node not found»
Импортируете чужой workflow, и какая-то нода не нашлась. Откройте Manager → Install Missing Custom Nodes — он автоматически найдёт и поставит недостающие пакеты. После установки перезапустите ComfyUI.
6. Очень медленная генерация (минуты на одно изображение)
Симптомы: загрузка GPU около 0%, всё считает CPU. Проверьте через nvidia-smi, нагружается ли GPU. Лечится: переустановкой PyTorch с правильным CUDA-индексом, удалением флага --cpu, обновлением драйвера NVIDIA до последней Studio-версии. На ноутбуке с гибридной графикой принудительно назначьте процесс Python на дискретный GPU в NVIDIA Control Panel.
7. Ошибка при установке зависимостей (pip install)
Чаще всего связано с torch. Установите вручную с правильным CUDA-индексом: pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121. Узнать версию CUDA: nvidia-smi. Для CUDA 11.8 используйте cu118.
8. Ошибка с xformers
xformers не обязателен. Если падает — уберите его из requirements или установите совместимую версию: pip install xformers==0.0.27. На современных RTX 30xx/40xx разница в скорости минимальная.
9. Несовместимая версия Python (3.12 не работает)
ComfyUI стабильно работает на Python 3.10 и 3.11. Python 3.12 ломает часть зависимостей. Поставьте Python 3.11 рядом и пересоздайте venv.
10. Большой artifact-«цифровой шум» вместо изображения
Возможные причины: повреждён checkpoint (скачайте заново и сверьте SHA-256), несовместимый VAE (для SDXL — SDXL VAE, для SD 1.5 — отдельный vae-ft-mse-840000), слишком мало шагов (минимум 20 для SD 1.5, 25 для SDXL), неправильный сэмплер для модели (для SD 3.5 берите dpmpp_2m или euler, не Karras-варианты).
Сравнение с Forge, SwarmUI, InvokeAI
ComfyUI — не единственный интерфейс для Stable Diffusion. У альтернатив свои сильные стороны.
| Интерфейс | Стиль | Плюсы | Минусы | Когда выбирать |
|---|---|---|---|---|
| ComfyUI | Нодовый | Максимальная гибкость, лучшая поддержка Flux и SD 3.5, низкое потребление VRAM | Кривая обучения; визуально перегруженно для новичков | Сложные пайплайны, эксперименты, профессиональная работа |
| Automatic1111 | Web UI с вкладками | Огромное сообщество, тысячи расширений | Развитие замедлилось; SD 3.5/Flux заходят с задержкой | Привычный интерфейс, готовые расширения |
| Forge (Stable Diffusion WebUI Forge) | Web UI с вкладками (форк A1111) | Заметно быстрее A1111 на низкой VRAM, Flux из коробки | Меньше расширений совместимо, чем у A1111 | Слабая видеокарта + желание остаться на интерфейсе A1111 |
| SwarmUI | Гибрид: вкладки + ComfyUI под капотом | Простой UI как у A1111, но движок ComfyUI; поддерживает мульти-GPU | Молодой проект, иногда нестабильный | Хочется простоты A1111 и мощи ComfyUI |
| InvokeAI | Профессиональный Web UI | Удобный canvas для inpaint/outpaint, хорош для художественной работы | Платная коммерческая лицензия для команд; меньше сторонних моделей | Студии и художники, кому нужен инпейнт-canvas |
| Fooocus | Минималистичный UI | Заточен под SDXL, ставится в один клик | Жёстко зашитый pipeline, мало настроек | Просто хочется генерировать без вникания в детали |
Что такое ComfyUI — короткая справка для контекста
ComfyUI — open-source интерфейс для Stable Diffusion, написанный на Python с веб-фронтендом. Автор — comfyanonymous; репозиторий на GitHub набрал более 50 тысяч звёзд. В отличие от Automatic1111, который скрывает pipeline за вкладками и кнопками, ComfyUI показывает его явно: вы видите все шаги генерации в виде графа из нод. Это удобно по нескольким причинам:
- Прозрачность. Вы понимаете, что и в каком порядке делает Stable Diffusion: токенизация промпта, формирование латента, итерации сэмплера, декодирование VAE.
- Гибкость. Можно подключать любые ноды: ControlNet, IP-Adapter, LoRA, апскейлеры, видео-модели — всё в одном workflow.
- Эффективность. ComfyUI кэширует промежуточные результаты: изменили только промпт — пересчитается только сэмплер, модель не перезагружается.
- Воспроизводимость. Workflow сохраняется в JSON и в метаданных PNG: открыли чужую картинку — сразу получили её рецепт.
- Поддержка новых моделей. Stability AI и Black Forest Labs выпускают новые модели обычно с примерами именно для ComfyUI.
Минус один — порог входа выше, чем у A1111. Зато освоив базовые ноды, вы получаете инструмент, в котором возможно почти всё, что есть в индустрии image-AI.
Базовый промптинг для SDXL и SD 3.5 в ComfyUI
SDXL и SD 3.5 любят более естественные описания, чем SD 1.5. Структура хорошего промпта:
- Subject — главный объект: «a young woman with curly red hair».
- Action / Pose — что делает: «sitting in a coffee shop».
- Style — стиль: «cinematic photo» / «oil painting» / «anime illustration».
- Lighting — освещение: «soft window light» / «golden hour».
- Camera — для фото: «shot on Sony Alpha 7 IV, 50mm f/1.8, shallow depth of field».
- Quality — добавки: «highly detailed, 8k, sharp focus».
В ComfyUI текст положительного и отрицательного промпта вводится в две отдельные ноды CLIP Text Encode. Управление весом отдельных слов: (red hair:1.3) усиливает в 1.3 раза, (text:0.5) — ослабляет.
Стандартный негатив для SDXL
blurry, low quality, jpeg artifacts, deformed, bad anatomy, extra fingers, watermark, text
Для SD 3.5 негатив можно не использовать вообще или ограничиться одной строкой low quality, blurry — модель и сама знает базовые требования к качеству.
Двухступенчатый апскейл в ComfyUI
Прямая генерация в 4K на большинстве GPU невозможна. Стандартный pipeline:
- Базовая генерация в 1024×1024 (для SDXL/SD 3.5).
- Latent Upscale в 1.5× через ноду Latent Upscale by или Upscale Latent.
- Второй проход KSampler с denoise 0.4–0.5, чтобы добавить детали без потери композиции.
- VAE Decode для получения пиксельной картинки.
- Image Upscale моделями RealESRGAN_x4plus или 4x-UltraSharp для финального перехода в 4K.
Модели апскейла качайте с GitHub xinntao (RealESRGAN) или Hugging Face и кладите в models/upscale_models/. После добавления нажмите Refresh — они появятся в дропдауне ноды Upscale Image (using Model).
ControlNet в ComfyUI
ControlNet — расширение, которое позволяет управлять композицией: позой персонажа, контурами объектов, глубиной сцены. В ComfyUI ControlNet добавляется тремя нодами:
- Load ControlNet Model — загружает выбранную ControlNet-модель (OpenPose, Canny, Depth, Lineart).
- Препроцессор (например, OpenPose Pose Detector или Canny Edge) — извлекает «скелет» из эталонного изображения.
- Apply ControlNet — подключается между CLIP Text Encode и KSampler, накладывая управляющие сигналы.
Популярные ControlNet-модели для SDXL: diffusers/controlnet-canny-sdxl-1.0, thibaud/controlnet-openpose-sdxl-1.0, diffusers/controlnet-depth-sdxl-1.0. Для SD 1.5 — репозиторий lllyasviel/ControlNet-v1-1 на Hugging Face.
LoRA в ComfyUI
LoRA-адаптеры подключаются нодой Load LoRA, которая ставится между Load Checkpoint и CLIP Text Encode. Параметр strength_model (0–1.5) задаёт силу LoRA на UNet, strength_clip — силу на CLIP. Обычно ставят оба в одно значение, например 0.8.
Модели LoRA качайте с CivitAI или Hugging Face и кладите в models/loras/. Перед коммерческим использованием проверьте лицензию конкретной LoRA — некоторые запрещают коммерцию или имитацию стиля живого художника.
Видео в ComfyUI: краткий обзор
В 2026 году ComfyUI — самый удобный фронтенд для локальной генерации видео. Поддерживаются:
- CogVideoX от Tsinghua + Zhipu AI: 5–10 секунд видео в 720p, текст в видео и image-to-video.
- LTX-Video от Lightricks: быстрая генерация, оптимизирована под Comfy с самого старта.
- Hunyuan Video от Tencent: 13B модель с приличным качеством, требует 24+ ГБ VRAM.
- Mochi 1 от Genmo: 10B текст-в-видео, демо доступно через Comfy-ноды.
Все эти модели подключаются через ComfyUI Manager → Install via Git URL. Готовые workflow ищите на CivitAI или OpenArt.ai, импорт PNG-картинки с workflow восстанавливает граф автоматически.
Что попробовать после первого workflow
- Подключить ControlNet для контроля позы, композиции и глубины — пара нод поверх базового pipeline.
- Добавить LoRA для стилизации (нода Load LoRA между Load Checkpoint и CLIP Text Encode).
- Освоить img2img: вместо Empty Latent — нода Load Image + VAE Encode.
- Настроить двухступенчатый апскейл: базовое 1024×1024 → латентный апскейл 1.5× → второй проход KSampler с
denoise=0.4. - Попробовать Flux LoRA для фотореализма и стилевых эффектов.
- Заглянуть в видео-модели: CogVideoX, LTX-Video, Hunyuan Video — все доступны в ComfyUI через кастомные ноды.
Если вы только начинаете локально работать с image-AI, начните с гайда по установке Stable Diffusion на Windows/Mac/Linux — там разобраны системные требования и выбор модели. Если на той же машине хотите запускать ещё и языковые модели, посмотрите сравнение Ollama vs LM Studio. Карточка инструмента — ComfyUI в каталоге.
FAQ
Чем ComfyUI отличается от Automatic1111?
A1111 — Web UI с вкладками и кнопками, ComfyUI — нодовый редактор. A1111 проще для новичка, у него больше готовых расширений. ComfyUI требует разобраться в нодах, но даёт больше контроля и быстрее адаптируется к новым моделям (SD 3.5, Flux вышли в ComfyUI первыми).
Сколько весит ComfyUI на диске?
Сама ComfyUI с зависимостями — около 8–12 ГБ. Одна модель SD 1.5 — 2–4 ГБ, SDXL — 6–7 ГБ, SD 3.5 Large — 16 ГБ, Flux Dev fp16 — 24 ГБ. Полный набор для серьёзной работы (несколько checkpoint, ControlNet, LoRA, апскейлеры) — 100–200 ГБ.
Можно ли запустить ComfyUI без видеокарты?
Да, через флаг run_cpu.bat на Windows или --cpu на других ОС. Но генерация одного изображения SD 1.5 в 512×512 займёт 1–3 минуты на современном CPU; SDXL практически непригоден на CPU. Альтернатива — Google Colab.
Работает ли ComfyUI на Apple Silicon?
Да, через бэкенд MPS (Metal Performance Shaders) и флаг --force-fp16. На M1/M2 16 GB unified memory комфортно работают SD 1.5 и SDXL Turbo; для SDXL и SD 3.5 нативно — лучше M2/M3/M4 Pro или Max с 24+ ГБ.
ComfyUI бесплатный?
Полностью бесплатный, open source под лицензией GPL-3.0. Никаких подписок и платных функций. Расходы только на электричество и при желании — на облачное GPU.
Подходит ли ComfyUI для коммерческой работы?
Сама ComfyUI — да (GPL-3.0 разрешает). Ограничения накладывают конкретные модели: SD 1.5 и SDXL под OpenRAIL-M разрешают коммерческое использование; SD 3.5 — Stability AI Community License (бесплатно при выручке до $1 млн/год); Flux Dev — Non-Commercial License (для коммерции нужен Flux Pro). Перед коммерческим использованием всегда читайте лицензию модели на её странице Hugging Face.
Что делать, если на Civitai или Hugging Face не пускает из РФ?
Обе площадки периодически становятся недоступны без VPN. Решения: качайте модели с включённым VPN, потом отключайте; используйте huggingface-cli с прокси через переменные HTTPS_PROXY; ищите зеркала на ModelScope и в Telegram-чатах сообщества.
Можно ли импортировать workflow из чужой картинки?
Да. ComfyUI вшивает workflow в метаданные PNG. Перетащите такую картинку в окно ComfyUI — pipeline восстановится. Если каких-то нод не хватает, Manager → Install Missing Custom Nodes автоматически их найдёт.