📖 Туториал20 мин1 марта 2026 г.

ComfyUI: установка и базовая настройка в 2026 (Windows + Mac)

Пошаговая установка ComfyUI на Windows, macOS и Linux. Минимальные требования по VRAM, базовый workflow, типичные ошибки и связь со Stable Diffusion.

Обновлено: 2026-05-01

TL;DR

ComfyUI — нодовый интерфейс для Stable Diffusion. Ставится за 10–20 минут на любой ОС. На Windows проще всего скачать портативную сборку с GitHub, на Mac — клонировать репозиторий и запустить через --force-fp16, на Linux — стандартный git clone + venv. Минимум — 6 ГБ VRAM (SD 1.5), для SDXL комфортно с 8–10 ГБ, для Flux — от 12 ГБ. Базовый workflow собирается из 6 нод; после первой генерации добавляйте ComfyUI Manager и кастомные ноды.

Минимальные требования: 6 / 8 / 12 ГБ VRAM — что доступно

VRAMЧто запуститсяЧто НЕ запуститсяРекомендации
4 ГБSD 1.5 в 512×512 с --lowvramSDXL, SD 3.5, FluxСэмплер Euler a, 20 шагов, отключите xformers, используйте Tiled VAE
6 ГБSD 1.5 в 768×768, SDXL в 768×768 с --medvramFlux нативно, SD 3.5 LargeБазовая комфортная конфигурация для старта
8 ГБSDXL 1024×1024, SD 3.5 Medium, Flux GGUF Q4Flux Dev fp16 в 1024×1024Хорошая середина: SDXL без проблем
10–12 ГБВсе SDXL и SD 3.5, Flux fp8, базовый ControlNetSD 3.5 Large fp16 в 1024×1024 с большим батчемRTX 3060 12 GB / RTX 4070 — оптимум по цене
16+ ГБFlux Dev fp16, SD 3.5 Large, ControlNet + LoRA + Upscale в одной цепочкеВидео-модели без ограниченийДля серьёзной работы и обучения LoRA
24+ ГБПолноценный Flux fp16, видео-модели (CogVideoX, LTX-Video)RTX 3090/4090 — топ для домашних задач

Помимо GPU нужно: 16 ГБ системной RAM (рекомендуется 32 ГБ), SSD на 50–100 ГБ под модели, Python 3.10 (3.11 — для Flux и SD 3.5), для AMD на Windows — DirectML или ZLUDA, для AMD на Linux — ROCm 6.x.

Установка на Windows / Mac / Linux

Windows: портативная сборка (самый простой путь)

  1. Откройте страницу github.com/comfyanonymous/ComfyUI/releases и скачайте свежий архив ComfyUI_windows_portable.7z.
  2. Распакуйте 7-Zip-ом в папку без русских букв и пробелов, например D:\ComfyUI.
  3. Запустите run_nvidia_gpu.bat (для NVIDIA) или run_cpu.bat (без GPU).
  4. Откроется браузер на http://127.0.0.1:8188 с уже загруженным базовым workflow.

Windows: установка через Git (для AMD и продвинутых)

Поставьте Python 3.10 с python.org (галочка «Add to PATH»), Git for Windows, актуальные драйверы NVIDIA Studio. Затем в PowerShell:

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python -m venv venv
.\venv\Scripts\activate
pip install --upgrade pip
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
python main.py

Для AMD замените установку torch на DirectML-версию: pip install torch-directml и запускайте python main.py --directml.

macOS (Apple Silicon M1/M2/M3/M4)

Поставьте Homebrew, Python 3.11 и Git, затем клонируйте репозиторий:

brew install python@3.11 git
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.11 -m venv venv
source venv/bin/activate
pip install --upgrade pip
pip install torch torchvision
pip install -r requirements.txt
python main.py --force-fp16

Флаг --force-fp16 экономит память и обязателен на 16 ГБ unified memory. На Intel-Mac официальная поддержка ограничена; современный путь — Apple Silicon.

Linux (Ubuntu 22.04 / 24.04)

sudo apt update
sudo apt install python3.10 python3.10-venv git -y
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.10 -m venv venv
source venv/bin/activate
pip install --upgrade pip
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
python main.py

Для AMD на Linux используйте PyTorch ROCm: pip install torch torchvision --index-url https://download.pytorch.org/whl/rocm6.0. Запуск: python main.py --highvram на RX 7900 XTX или --medvram на 12-гигабайтных картах.

Когда нет GPU: Google Colab

Бесплатный Colab даёт T4 GPU 16 GB на 4–6 часов сессии. Готовые ноутбуки ищите в репозитории ComfyUI по запросу «Colab» или используйте сборку «cubiq/ComfyUI_Colab». Учтите: Google ограничивает запуск UI-приложений, и ноутбук может «уснуть» без активности.

Где взять модели легально (Hugging Face, Civitai)

ComfyUI без моделей не работает. Минимум — один checkpoint. Источники:

Для SD 3.5 и Flux на Hugging Face требуется принять лицензию в личном кабинете и сгенерировать access token. Скачивание через huggingface-cli:

pip install huggingface_hub
huggingface-cli login
huggingface-cli download stabilityai/stable-diffusion-xl-base-1.0 sd_xl_base_1.0.safetensors --local-dir models/checkpoints

Куда класть файлы

ComfyUI/
├── models/
│   ├── checkpoints/    основные модели (.safetensors)
│   ├── vae/            VAE-декодеры
│   ├── loras/          LoRA-адаптеры
│   ├── controlnet/     ControlNet-модели
│   ├── upscale_models/ модели апскейла (RealESRGAN и т.д.)
│   ├── clip/           CLIP-модели (для Flux и SD 3.5)
│   └── unet/           отдельные UNet (для Flux GGUF)

Ваш первый workflow за 10 минут

При первом запуске ComfyUI открывает базовый workflow для text-to-image. Если случайно сломали — выберите Load Default в меню справа.

6 нод базового pipeline

  1. Load Checkpoint — загружает основную модель. Поле ckpt_name — выпадающий список из папки models/checkpoints/. Выходы: MODEL, CLIP, VAE.
  2. CLIP Text Encode (Prompt) — положительный промпт. Подключите вход clip к выходу CLIP ноды Load Checkpoint. В текстовое поле впишите описание желаемого изображения на английском.
  3. CLIP Text Encode (Negative) — негативный промпт. Та же нода, тот же CLIP. В поле — список нежелательных элементов: blurry, low quality, watermark, deformed.
  4. Empty Latent Image — задаёт размер. Для SD 1.5 ставьте 512×512 или 768×768; для SDXL и SD 3.5 — 1024×1024; batch_size — обычно 1. Выход: LATENT.
  5. KSampler — сердце генерации. Входы: model (с Load Checkpoint), positive (с положительного CLIP), negative (с негативного CLIP), latent_image (с Empty Latent). Параметры: см. таблицу ниже.
  6. VAE Decode + Save Image — декодирует латент в пиксели и сохраняет файл. Вход samples от KSampler, vae от Load Checkpoint. Save Image берёт IMAGE и пишет в output/.

Настройки KSampler для старта

ПараметрSD 1.5SDXL / SD 3.5Что значит
steps2025–30Шаги денойзинга. Больше — детальнее, но медленнее.
cfg7.05.0–7.0Насколько жёстко следовать промпту. Для SD 3.5 не выше 5.
sampler_nameeuler_ancestraldpmpp_2mАлгоритм сэмплирования. Euler a — быстрый и хорошо для начала.
schedulernormalkarrasРасписание шума. Karras даёт более чистый результат.
denoise1.01.01.0 для text-to-image; 0.5–0.8 для img2img.

Запуск и проверка

  1. Нажмите Queue Prompt в правой панели или сочетание Ctrl+Enter.
  2. В консоли запуска увидите прогресс: загрузка модели, итерации сэмплера, сохранение.
  3. Готовое изображение появится в ноде Save Image и в папке output/.
  4. Изменили промпт — снова Queue Prompt. ComfyUI запоминает результаты и не пересчитывает то, что не изменилось.

Управление полотном

  • Правый клик на пустом месте — меню добавления нод.
  • Двойной левый клик — поиск ноды по названию.
  • Перетаскивание — перемещение нод; перетягивание точки выхода — соединение с входом.
  • Ctrl + колесо — масштабирование.
  • Средняя кнопка мыши — панорамирование полотна.
  • Delete — удалить выделенную ноду.
  • Ctrl + S — сохранить workflow в JSON.

ComfyUI Manager и полезные расширения

ComfyUI Manager — must-have. Позволяет ставить кастомные ноды и модели прямо из интерфейса. Установка:

cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git

Перезапустите ComfyUI — в правой панели появится кнопка Manager. Через неё можно: устанавливать ноды одной кнопкой, обновлять ComfyUI и зависимости, искать недостающие ноды для импортированного workflow, находить и качать модели по имени.

Полезные кастомные ноды

  • WAS Node Suite — десятки утилит для обработки изображений и текста.
  • ControlNet Auxiliary Preprocessors — препроцессоры для ControlNet (Canny, Depth, OpenPose).
  • Impact Pack — детектор лиц, сегментация, автоматический инпейнт.
  • Efficiency Nodes — упрощённые ноды-комбинации для быстрого прототипирования.
  • rgthree Comfy — улучшенные группы нод, переключатели, мьютер для отключения веток workflow.
  • ComfyUI-Custom-Scripts — quality-of-life улучшения интерфейса.

Частые ошибки и их решение

1. torch.cuda.OutOfMemoryError (CUDA out of memory)

Чаще всего — на SDXL и Flux с 6–8 ГБ VRAM. Решения по убыванию эффективности: запустите ComfyUI с флагом --lowvram или --novram; уменьшите разрешение (768×768 вместо 1024×1024); поставьте batch_size = 1; включите ноду TiledVAE Decode вместо обычного VAE Decode; используйте Flux GGUF Q4 вместо fp16; закройте браузер, Discord и другие программы, использующие GPU.

2. VRAM не хватает на SDXL даже с --medvram

Если 6 ГБ карта всё равно падает на SDXL: переключитесь на SD 1.5 для большинства задач, используйте SDXL Lightning или SDXL Turbo (4 шага вместо 30), оптимизированную TensorRT-сборку, либо квантизированные GGUF-версии SDXL.

3. Чёрные изображения на выходе

Признак NaN-значений, чаще всего — проблема с VAE и FP16 на старых видеокартах. Решения: запуск с флагом --no-half-vae; для SDXL — отдельная нода Load VAE с файлом sdxl_vae.safetensors; для GTX 16xx — флаг --force-fp32.

4. Модель не появляется в выпадающем списке Load Checkpoint

Проверьте: файл лежит в models/checkpoints/ (не в подпапке вроде SDXL/ — её ComfyUI тоже видит, но имена будут с префиксом), расширение .safetensors или .ckpt. После добавления нажмите Refresh в правой панели или перезапустите ComfyUI.

5. Нода красная: «Failed to validate prompt» / «node not found»

Импортируете чужой workflow, и какая-то нода не нашлась. Откройте Manager → Install Missing Custom Nodes — он автоматически найдёт и поставит недостающие пакеты. После установки перезапустите ComfyUI.

6. Очень медленная генерация (минуты на одно изображение)

Симптомы: загрузка GPU около 0%, всё считает CPU. Проверьте через nvidia-smi, нагружается ли GPU. Лечится: переустановкой PyTorch с правильным CUDA-индексом, удалением флага --cpu, обновлением драйвера NVIDIA до последней Studio-версии. На ноутбуке с гибридной графикой принудительно назначьте процесс Python на дискретный GPU в NVIDIA Control Panel.

7. Ошибка при установке зависимостей (pip install)

Чаще всего связано с torch. Установите вручную с правильным CUDA-индексом: pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121. Узнать версию CUDA: nvidia-smi. Для CUDA 11.8 используйте cu118.

8. Ошибка с xformers

xformers не обязателен. Если падает — уберите его из requirements или установите совместимую версию: pip install xformers==0.0.27. На современных RTX 30xx/40xx разница в скорости минимальная.

9. Несовместимая версия Python (3.12 не работает)

ComfyUI стабильно работает на Python 3.10 и 3.11. Python 3.12 ломает часть зависимостей. Поставьте Python 3.11 рядом и пересоздайте venv.

10. Большой artifact-«цифровой шум» вместо изображения

Возможные причины: повреждён checkpoint (скачайте заново и сверьте SHA-256), несовместимый VAE (для SDXL — SDXL VAE, для SD 1.5 — отдельный vae-ft-mse-840000), слишком мало шагов (минимум 20 для SD 1.5, 25 для SDXL), неправильный сэмплер для модели (для SD 3.5 берите dpmpp_2m или euler, не Karras-варианты).

Сравнение с Forge, SwarmUI, InvokeAI

ComfyUI — не единственный интерфейс для Stable Diffusion. У альтернатив свои сильные стороны.

ИнтерфейсСтильПлюсыМинусыКогда выбирать
ComfyUIНодовыйМаксимальная гибкость, лучшая поддержка Flux и SD 3.5, низкое потребление VRAMКривая обучения; визуально перегруженно для новичковСложные пайплайны, эксперименты, профессиональная работа
Automatic1111Web UI с вкладкамиОгромное сообщество, тысячи расширенийРазвитие замедлилось; SD 3.5/Flux заходят с задержкойПривычный интерфейс, готовые расширения
Forge (Stable Diffusion WebUI Forge)Web UI с вкладками (форк A1111)Заметно быстрее A1111 на низкой VRAM, Flux из коробкиМеньше расширений совместимо, чем у A1111Слабая видеокарта + желание остаться на интерфейсе A1111
SwarmUIГибрид: вкладки + ComfyUI под капотомПростой UI как у A1111, но движок ComfyUI; поддерживает мульти-GPUМолодой проект, иногда нестабильныйХочется простоты A1111 и мощи ComfyUI
InvokeAIПрофессиональный Web UIУдобный canvas для inpaint/outpaint, хорош для художественной работыПлатная коммерческая лицензия для команд; меньше сторонних моделейСтудии и художники, кому нужен инпейнт-canvas
FooocusМинималистичный UIЗаточен под SDXL, ставится в один кликЖёстко зашитый pipeline, мало настроекПросто хочется генерировать без вникания в детали

Что такое ComfyUI — короткая справка для контекста

ComfyUI — open-source интерфейс для Stable Diffusion, написанный на Python с веб-фронтендом. Автор — comfyanonymous; репозиторий на GitHub набрал более 50 тысяч звёзд. В отличие от Automatic1111, который скрывает pipeline за вкладками и кнопками, ComfyUI показывает его явно: вы видите все шаги генерации в виде графа из нод. Это удобно по нескольким причинам:

  • Прозрачность. Вы понимаете, что и в каком порядке делает Stable Diffusion: токенизация промпта, формирование латента, итерации сэмплера, декодирование VAE.
  • Гибкость. Можно подключать любые ноды: ControlNet, IP-Adapter, LoRA, апскейлеры, видео-модели — всё в одном workflow.
  • Эффективность. ComfyUI кэширует промежуточные результаты: изменили только промпт — пересчитается только сэмплер, модель не перезагружается.
  • Воспроизводимость. Workflow сохраняется в JSON и в метаданных PNG: открыли чужую картинку — сразу получили её рецепт.
  • Поддержка новых моделей. Stability AI и Black Forest Labs выпускают новые модели обычно с примерами именно для ComfyUI.

Минус один — порог входа выше, чем у A1111. Зато освоив базовые ноды, вы получаете инструмент, в котором возможно почти всё, что есть в индустрии image-AI.

Базовый промптинг для SDXL и SD 3.5 в ComfyUI

SDXL и SD 3.5 любят более естественные описания, чем SD 1.5. Структура хорошего промпта:

  1. Subject — главный объект: «a young woman with curly red hair».
  2. Action / Pose — что делает: «sitting in a coffee shop».
  3. Style — стиль: «cinematic photo» / «oil painting» / «anime illustration».
  4. Lighting — освещение: «soft window light» / «golden hour».
  5. Camera — для фото: «shot on Sony Alpha 7 IV, 50mm f/1.8, shallow depth of field».
  6. Quality — добавки: «highly detailed, 8k, sharp focus».

В ComfyUI текст положительного и отрицательного промпта вводится в две отдельные ноды CLIP Text Encode. Управление весом отдельных слов: (red hair:1.3) усиливает в 1.3 раза, (text:0.5) — ослабляет.

Стандартный негатив для SDXL

blurry, low quality, jpeg artifacts, deformed, bad anatomy, extra fingers, watermark, text

Для SD 3.5 негатив можно не использовать вообще или ограничиться одной строкой low quality, blurry — модель и сама знает базовые требования к качеству.

Двухступенчатый апскейл в ComfyUI

Прямая генерация в 4K на большинстве GPU невозможна. Стандартный pipeline:

  1. Базовая генерация в 1024×1024 (для SDXL/SD 3.5).
  2. Latent Upscale в 1.5× через ноду Latent Upscale by или Upscale Latent.
  3. Второй проход KSampler с denoise 0.4–0.5, чтобы добавить детали без потери композиции.
  4. VAE Decode для получения пиксельной картинки.
  5. Image Upscale моделями RealESRGAN_x4plus или 4x-UltraSharp для финального перехода в 4K.

Модели апскейла качайте с GitHub xinntao (RealESRGAN) или Hugging Face и кладите в models/upscale_models/. После добавления нажмите Refresh — они появятся в дропдауне ноды Upscale Image (using Model).

ControlNet в ComfyUI

ControlNet — расширение, которое позволяет управлять композицией: позой персонажа, контурами объектов, глубиной сцены. В ComfyUI ControlNet добавляется тремя нодами:

  1. Load ControlNet Model — загружает выбранную ControlNet-модель (OpenPose, Canny, Depth, Lineart).
  2. Препроцессор (например, OpenPose Pose Detector или Canny Edge) — извлекает «скелет» из эталонного изображения.
  3. Apply ControlNet — подключается между CLIP Text Encode и KSampler, накладывая управляющие сигналы.

Популярные ControlNet-модели для SDXL: diffusers/controlnet-canny-sdxl-1.0, thibaud/controlnet-openpose-sdxl-1.0, diffusers/controlnet-depth-sdxl-1.0. Для SD 1.5 — репозиторий lllyasviel/ControlNet-v1-1 на Hugging Face.

LoRA в ComfyUI

LoRA-адаптеры подключаются нодой Load LoRA, которая ставится между Load Checkpoint и CLIP Text Encode. Параметр strength_model (0–1.5) задаёт силу LoRA на UNet, strength_clip — силу на CLIP. Обычно ставят оба в одно значение, например 0.8.

Модели LoRA качайте с CivitAI или Hugging Face и кладите в models/loras/. Перед коммерческим использованием проверьте лицензию конкретной LoRA — некоторые запрещают коммерцию или имитацию стиля живого художника.

Видео в ComfyUI: краткий обзор

В 2026 году ComfyUI — самый удобный фронтенд для локальной генерации видео. Поддерживаются:

  • CogVideoX от Tsinghua + Zhipu AI: 5–10 секунд видео в 720p, текст в видео и image-to-video.
  • LTX-Video от Lightricks: быстрая генерация, оптимизирована под Comfy с самого старта.
  • Hunyuan Video от Tencent: 13B модель с приличным качеством, требует 24+ ГБ VRAM.
  • Mochi 1 от Genmo: 10B текст-в-видео, демо доступно через Comfy-ноды.

Все эти модели подключаются через ComfyUI Manager → Install via Git URL. Готовые workflow ищите на CivitAI или OpenArt.ai, импорт PNG-картинки с workflow восстанавливает граф автоматически.

Что попробовать после первого workflow

  • Подключить ControlNet для контроля позы, композиции и глубины — пара нод поверх базового pipeline.
  • Добавить LoRA для стилизации (нода Load LoRA между Load Checkpoint и CLIP Text Encode).
  • Освоить img2img: вместо Empty Latent — нода Load Image + VAE Encode.
  • Настроить двухступенчатый апскейл: базовое 1024×1024 → латентный апскейл 1.5× → второй проход KSampler с denoise=0.4.
  • Попробовать Flux LoRA для фотореализма и стилевых эффектов.
  • Заглянуть в видео-модели: CogVideoX, LTX-Video, Hunyuan Video — все доступны в ComfyUI через кастомные ноды.

Если вы только начинаете локально работать с image-AI, начните с гайда по установке Stable Diffusion на Windows/Mac/Linux — там разобраны системные требования и выбор модели. Если на той же машине хотите запускать ещё и языковые модели, посмотрите сравнение Ollama vs LM Studio. Карточка инструмента — ComfyUI в каталоге.

FAQ

Чем ComfyUI отличается от Automatic1111?

A1111 — Web UI с вкладками и кнопками, ComfyUI — нодовый редактор. A1111 проще для новичка, у него больше готовых расширений. ComfyUI требует разобраться в нодах, но даёт больше контроля и быстрее адаптируется к новым моделям (SD 3.5, Flux вышли в ComfyUI первыми).

Сколько весит ComfyUI на диске?

Сама ComfyUI с зависимостями — около 8–12 ГБ. Одна модель SD 1.5 — 2–4 ГБ, SDXL — 6–7 ГБ, SD 3.5 Large — 16 ГБ, Flux Dev fp16 — 24 ГБ. Полный набор для серьёзной работы (несколько checkpoint, ControlNet, LoRA, апскейлеры) — 100–200 ГБ.

Можно ли запустить ComfyUI без видеокарты?

Да, через флаг run_cpu.bat на Windows или --cpu на других ОС. Но генерация одного изображения SD 1.5 в 512×512 займёт 1–3 минуты на современном CPU; SDXL практически непригоден на CPU. Альтернатива — Google Colab.

Работает ли ComfyUI на Apple Silicon?

Да, через бэкенд MPS (Metal Performance Shaders) и флаг --force-fp16. На M1/M2 16 GB unified memory комфортно работают SD 1.5 и SDXL Turbo; для SDXL и SD 3.5 нативно — лучше M2/M3/M4 Pro или Max с 24+ ГБ.

ComfyUI бесплатный?

Полностью бесплатный, open source под лицензией GPL-3.0. Никаких подписок и платных функций. Расходы только на электричество и при желании — на облачное GPU.

Подходит ли ComfyUI для коммерческой работы?

Сама ComfyUI — да (GPL-3.0 разрешает). Ограничения накладывают конкретные модели: SD 1.5 и SDXL под OpenRAIL-M разрешают коммерческое использование; SD 3.5 — Stability AI Community License (бесплатно при выручке до $1 млн/год); Flux Dev — Non-Commercial License (для коммерции нужен Flux Pro). Перед коммерческим использованием всегда читайте лицензию модели на её странице Hugging Face.

Что делать, если на Civitai или Hugging Face не пускает из РФ?

Обе площадки периодически становятся недоступны без VPN. Решения: качайте модели с включённым VPN, потом отключайте; используйте huggingface-cli с прокси через переменные HTTPS_PROXY; ищите зеркала на ModelScope и в Telegram-чатах сообщества.

Можно ли импортировать workflow из чужой картинки?

Да. ComfyUI вшивает workflow в метаданные PNG. Перетащите такую картинку в окно ComfyUI — pipeline восстановится. Если каких-то нод не хватает, Manager → Install Missing Custom Nodes автоматически их найдёт.

МБ

Максим Барыбин НейроСкоп

1С-разработчик в медицине. Тестирует AI-инструменты на практике в реальных проектах: интеграции с медицинскими информационными системами, автоматизация документооборота.

Понравилась статья?

Поделитесь с коллегами и друзьями

Читайте также

Хотите больше таких статей?

Подпишитесь на еженедельный дайджест — новые инструменты, промпты и гиды каждую неделю

Подписаться бесплатно