Обновлено: 2026-05-01
TL;DR
Stable Diffusion запускается локально на трёх платформах: Windows и Linux с NVIDIA/AMD GPU, macOS на Apple Silicon. Для старта достаточно 6 ГБ VRAM и SD 1.5; для SDXL комфортно от 8–10 ГБ, для SD 3.5 — от 10–12 ГБ. Самый простой путь под Windows — установщик Stability Matrix или портативная сборка Automatic1111/ComfyUI; на Mac — приложение Draw Things либо diffusers через pip; на AMD — DirectML под Windows или ROCm под Linux.
Зачем запускать Stable Diffusion локально
Облачные сервисы вроде Midjourney или DALL-E 3 удобны, но у локального запуска есть серьёзные преимущества:
- Бесплатно навсегда — никаких подписок, платите только за электричество
- Без цензуры — вы контролируете, что генерировать (полезно для художников, работающих с анатомией, батальными сценами и т.д.)
- Приватность — ваши промпты и изображения не уходят на чужие серверы
- Гибкость — кастомные модели, LoRA, ControlNet, расширения
- Скорость — на хорошей видеокарте генерация за 3-5 секунд
- Пакетная генерация — 100 картинок за ночь без лимитов
Системные требования
Главное ограничение — видеокарта. Stable Diffusion использует GPU для вычислений, и от видеопамяти (VRAM) зависит, какие модели вы сможете запускать и в каком разрешении.
Минимальные и рекомендуемые требования по платформам
| Платформа / GPU | Минимум VRAM | Рекомендуется | ОС | Бэкенд |
|---|---|---|---|---|
| NVIDIA (Windows/Linux) | 4 ГБ (GTX 1050 Ti) | 12 ГБ (RTX 3060/4060) | Windows 10/11, Ubuntu 22.04+ | CUDA 12.x |
| AMD (Windows) | 6 ГБ (RX 580 8 GB и выше) | 16 ГБ (RX 7800 XT/7900 XT) | Windows 10/11 | DirectML / ZLUDA |
| AMD (Linux) | 8 ГБ (RX 6700 XT) | 16 ГБ (RX 7900 XTX) | Ubuntu 22.04+ с ROCm 6.x | ROCm |
| Apple Silicon | 16 ГБ unified memory (M1/M2) | 24+ ГБ unified memory (M3/M4 Pro) | macOS 14 Sonoma+ | MPS / Core ML |
| CPU only (любая ОС) | 16 ГБ RAM | 32 ГБ RAM | Любая | OpenVINO / CPU |
Дополнительно к GPU понадобится: 16 ГБ оперативной памяти (рекомендуется 32 ГБ), SSD на 50–100 ГБ под модели (одна SDXL-модель — 6–7 ГБ, Flux — 12–24 ГБ), Python 3.10 (3.11 — для Flux и SD 3.5).
Сколько VRAM нужно для разных моделей
| Модель | VRAM (512×512) | VRAM (1024×1024) | Особенности |
|---|---|---|---|
| SD 1.5 | 4 GB | 6 GB | Лёгкая, много кастомных моделей |
| SDXL 1.0 | 6 GB | 10 GB | Высокое качество, медленнее |
| SD 3.5 Medium | 6 GB | 9–10 GB | Хорошее понимание промптов |
| SD 3.5 Large | 10 GB | 16 GB | Топ-качество в линейке SD |
| Flux.1 Dev | 12 GB | 20–24 GB | Лучшая текстура и анатомия, требовательна |
Какую модель выбрать в 2026: SD 1.5 vs SDXL vs SD 3.5
На рынке три актуальных поколения Stable Diffusion от Stability AI. SD 4 пока официально не выходила — если кто-то предлагает «скачать SD 4», это либо ребрендинг существующих моделей, либо мошенничество. Сравним то, что реально доступно.
| Критерий | SD 1.5 | SDXL 1.0 | SD 3.5 Medium / Large |
|---|---|---|---|
| Качество и детализация | Среднее, требует LoRA и негативов | Хорошее, плотный кадр | Лучшее в линейке, чище мелкие детали |
| VRAM в 1024×1024 | 6 ГБ | 10 ГБ | 9–10 / 16 ГБ |
| Скорость на RTX 3060 12 GB | 1–2 с/шаг при 512×512 | 2–4 с/шаг при 1024×1024 | 3–6 с/шаг при 1024×1024 |
| Размер кастомных моделей и LoRA | Огромная экосистема, тысячи моделей | Большая, активно растёт | Развивается, моделей пока меньше |
| Лицензия (по данным stability.ai) | OpenRAIL-M, разрешает коммерцию | OpenRAIL-M, разрешает коммерцию | Stability AI Community License: бесплатно для использования и для бизнеса с выручкой до $1 млн/год |
Кратко: для слабых GPU и обучения собственных LoRA берите SD 1.5. Для универсальной генерации с приличным качеством — SDXL. Для современных промптов с текстом и сложной композицией — SD 3.5 Medium (если 10 ГБ VRAM есть) или SD 3.5 Large (от 16 ГБ).
Важно: карты AMD тоже работают, но через DirectML или ROCm. Настройка сложнее, и скорость обычно ниже NVIDIA на сопоставимом уровне. Для NVIDIA всё работает «из коробки» через CUDA.
Способ 1: Установка через Automatic1111 (EASY)
Automatic1111 (он же A1111, он же Stable Diffusion Web UI) — самый популярный интерфейс. Простой в установке, огромное сообщество, тысячи расширений.
Шаг 1: Установите Python
Скачайте Python 3.10.x (именно 3.10 — более новые версии могут вызвать проблемы) с python.org. При установке обязательно поставьте галочку «Add Python to PATH».
Шаг 2: Установите Git
Скачайте Git с git-scm.com и установите с настройками по умолчанию.
Шаг 3: Клонируйте репозиторий
Откройте командную строку (или PowerShell) и выполните:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
Шаг 4: Скачайте модель
Скачайте файл модели (checkpoint) и поместите его в папку models/Stable-diffusion/. Рекомендуемые стартовые модели:
- Realistic Vision v6 — для фотореалистичных изображений
- DreamShaper v8 — универсальная, отличный баланс качества
- SDXL Base — официальная модель SDXL от Stability AI
Модели можно скачать на CivitAI или HuggingFace.
Шаг 5: Запуск
Запустите файл webui-user.bat (Windows) или webui.sh (Linux). Первый запуск займёт 10-15 минут — скачаются зависимости. После запуска откройте в браузере http://127.0.0.1:7860.
Способ 2: Установка ComfyUI (PRO)
ComfyUI — альтернативный интерфейс на базе нодов (узлов). Он быстрее A1111, потребляет меньше VRAM и даёт больше контроля. Подробнее — в нашем гайде по ComfyUI.
Быстрая установка ComfyUI
- Скачайте готовую сборку с GitHub ComfyUI
- Распакуйте архив
- Поместите модели в
models/checkpoints/ - Запустите
run_nvidia_gpu.bat - Откройте
http://127.0.0.1:8188
Установка на Apple Silicon (M1/M2/M3/M4)
На Mac с чипами Apple Silicon Stable Diffusion работает через бэкенд MPS (Metal Performance Shaders) или Core ML. Способов несколько — выбирайте по уровню комфорта.
Способ 1: Draw Things (приложение из App Store)
Самый простой путь, если не хочется возиться с терминалом. Draw Things — бесплатное приложение из Mac App Store, которое умеет SD 1.5, SDXL, SD 3.5 и Flux. Управление в стиле Photoshop, модели качаются прямо из приложения. Работает на 8 ГБ unified memory с SD 1.5; для SDXL и старше — 16 ГБ и выше.
Способ 2: Diffusers через pip (для разработчиков)
Библиотека Diffusers от Hugging Face — официальный способ запуска современных моделей. Установка через Homebrew и pip:
brew install python@3.11 git
python3.11 -m venv sd-env
source sd-env/bin/activate
pip install --upgrade pip
pip install torch torchvision
pip install diffusers transformers accelerate safetensors
Минимальный скрипт для генерации с SDXL на Apple Silicon (файл sdxl_mac.py):
from diffusers import StableDiffusionXLPipeline
import torch
pipe = StableDiffusionXLPipeline.from_pretrained(
"stabilityai/stable-diffusion-xl-base-1.0",
torch_dtype=torch.float16,
variant="fp16"
)
pipe = pipe.to("mps")
image = pipe("a cat in a spacesuit, photorealistic", num_inference_steps=25).images[0]
image.save("output.png")
Запуск: python sdxl_mac.py. Первый запуск долгий — Diffusers скачает ~7 ГБ весов SDXL.
Способ 3: ComfyUI на Mac
Установка через git и pip:
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.11 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
python main.py --force-fp16
Флаг --force-fp16 экономит память на M-чипах. Откройте http://127.0.0.1:8188 в Safari.
Способ 4: Automatic1111 на Mac
Поддерживается официально, но требует Rosetta 2 и установки через Homebrew:
brew install cmake protobuf rust python@3.10 git wget
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui.sh
Скорость на Apple Silicon заметно ниже NVIDIA: M1 Pro 16 ГБ выдаёт примерно 1 итерацию SDXL в 4–6 секунд против 0.5–1 секунды на RTX 3060. Для серьёзной работы лучше нацеливаться на M2/M3/M4 Pro или Max с 24+ ГБ unified memory.
Установка на AMD GPU
AMD-карты на macOS x86 и Linux запускают SD через ROCm; на Windows — через DirectML или ZLUDA-обёртку. Все варианты медленнее NVIDIA на сопоставимом железе и требуют больше шагов для установки.
Windows + AMD: DirectML (самый простой путь)
DirectML работает поверх Direct3D 12, поэтому подойдёт почти любая видеокарта Radeon RX 5000/6000/7000 и встроенные GPU современных Ryzen. Берите форк A1111 от lshqqytiger:
git clone https://github.com/lshqqytiger/stable-diffusion-webui-amdgpu.git
cd stable-diffusion-webui-amdgpu
Откройте webui-user.bat и впишите аргументы:
set COMMANDLINE_ARGS=--use-directml --medvram --no-half --opt-sub-quad-attention
Запустите webui-user.bat. Для RX 6700 XT 12 GB генерация SD 1.5 в 512×512 идёт 6–10 секунд за изображение, SDXL 1024×1024 — 30–60 секунд. Числа сильно зависят от конкретного драйвера AMD Adrenalin и сборки PyTorch.
Windows + AMD: ZLUDA (быстрее DirectML)
ZLUDA — обёртка, которая транслирует CUDA-вызовы в HIP/ROCm. Прирост скорости 30–80% относительно DirectML. Поддерживается тот же форк A1111 для AMD: переключите аргумент --use-directml на --use-zluda. Подробная инструкция и список совместимых карт — в README репозитория lshqqytiger.
Linux + AMD: ROCm (максимальная производительность)
ROCm — официальный стек AMD для compute-задач. Поддерживается на Ubuntu 22.04/24.04 LTS. Установка ROCm 6.x по официальной инструкции с amd.com, затем:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
python3.10 -m venv venv
source venv/bin/activate
pip install torch torchvision --index-url https://download.pytorch.org/whl/rocm6.0
./webui.sh --precision full --no-half
Скорость на RX 7900 XTX в Linux + ROCm сопоставима с RTX 4070 Super на тех же моделях.
Настройка моделей: LoRA, VAE, embeddings
Что такое LoRA
LoRA (Low-Rank Adaptation) — это маленькие дополнения к основной модели, которые обучают её новым стилям, персонажам или концепциям. Размер LoRA — от 10 до 200 МБ (против 2-7 ГБ у полной модели).
Как использовать: скачайте LoRA и поместите в models/Lora/. В промпте добавьте <lora:имя_файла:0.8>, где 0.8 — сила воздействия (от 0 до 1).
Что такое VAE
VAE (Variational Autoencoder) отвечает за «декодирование» изображения — преобразование из скрытого пространства в пиксели. Правильный VAE улучшает цвета и чёткость. Рекомендуемые VAE:
- vae-ft-mse-840000 — для SD 1.5, улучшает цветопередачу
- sdxl_vae — для SDXL
Поместите VAE в models/VAE/ и выберите в настройках Web UI.
Embeddings (Textual Inversion)
Embeddings — это обученные концепции, которые можно вызывать ключевым словом. Например, EasyNegative — популярный негативный embedding, который добавляет набор «антипромптов» для улучшения качества. Поместите файлы в embeddings/.
Оптимизация под слабые видеокарты
Если у вас 4-6 ГБ VRAM, не отчаивайтесь. Вот настройки, которые помогут:
Аргументы запуска для A1111
Откройте webui-user.bat и добавьте в строку COMMANDLINE_ARGS:
| Аргумент | Экономия VRAM | Описание |
|---|---|---|
--medvram |
~2 GB | Разделяет модель на части, загружая по очереди |
--lowvram |
~4 GB | Ещё агрессивнее, но медленнее |
--xformers |
~1 GB | Оптимизированные вычисления внимания |
--opt-sdp-attention |
~1 GB | Альтернатива xformers для новых карт |
--no-half-vae |
-0.5 GB | Фикс чёрных изображений (жертвует памятью) |
Пример строки для 6 ГБ VRAM:
set COMMANDLINE_ARGS=--medvram --xformers
Пример строки для 4 ГБ VRAM:
set COMMANDLINE_ARGS=--lowvram --xformers --opt-split-attention
Другие способы экономии
- Используйте SD 1.5 вместо SDXL — потребляет в 2 раза меньше VRAM
- Уменьшите разрешение — 512×512 вместо 768×768
- Уменьшите Batch size до 1
- Используйте сэмплер Euler — быстрый и не требует много памяти
- Уменьшите количество шагов — 20 шагов обычно достаточно
Сравнение локальной установки и облачных сервисов
| Параметр | Локально (SD) | Midjourney | DALL-E 3 | Leonardo AI |
|---|---|---|---|---|
| Цена | Бесплатно | от $10/мес | от $20/мес (ChatGPT Plus) | от $10/мес |
| Лимит генераций | Без лимита | ~200/мес | ~50/день | 150 токенов/день |
| Кастомные модели | Да | Нет | Нет | Ограниченно |
| LoRA / ControlNet | Да | Нет | Нет | Частично |
| Скорость | 3-15 сек (зависит от GPU) | 10-60 сек | 10-30 сек | 10-30 сек |
| Доступ из РФ | Без ограничений | VPN нужен | VPN нужен | Работает |
| Цензура | Нет | Строгая | Строгая | Умеренная |
Troubleshooting: 10 частых ошибок и их решения
1. CUDA out of memory (torch.cuda.OutOfMemoryError)
Самая частая ошибка. Решения по убыванию эффективности: добавьте --medvram или --lowvram в COMMANDLINE_ARGS, уменьшите разрешение до 512×512 (для SD 1.5) или 768×768 (для SDXL), закройте браузер и Discord, перезапустите Web UI между большими генерациями. Если ошибка повторяется на SDXL — переключитесь на SD 1.5 или используйте Tiled VAE расширение.
2. Чёрные изображения (NaN errors на SDXL)
Чаще всего связано с VAE и FP16-точностью на видеокартах серии 16xx и Pascal. Решения: добавьте --no-half-vae в аргументы запуска, скачайте отдельный VAE (sdxl_vae.safetensors для SDXL) и подключите его в настройках, попробуйте флаг --upcast-sampling. Для GTX 16xx обязательно используйте --no-half --precision full.
3. NaN errors на SDXL и Flux
Проявляется как «модель сошла с ума» или «полностью чёрный/белый шум». Признак того, что внутри модели появились NaN-значения. Решения: установите --no-half-vae (исправляет в 80% случаев), отключите xformers (--xformers убрать), переключитесь на --opt-sdp-attention, в KSampler смените сэмплер с DPM++ 2M Karras на Euler a.
4. Несовместимая версия Python
A1111 официально поддерживает Python 3.10. Python 3.11 и 3.12 ломают зависимости. Если установлена «не та» версия — поставьте Python 3.10.x с python.org рядом со старой и пересоздайте venv. На Linux: python3.10 -m venv venv. Для SD 3.5 и Flux в ComfyUI нужен Python 3.11.
5. Ошибка при установке torch / xformers
Если pip не может скачать torch — установите вручную с правильным CUDA-индексом: pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121. Для CUDA 12.1 — cu121, для CUDA 11.8 — cu118. Проверить версию CUDA: команда nvidia-smi.
6. Модель не появляется в списке
Проверьте: файл лежит именно в models/Stable-diffusion/ (для A1111) или models/checkpoints/ (для ComfyUI), расширение .safetensors или .ckpt (не .zip и не .7z), путь не содержит русских букв и пробелов. После добавления нажмите кнопку обновления списка моделей в UI или перезапустите Web UI.
7. Очень медленная генерация (1+ минута на изображение)
Признаки: фактическое использование GPU около 0%, всё считает CPU. Проверьте через nvidia-smi, нагружается ли видеокарта. Лечится переустановкой PyTorch с правильным CUDA, удалением флага --use-cpu, обновлением драйвера NVIDIA до последней версии Studio. Если у вас ноутбук с гибридной графикой — принудительно назначьте Python и Web UI на дискретный GPU в настройках NVIDIA Control Panel.
8. xformers не устанавливается
В A1111 уберите --xformers и используйте --opt-sdp-attention вместо него. На современных RTX 30xx/40xx разница в скорости минимальная. Если хочется именно xformers, ставьте версию, совместимую с torch: pip install xformers==0.0.27 (для torch 2.4).
9. CivitAI не открывается из России
CivitAI и Hugging Face периодически становятся недоступны без VPN. Решения: используйте VPN на момент скачивания моделей, скачивайте через CDN-зеркала (некоторые модели дублированы на ModelScope), скачивайте через huggingface-cli download с прокси из переменных HTTP_PROXY/HTTPS_PROXY.
10. Web UI не открывается в браузере
Если по адресу http://127.0.0.1:7860 «страница недоступна» — посмотрите в консоль запуска: возможно, порт занят (Web UI напишет, какой реально использует). Альтернативные решения: добавьте --port 7861, отключите антивирус и брандмауэр на время теста, проверьте, что в консоли нет ошибок установки.
Базовые приёмы промптинга для Stable Diffusion
Качество результата на 60–70% определяет промпт. SD не понимает русский так же хорошо, как английский, поэтому промпты лучше писать на английском. Вот рабочая структура:
- Subject — главный объект сцены. Конкретно: «a young woman with long red hair», а не «a person».
- Style / Medium — стиль: «oil painting», «cinematic photo», «anime illustration», «3D render».
- Details — детали лица, одежды, окружения: «wearing a leather jacket», «autumn forest in the background».
- Lighting — освещение: «golden hour lighting», «soft studio light», «dramatic backlight».
- Quality boosters — добавки качества: «highly detailed», «8k», «sharp focus», «professional photography».
- Camera / Angle — для фото: «close-up portrait», «wide-angle shot», «from below».
Что писать в Negative prompt
Негативный промпт убирает то, чего модель часто добавляет «по умолчанию». Стандартный набор для SD 1.5:
blurry, low quality, low resolution, watermark, text, signature, jpeg artifacts, deformed, ugly, bad anatomy, extra fingers, mutated hands, cropped
Для SDXL и SD 3.5 негатив можно делать короче — модели сами знают, что такое «качественное изображение»:
low quality, blurry, deformed, text, watermark
Веса в промптах
В A1111 сила слова управляется скобками: (red dress:1.3) — усилить в 1.3 раза, (red dress:0.7) — ослабить. В ComfyUI вес задаётся аналогично. Не злоупотребляйте — значения выше 1.5 обычно ломают композицию.
ControlNet и LoRA — что попробовать после первого изображения
ControlNet — управление композицией
ControlNet — расширение, которое позволяет задавать позу персонажа, контуры объектов, глубину сцены. Принцип: вы загружаете эталонное изображение, ControlNet извлекает из него «скелет» (позу, края, карту глубины), и SD генерирует новое изображение, повторяя этот скелет. Популярные ControlNet-модели:
- OpenPose — повторяет позу человека с эталона.
- Canny — генерирует по границам объектов.
- Depth — повторяет глубину сцены.
- Lineart — раскрашивает чёрно-белые контурные рисунки.
- Tile — для апскейла с сохранением деталей.
В A1111 ControlNet ставится через extensions; в ComfyUI — через ComfyUI Manager. Модели качаются с Hugging Face (репозиторий lllyasviel/ControlNet-v1-1 для SD 1.5 и diffusers/controlnet-canny-sdxl-1.0 для SDXL).
LoRA — стилизация и характеры
LoRA (Low-Rank Adaptation) — небольшие файлы 50–250 МБ, которые «дотюнивают» базовую модель под конкретный стиль или персонажа. Использование в A1111: добавьте в промпт <lora:имя_файла:0.8>, где 0.8 — сила (от 0 до 1.5). В ComfyUI — через ноду Load LoRA между Load Checkpoint и CLIP Text Encode.
Ищите LoRA на CivitAI: тысячи стилей от карандашного скетча до конкретного аниме-сериала или художника. Перед коммерческим использованием обязательно проверьте лицензию конкретной LoRA — некоторые запрещают коммерцию.
Apскейл: как получить высокое разрешение
Прямая генерация в 4K на большинстве GPU невозможна — не хватит VRAM. Стандартный pipeline:
- Сгенерируйте базовое изображение в 512×768 (SD 1.5) или 1024×1024 (SDXL).
- Используйте Hires.fix в A1111 или ноду Latent Upscale в ComfyUI для апскейла в 2×.
- Добавьте второй проход img2img с
denoise=0.3–0.5— добавит детали, не ломая композицию. - Финальный апскейл моделями RealESRGAN, 4x-UltraSharp или SwinIR для перехода в 4K и выше.
Для апскейла моделей качайте RealESRGAN_x4plus.pth с GitHub xinntao и кладите в models/ESRGAN/ (A1111) или models/upscale_models/ (ComfyUI).
Что генерировать первым: тестовый промпт
Для проверки, что всё работает, попробуйте этот промпт:
Positive: a beautiful landscape with mountains, lake, sunset, photorealistic, 8k, detailed
Negative: blurry, low quality, watermark, text, deformed
Steps: 25, Sampler: Euler a, CFG: 7, Size: 512x512
Если картинка получилась — поздравляем, у вас работающая локальная нейросеть для генерации изображений!
FAQ
Сколько весит Stable Diffusion на диске?
Сам Web UI с зависимостями — около 8–10 ГБ. Одна базовая модель SD 1.5 — 2–4 ГБ, SDXL — 6–7 ГБ, SD 3.5 Large — 16 ГБ, Flux.1 Dev — 12–24 ГБ в зависимости от точности. С парой LoRA, ControlNet и VAE средняя установка набирает 50–80 ГБ. Под полноценную работу с разными моделями закладывайте 100+ ГБ.
Можно ли запустить Stable Diffusion без видеокарты?
Да, но придётся потерпеть. CPU-режим работает через флаг --use-cpu all в A1111 или OpenVINO-сборку для Intel-процессоров. Скорость: 1–3 минуты на изображение SD 1.5 в 512×512 на современном Ryzen 7. SDXL и SD 3.5 на CPU практически непригодны. Альтернатива — Google Colab с бесплатным T4 GPU или облачная аренда GPU.
Stable Diffusion бесплатный?
Да, веса моделей и Web UI бесплатны. SD 1.5 и SDXL под лицензией OpenRAIL-M разрешают коммерческое использование. SD 3.5 — Stability AI Community License: бесплатно для личного и коммерческого использования при выручке до 1 млн долларов в год. Платные расходы — только электричество и при желании облачное GPU.
Подходит ли Stable Diffusion для русского языка?
Базовые модели SD 1.5/SDXL/3.5 обучены преимущественно на английских описаниях. Промпты на русском работают, но качество ниже: модель чаще путает понятия и игнорирует детали. Решения: пишите промпты на английском (можно переводить через ChatGPT или Яндекс Переводчик), используйте Kandinsky от Сбера — он специально обучен на русском. SD 3.5 заметно лучше справляется с русским, чем SD 1.5.
Почему генерация очень медленная?
Чек-лист: проверьте через nvidia-smi, использует ли GPU вообще; обновите драйверы NVIDIA до Studio Driver; на ноутбуке принудительно переключите процесс Python на дискретный GPU; уберите флаг --lowvram, если у вас 8+ ГБ VRAM (он замедляет); переключитесь с DPM++ 2M на Euler a (быстрее в 2 раза при сопоставимом качестве).
Можно ли использовать сгенерированные изображения коммерчески?
Лицензии моделей разрешают, но есть нюансы: проверьте лицензию конкретной кастомной модели на CivitAI (некоторые имеют ограничения), не используйте чужие LoRA-файнтьюны для имитации стиля живых художников, для коммерческих проектов в РФ закладывайте, что суды пока не выработали практики по AI-контенту.
Какая видеокарта оптимальна по цене и производительности?
На начало 2026 года лучший баланс — RTX 3060 12 GB на вторичке или RTX 4060 Ti 16 GB новая. Для серьёзной работы с SDXL и SD 3.5 — RTX 4070 Super 12 GB. Для Flux в нативном разрешении — RTX 4090 24 GB или RTX 5090. AMD оптимально только в Linux с ROCm на RX 7900 XTX.
Что делать, если модель генерирует мусор / шум?
Возможные причины: несовместимый VAE (для SDXL обязательно sdxl_vae), неправильный сэмплер (попробуйте Euler a с CFG 7), слишком мало шагов (минимум 20 для SD 1.5, 25–30 для SDXL), модель не догрузилась (перезапустите Web UI), повреждён файл модели (скачайте заново и проверьте SHA-256).
Итог
Установка Stable Diffusion локально в 2026 году занимает 20–40 минут и не требует глубоких технических знаний. Даже видеокарта с 6 ГБ VRAM позволяет получать достойные результаты на SD 1.5. С RTX 3060 или мощнее открываются SDXL и SD 3.5; на Apple Silicon с 16+ ГБ unified memory тоже всё работает, хоть и медленнее.
Следующий шаг: освоить ComfyUI для продвинутых воркфлоу, сравнить локальные LLM в гайде Ollama vs LM Studio или собрать стек для офлайн-AI на одной машине. Для готовых инструментов и моделей загляните в карточку Stable Diffusion в каталоге.
Каталог нейросетей для генерации: Смотреть все инструменты →