Stable Diffusion — одна из немногих мощных нейросетей для генерации изображений, которую можно запустить на своём компьютере совершенно бесплатно. Никаких подписок, лимитов и цензуры — полный контроль над процессом. В этом гайде мы разберём всё: от системных требований до тонкой настройки моделей и оптимизации под скромное железо.
Зачем запускать Stable Diffusion локально
Облачные сервисы вроде Midjourney или DALL-E 3 удобны, но у локального запуска есть серьёзные преимущества:
- Бесплатно навсегда — никаких подписок, платите только за электричество
- Без цензуры — вы контролируете, что генерировать (полезно для художников, работающих с анатомией, батальными сценами и т.д.)
- Приватность — ваши промпты и изображения не уходят на чужие серверы
- Гибкость — кастомные модели, LoRA, ControlNet, расширения
- Скорость — на хорошей видеокарте генерация за 3-5 секунд
- Пакетная генерация — 100 картинок за ночь без лимитов
Системные требования
Главное ограничение — видеокарта. Stable Diffusion использует GPU для вычислений, и от видеопамяти (VRAM) зависит, какие модели вы сможете запускать и в каком разрешении.
Минимальные и рекомендуемые требования
| Компонент | Минимум | Рекомендуется | Идеал |
|---|---|---|---|
| GPU (NVIDIA) | GTX 1060 6 GB | RTX 3060 12 GB | RTX 4070 Ti 12 GB+ |
| VRAM | 6 GB | 12 GB | 16+ GB |
| RAM | 8 GB | 16 GB | 32 GB |
| Диск | 20 GB (SSD) | 50 GB (NVMe SSD) | 100+ GB (NVMe SSD) |
| CPU | 4 ядра | 6+ ядер | 8+ ядер |
| ОС | Windows 10 / Linux | Windows 11 / Ubuntu 22.04+ | Linux (Ubuntu / Arch) |
Важно: карты AMD тоже работают, но через DirectML или ROCm (Linux). Настройка сложнее и скорость ниже. Для NVIDIA всё работает «из коробки» через CUDA.
Сколько VRAM нужно для разных моделей
| Модель | VRAM (512×512) | VRAM (1024×1024) | Особенности |
|---|---|---|---|
| SD 1.5 | 4 GB | 6 GB | Лёгкая, много кастомных моделей |
| SDXL | 6 GB | 10 GB | Высокое качество, медленнее |
| SD 3.5 | 8 GB | 12 GB | Новейшая, лучшее понимание промптов |
| Flux | 10 GB | 16 GB | Топ-качество, требовательна |
Способ 1: Установка через Automatic1111 (EASY)
Automatic1111 (он же A1111, он же Stable Diffusion Web UI) — самый популярный интерфейс. Простой в установке, огромное сообщество, тысячи расширений.
Шаг 1: Установите Python
Скачайте Python 3.10.x (именно 3.10 — более новые версии могут вызвать проблемы) с python.org. При установке обязательно поставьте галочку «Add Python to PATH».
Шаг 2: Установите Git
Скачайте Git с git-scm.com и установите с настройками по умолчанию.
Шаг 3: Клонируйте репозиторий
Откройте командную строку (или PowerShell) и выполните:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
Шаг 4: Скачайте модель
Скачайте файл модели (checkpoint) и поместите его в папку models/Stable-diffusion/. Рекомендуемые стартовые модели:
- Realistic Vision v6 — для фотореалистичных изображений
- DreamShaper v8 — универсальная, отличный баланс качества
- SDXL Base — официальная модель SDXL от Stability AI
Модели можно скачать на CivitAI или HuggingFace.
Шаг 5: Запуск
Запустите файл webui-user.bat (Windows) или webui.sh (Linux). Первый запуск займёт 10-15 минут — скачаются зависимости. После запуска откройте в браузере http://127.0.0.1:7860.
Способ 2: Установка ComfyUI (PRO)
ComfyUI — альтернативный интерфейс на базе нодов (узлов). Он быстрее A1111, потребляет меньше VRAM и даёт больше контроля. Подробнее — в нашем гайде по ComfyUI.
Быстрая установка ComfyUI
- Скачайте готовую сборку с GitHub ComfyUI
- Распакуйте архив
- Поместите модели в
models/checkpoints/ - Запустите
run_nvidia_gpu.bat - Откройте
http://127.0.0.1:8188
Настройка моделей: LoRA, VAE, embeddings
Что такое LoRA
LoRA (Low-Rank Adaptation) — это маленькие дополнения к основной модели, которые обучают её новым стилям, персонажам или концепциям. Размер LoRA — от 10 до 200 МБ (против 2-7 ГБ у полной модели).
Как использовать: скачайте LoRA и поместите в models/Lora/. В промпте добавьте <lora:имя_файла:0.8>, где 0.8 — сила воздействия (от 0 до 1).
Что такое VAE
VAE (Variational Autoencoder) отвечает за «декодирование» изображения — преобразование из скрытого пространства в пиксели. Правильный VAE улучшает цвета и чёткость. Рекомендуемые VAE:
- vae-ft-mse-840000 — для SD 1.5, улучшает цветопередачу
- sdxl_vae — для SDXL
Поместите VAE в models/VAE/ и выберите в настройках Web UI.
Embeddings (Textual Inversion)
Embeddings — это обученные концепции, которые можно вызывать ключевым словом. Например, EasyNegative — популярный негативный embedding, который добавляет набор «антипромптов» для улучшения качества. Поместите файлы в embeddings/.
Оптимизация под слабые видеокарты
Если у вас 4-6 ГБ VRAM, не отчаивайтесь. Вот настройки, которые помогут:
Аргументы запуска для A1111
Откройте webui-user.bat и добавьте в строку COMMANDLINE_ARGS:
| Аргумент | Экономия VRAM | Описание |
|---|---|---|
--medvram |
~2 GB | Разделяет модель на части, загружая по очереди |
--lowvram |
~4 GB | Ещё агрессивнее, но медленнее |
--xformers |
~1 GB | Оптимизированные вычисления внимания |
--opt-sdp-attention |
~1 GB | Альтернатива xformers для новых карт |
--no-half-vae |
-0.5 GB | Фикс чёрных изображений (жертвует памятью) |
Пример строки для 6 ГБ VRAM:
set COMMANDLINE_ARGS=--medvram --xformers
Пример строки для 4 ГБ VRAM:
set COMMANDLINE_ARGS=--lowvram --xformers --opt-split-attention
Другие способы экономии
- Используйте SD 1.5 вместо SDXL — потребляет в 2 раза меньше VRAM
- Уменьшите разрешение — 512×512 вместо 768×768
- Уменьшите Batch size до 1
- Используйте сэмплер Euler — быстрый и не требует много памяти
- Уменьшите количество шагов — 20 шагов обычно достаточно
Сравнение локальной установки и облачных сервисов
| Параметр | Локально (SD) | Midjourney | DALL-E 3 | Leonardo AI |
|---|---|---|---|---|
| Цена | Бесплатно | от $10/мес | от $20/мес (ChatGPT Plus) | от $10/мес |
| Лимит генераций | Без лимита | ~200/мес | ~50/день | 150 токенов/день |
| Кастомные модели | Да | Нет | Нет | Ограниченно |
| LoRA / ControlNet | Да | Нет | Нет | Частично |
| Скорость | 3-15 сек (зависит от GPU) | 10-60 сек | 10-30 сек | 10-30 сек |
| Доступ из РФ | Без ограничений | VPN нужен | VPN нужен | Работает |
| Цензура | Нет | Строгая | Строгая | Умеренная |
Частые проблемы и решения
CUDA out of memory
Самая частая ошибка. Решения: добавьте --medvram или --lowvram, уменьшите разрешение, закройте браузер и другие программы, использующие GPU.
Чёрные изображения
Добавьте аргумент --no-half-vae или скачайте и выберите подходящий VAE.
Ошибка при установке зависимостей
Убедитесь, что у вас Python 3.10 (не 3.11+) и актуальная версия Git. Если ошибка связана с torch — установите вручную через pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121.
Модель не появляется в списке
Проверьте, что файл модели (.safetensors или .ckpt) находится именно в models/Stable-diffusion/. Нажмите кнопку обновления списка моделей в Web UI.
Что генерировать первым: тестовый промпт
Для проверки, что всё работает, попробуйте этот промпт:
Positive: a beautiful landscape with mountains, lake, sunset, photorealistic, 8k, detailed
Negative: blurry, low quality, watermark, text, deformed
Steps: 25, Sampler: Euler a, CFG: 7, Size: 512x512
Если картинка получилась — поздравляем, у вас работающая локальная нейросеть для генерации изображений!
Итог
Установка Stable Diffusion локально в 2026 году — это вопрос 20-30 минут и минимальных технических знаний. Даже видеокарта с 6 ГБ VRAM позволяет получать достойные результаты. А если у вас RTX 3060 или мощнее — вы получите инструмент, который не уступает платным облачным сервисам, но без ограничений и подписок.
Следующий шаг: освоить ComfyUI для продвинутых воркфлоу или сравнить нейросети в нашем обзоре генераторов изображений.
Каталог нейросетей для генерации: Смотреть все инструменты →