🗺️ Гид18 мин26 марта 2026 г.

Stable Diffusion: установка локально на Windows/Mac/Linux в 2026

Пошаговая установка SD 1.5/SDXL/3.5 локально на NVIDIA, AMD и Apple Silicon. Системные требования, выбор модели, troubleshooting OutOfMemory и FAQ.

Обновлено: 2026-05-01

TL;DR

Stable Diffusion запускается локально на трёх платформах: Windows и Linux с NVIDIA/AMD GPU, macOS на Apple Silicon. Для старта достаточно 6 ГБ VRAM и SD 1.5; для SDXL комфортно от 8–10 ГБ, для SD 3.5 — от 10–12 ГБ. Самый простой путь под Windows — установщик Stability Matrix или портативная сборка Automatic1111/ComfyUI; на Mac — приложение Draw Things либо diffusers через pip; на AMD — DirectML под Windows или ROCm под Linux.

Зачем запускать Stable Diffusion локально

Облачные сервисы вроде Midjourney или DALL-E 3 удобны, но у локального запуска есть серьёзные преимущества:

  • Бесплатно навсегда — никаких подписок, платите только за электричество
  • Без цензуры — вы контролируете, что генерировать (полезно для художников, работающих с анатомией, батальными сценами и т.д.)
  • Приватность — ваши промпты и изображения не уходят на чужие серверы
  • Гибкость — кастомные модели, LoRA, ControlNet, расширения
  • Скорость — на хорошей видеокарте генерация за 3-5 секунд
  • Пакетная генерация — 100 картинок за ночь без лимитов

Системные требования

Главное ограничение — видеокарта. Stable Diffusion использует GPU для вычислений, и от видеопамяти (VRAM) зависит, какие модели вы сможете запускать и в каком разрешении.

Минимальные и рекомендуемые требования по платформам

Платформа / GPU Минимум VRAM Рекомендуется ОС Бэкенд
NVIDIA (Windows/Linux) 4 ГБ (GTX 1050 Ti) 12 ГБ (RTX 3060/4060) Windows 10/11, Ubuntu 22.04+ CUDA 12.x
AMD (Windows) 6 ГБ (RX 580 8 GB и выше) 16 ГБ (RX 7800 XT/7900 XT) Windows 10/11 DirectML / ZLUDA
AMD (Linux) 8 ГБ (RX 6700 XT) 16 ГБ (RX 7900 XTX) Ubuntu 22.04+ с ROCm 6.x ROCm
Apple Silicon 16 ГБ unified memory (M1/M2) 24+ ГБ unified memory (M3/M4 Pro) macOS 14 Sonoma+ MPS / Core ML
CPU only (любая ОС) 16 ГБ RAM 32 ГБ RAM Любая OpenVINO / CPU

Дополнительно к GPU понадобится: 16 ГБ оперативной памяти (рекомендуется 32 ГБ), SSD на 50–100 ГБ под модели (одна SDXL-модель — 6–7 ГБ, Flux — 12–24 ГБ), Python 3.10 (3.11 — для Flux и SD 3.5).

Сколько VRAM нужно для разных моделей

Модель VRAM (512×512) VRAM (1024×1024) Особенности
SD 1.5 4 GB 6 GB Лёгкая, много кастомных моделей
SDXL 1.0 6 GB 10 GB Высокое качество, медленнее
SD 3.5 Medium 6 GB 9–10 GB Хорошее понимание промптов
SD 3.5 Large 10 GB 16 GB Топ-качество в линейке SD
Flux.1 Dev 12 GB 20–24 GB Лучшая текстура и анатомия, требовательна

Какую модель выбрать в 2026: SD 1.5 vs SDXL vs SD 3.5

На рынке три актуальных поколения Stable Diffusion от Stability AI. SD 4 пока официально не выходила — если кто-то предлагает «скачать SD 4», это либо ребрендинг существующих моделей, либо мошенничество. Сравним то, что реально доступно.

Критерий SD 1.5 SDXL 1.0 SD 3.5 Medium / Large
Качество и детализация Среднее, требует LoRA и негативов Хорошее, плотный кадр Лучшее в линейке, чище мелкие детали
VRAM в 1024×1024 6 ГБ 10 ГБ 9–10 / 16 ГБ
Скорость на RTX 3060 12 GB 1–2 с/шаг при 512×512 2–4 с/шаг при 1024×1024 3–6 с/шаг при 1024×1024
Размер кастомных моделей и LoRA Огромная экосистема, тысячи моделей Большая, активно растёт Развивается, моделей пока меньше
Лицензия (по данным stability.ai) OpenRAIL-M, разрешает коммерцию OpenRAIL-M, разрешает коммерцию Stability AI Community License: бесплатно для использования и для бизнеса с выручкой до $1 млн/год

Кратко: для слабых GPU и обучения собственных LoRA берите SD 1.5. Для универсальной генерации с приличным качеством — SDXL. Для современных промптов с текстом и сложной композицией — SD 3.5 Medium (если 10 ГБ VRAM есть) или SD 3.5 Large (от 16 ГБ).

Важно: карты AMD тоже работают, но через DirectML или ROCm. Настройка сложнее, и скорость обычно ниже NVIDIA на сопоставимом уровне. Для NVIDIA всё работает «из коробки» через CUDA.

Способ 1: Установка через Automatic1111 (EASY)

Automatic1111 (он же A1111, он же Stable Diffusion Web UI) — самый популярный интерфейс. Простой в установке, огромное сообщество, тысячи расширений.

Шаг 1: Установите Python

Скачайте Python 3.10.x (именно 3.10 — более новые версии могут вызвать проблемы) с python.org. При установке обязательно поставьте галочку «Add Python to PATH».

Шаг 2: Установите Git

Скачайте Git с git-scm.com и установите с настройками по умолчанию.

Шаг 3: Клонируйте репозиторий

Откройте командную строку (или PowerShell) и выполните:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

Шаг 4: Скачайте модель

Скачайте файл модели (checkpoint) и поместите его в папку models/Stable-diffusion/. Рекомендуемые стартовые модели:

  • Realistic Vision v6 — для фотореалистичных изображений
  • DreamShaper v8 — универсальная, отличный баланс качества
  • SDXL Base — официальная модель SDXL от Stability AI

Модели можно скачать на CivitAI или HuggingFace.

Шаг 5: Запуск

Запустите файл webui-user.bat (Windows) или webui.sh (Linux). Первый запуск займёт 10-15 минут — скачаются зависимости. После запуска откройте в браузере http://127.0.0.1:7860.

Способ 2: Установка ComfyUI (PRO)

ComfyUI — альтернативный интерфейс на базе нодов (узлов). Он быстрее A1111, потребляет меньше VRAM и даёт больше контроля. Подробнее — в нашем гайде по ComfyUI.

Быстрая установка ComfyUI

  1. Скачайте готовую сборку с GitHub ComfyUI
  2. Распакуйте архив
  3. Поместите модели в models/checkpoints/
  4. Запустите run_nvidia_gpu.bat
  5. Откройте http://127.0.0.1:8188

Установка на Apple Silicon (M1/M2/M3/M4)

На Mac с чипами Apple Silicon Stable Diffusion работает через бэкенд MPS (Metal Performance Shaders) или Core ML. Способов несколько — выбирайте по уровню комфорта.

Способ 1: Draw Things (приложение из App Store)

Самый простой путь, если не хочется возиться с терминалом. Draw Things — бесплатное приложение из Mac App Store, которое умеет SD 1.5, SDXL, SD 3.5 и Flux. Управление в стиле Photoshop, модели качаются прямо из приложения. Работает на 8 ГБ unified memory с SD 1.5; для SDXL и старше — 16 ГБ и выше.

Способ 2: Diffusers через pip (для разработчиков)

Библиотека Diffusers от Hugging Face — официальный способ запуска современных моделей. Установка через Homebrew и pip:

brew install python@3.11 git
python3.11 -m venv sd-env
source sd-env/bin/activate
pip install --upgrade pip
pip install torch torchvision
pip install diffusers transformers accelerate safetensors

Минимальный скрипт для генерации с SDXL на Apple Silicon (файл sdxl_mac.py):

from diffusers import StableDiffusionXLPipeline
import torch

pipe = StableDiffusionXLPipeline.from_pretrained(
    "stabilityai/stable-diffusion-xl-base-1.0",
    torch_dtype=torch.float16,
    variant="fp16"
)
pipe = pipe.to("mps")

image = pipe("a cat in a spacesuit, photorealistic", num_inference_steps=25).images[0]
image.save("output.png")

Запуск: python sdxl_mac.py. Первый запуск долгий — Diffusers скачает ~7 ГБ весов SDXL.

Способ 3: ComfyUI на Mac

Установка через git и pip:

git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.11 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
python main.py --force-fp16

Флаг --force-fp16 экономит память на M-чипах. Откройте http://127.0.0.1:8188 в Safari.

Способ 4: Automatic1111 на Mac

Поддерживается официально, но требует Rosetta 2 и установки через Homebrew:

brew install cmake protobuf rust python@3.10 git wget
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui.sh

Скорость на Apple Silicon заметно ниже NVIDIA: M1 Pro 16 ГБ выдаёт примерно 1 итерацию SDXL в 4–6 секунд против 0.5–1 секунды на RTX 3060. Для серьёзной работы лучше нацеливаться на M2/M3/M4 Pro или Max с 24+ ГБ unified memory.

Установка на AMD GPU

AMD-карты на macOS x86 и Linux запускают SD через ROCm; на Windows — через DirectML или ZLUDA-обёртку. Все варианты медленнее NVIDIA на сопоставимом железе и требуют больше шагов для установки.

Windows + AMD: DirectML (самый простой путь)

DirectML работает поверх Direct3D 12, поэтому подойдёт почти любая видеокарта Radeon RX 5000/6000/7000 и встроенные GPU современных Ryzen. Берите форк A1111 от lshqqytiger:

git clone https://github.com/lshqqytiger/stable-diffusion-webui-amdgpu.git
cd stable-diffusion-webui-amdgpu

Откройте webui-user.bat и впишите аргументы:

set COMMANDLINE_ARGS=--use-directml --medvram --no-half --opt-sub-quad-attention

Запустите webui-user.bat. Для RX 6700 XT 12 GB генерация SD 1.5 в 512×512 идёт 6–10 секунд за изображение, SDXL 1024×1024 — 30–60 секунд. Числа сильно зависят от конкретного драйвера AMD Adrenalin и сборки PyTorch.

Windows + AMD: ZLUDA (быстрее DirectML)

ZLUDA — обёртка, которая транслирует CUDA-вызовы в HIP/ROCm. Прирост скорости 30–80% относительно DirectML. Поддерживается тот же форк A1111 для AMD: переключите аргумент --use-directml на --use-zluda. Подробная инструкция и список совместимых карт — в README репозитория lshqqytiger.

Linux + AMD: ROCm (максимальная производительность)

ROCm — официальный стек AMD для compute-задач. Поддерживается на Ubuntu 22.04/24.04 LTS. Установка ROCm 6.x по официальной инструкции с amd.com, затем:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
python3.10 -m venv venv
source venv/bin/activate
pip install torch torchvision --index-url https://download.pytorch.org/whl/rocm6.0
./webui.sh --precision full --no-half

Скорость на RX 7900 XTX в Linux + ROCm сопоставима с RTX 4070 Super на тех же моделях.

Настройка моделей: LoRA, VAE, embeddings

Что такое LoRA

LoRA (Low-Rank Adaptation) — это маленькие дополнения к основной модели, которые обучают её новым стилям, персонажам или концепциям. Размер LoRA — от 10 до 200 МБ (против 2-7 ГБ у полной модели).

Как использовать: скачайте LoRA и поместите в models/Lora/. В промпте добавьте <lora:имя_файла:0.8>, где 0.8 — сила воздействия (от 0 до 1).

Что такое VAE

VAE (Variational Autoencoder) отвечает за «декодирование» изображения — преобразование из скрытого пространства в пиксели. Правильный VAE улучшает цвета и чёткость. Рекомендуемые VAE:

  • vae-ft-mse-840000 — для SD 1.5, улучшает цветопередачу
  • sdxl_vae — для SDXL

Поместите VAE в models/VAE/ и выберите в настройках Web UI.

Embeddings (Textual Inversion)

Embeddings — это обученные концепции, которые можно вызывать ключевым словом. Например, EasyNegative — популярный негативный embedding, который добавляет набор «антипромптов» для улучшения качества. Поместите файлы в embeddings/.

Оптимизация под слабые видеокарты

Если у вас 4-6 ГБ VRAM, не отчаивайтесь. Вот настройки, которые помогут:

Аргументы запуска для A1111

Откройте webui-user.bat и добавьте в строку COMMANDLINE_ARGS:

Аргумент Экономия VRAM Описание
--medvram ~2 GB Разделяет модель на части, загружая по очереди
--lowvram ~4 GB Ещё агрессивнее, но медленнее
--xformers ~1 GB Оптимизированные вычисления внимания
--opt-sdp-attention ~1 GB Альтернатива xformers для новых карт
--no-half-vae -0.5 GB Фикс чёрных изображений (жертвует памятью)

Пример строки для 6 ГБ VRAM:

set COMMANDLINE_ARGS=--medvram --xformers

Пример строки для 4 ГБ VRAM:

set COMMANDLINE_ARGS=--lowvram --xformers --opt-split-attention

Другие способы экономии

  • Используйте SD 1.5 вместо SDXL — потребляет в 2 раза меньше VRAM
  • Уменьшите разрешение — 512×512 вместо 768×768
  • Уменьшите Batch size до 1
  • Используйте сэмплер Euler — быстрый и не требует много памяти
  • Уменьшите количество шагов — 20 шагов обычно достаточно

Сравнение локальной установки и облачных сервисов

Параметр Локально (SD) Midjourney DALL-E 3 Leonardo AI
Цена Бесплатно от $10/мес от $20/мес (ChatGPT Plus) от $10/мес
Лимит генераций Без лимита ~200/мес ~50/день 150 токенов/день
Кастомные модели Да Нет Нет Ограниченно
LoRA / ControlNet Да Нет Нет Частично
Скорость 3-15 сек (зависит от GPU) 10-60 сек 10-30 сек 10-30 сек
Доступ из РФ Без ограничений VPN нужен VPN нужен Работает
Цензура Нет Строгая Строгая Умеренная

Troubleshooting: 10 частых ошибок и их решения

1. CUDA out of memory (torch.cuda.OutOfMemoryError)

Самая частая ошибка. Решения по убыванию эффективности: добавьте --medvram или --lowvram в COMMANDLINE_ARGS, уменьшите разрешение до 512×512 (для SD 1.5) или 768×768 (для SDXL), закройте браузер и Discord, перезапустите Web UI между большими генерациями. Если ошибка повторяется на SDXL — переключитесь на SD 1.5 или используйте Tiled VAE расширение.

2. Чёрные изображения (NaN errors на SDXL)

Чаще всего связано с VAE и FP16-точностью на видеокартах серии 16xx и Pascal. Решения: добавьте --no-half-vae в аргументы запуска, скачайте отдельный VAE (sdxl_vae.safetensors для SDXL) и подключите его в настройках, попробуйте флаг --upcast-sampling. Для GTX 16xx обязательно используйте --no-half --precision full.

3. NaN errors на SDXL и Flux

Проявляется как «модель сошла с ума» или «полностью чёрный/белый шум». Признак того, что внутри модели появились NaN-значения. Решения: установите --no-half-vae (исправляет в 80% случаев), отключите xformers (--xformers убрать), переключитесь на --opt-sdp-attention, в KSampler смените сэмплер с DPM++ 2M Karras на Euler a.

4. Несовместимая версия Python

A1111 официально поддерживает Python 3.10. Python 3.11 и 3.12 ломают зависимости. Если установлена «не та» версия — поставьте Python 3.10.x с python.org рядом со старой и пересоздайте venv. На Linux: python3.10 -m venv venv. Для SD 3.5 и Flux в ComfyUI нужен Python 3.11.

5. Ошибка при установке torch / xformers

Если pip не может скачать torch — установите вручную с правильным CUDA-индексом: pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121. Для CUDA 12.1 — cu121, для CUDA 11.8 — cu118. Проверить версию CUDA: команда nvidia-smi.

6. Модель не появляется в списке

Проверьте: файл лежит именно в models/Stable-diffusion/ (для A1111) или models/checkpoints/ (для ComfyUI), расширение .safetensors или .ckpt (не .zip и не .7z), путь не содержит русских букв и пробелов. После добавления нажмите кнопку обновления списка моделей в UI или перезапустите Web UI.

7. Очень медленная генерация (1+ минута на изображение)

Признаки: фактическое использование GPU около 0%, всё считает CPU. Проверьте через nvidia-smi, нагружается ли видеокарта. Лечится переустановкой PyTorch с правильным CUDA, удалением флага --use-cpu, обновлением драйвера NVIDIA до последней версии Studio. Если у вас ноутбук с гибридной графикой — принудительно назначьте Python и Web UI на дискретный GPU в настройках NVIDIA Control Panel.

8. xformers не устанавливается

В A1111 уберите --xformers и используйте --opt-sdp-attention вместо него. На современных RTX 30xx/40xx разница в скорости минимальная. Если хочется именно xformers, ставьте версию, совместимую с torch: pip install xformers==0.0.27 (для torch 2.4).

9. CivitAI не открывается из России

CivitAI и Hugging Face периодически становятся недоступны без VPN. Решения: используйте VPN на момент скачивания моделей, скачивайте через CDN-зеркала (некоторые модели дублированы на ModelScope), скачивайте через huggingface-cli download с прокси из переменных HTTP_PROXY/HTTPS_PROXY.

10. Web UI не открывается в браузере

Если по адресу http://127.0.0.1:7860 «страница недоступна» — посмотрите в консоль запуска: возможно, порт занят (Web UI напишет, какой реально использует). Альтернативные решения: добавьте --port 7861, отключите антивирус и брандмауэр на время теста, проверьте, что в консоли нет ошибок установки.

Базовые приёмы промптинга для Stable Diffusion

Качество результата на 60–70% определяет промпт. SD не понимает русский так же хорошо, как английский, поэтому промпты лучше писать на английском. Вот рабочая структура:

  1. Subject — главный объект сцены. Конкретно: «a young woman with long red hair», а не «a person».
  2. Style / Medium — стиль: «oil painting», «cinematic photo», «anime illustration», «3D render».
  3. Details — детали лица, одежды, окружения: «wearing a leather jacket», «autumn forest in the background».
  4. Lighting — освещение: «golden hour lighting», «soft studio light», «dramatic backlight».
  5. Quality boosters — добавки качества: «highly detailed», «8k», «sharp focus», «professional photography».
  6. Camera / Angle — для фото: «close-up portrait», «wide-angle shot», «from below».

Что писать в Negative prompt

Негативный промпт убирает то, чего модель часто добавляет «по умолчанию». Стандартный набор для SD 1.5:

blurry, low quality, low resolution, watermark, text, signature, jpeg artifacts, deformed, ugly, bad anatomy, extra fingers, mutated hands, cropped

Для SDXL и SD 3.5 негатив можно делать короче — модели сами знают, что такое «качественное изображение»:

low quality, blurry, deformed, text, watermark

Веса в промптах

В A1111 сила слова управляется скобками: (red dress:1.3) — усилить в 1.3 раза, (red dress:0.7) — ослабить. В ComfyUI вес задаётся аналогично. Не злоупотребляйте — значения выше 1.5 обычно ломают композицию.

ControlNet и LoRA — что попробовать после первого изображения

ControlNet — управление композицией

ControlNet — расширение, которое позволяет задавать позу персонажа, контуры объектов, глубину сцены. Принцип: вы загружаете эталонное изображение, ControlNet извлекает из него «скелет» (позу, края, карту глубины), и SD генерирует новое изображение, повторяя этот скелет. Популярные ControlNet-модели:

  • OpenPose — повторяет позу человека с эталона.
  • Canny — генерирует по границам объектов.
  • Depth — повторяет глубину сцены.
  • Lineart — раскрашивает чёрно-белые контурные рисунки.
  • Tile — для апскейла с сохранением деталей.

В A1111 ControlNet ставится через extensions; в ComfyUI — через ComfyUI Manager. Модели качаются с Hugging Face (репозиторий lllyasviel/ControlNet-v1-1 для SD 1.5 и diffusers/controlnet-canny-sdxl-1.0 для SDXL).

LoRA — стилизация и характеры

LoRA (Low-Rank Adaptation) — небольшие файлы 50–250 МБ, которые «дотюнивают» базовую модель под конкретный стиль или персонажа. Использование в A1111: добавьте в промпт <lora:имя_файла:0.8>, где 0.8 — сила (от 0 до 1.5). В ComfyUI — через ноду Load LoRA между Load Checkpoint и CLIP Text Encode.

Ищите LoRA на CivitAI: тысячи стилей от карандашного скетча до конкретного аниме-сериала или художника. Перед коммерческим использованием обязательно проверьте лицензию конкретной LoRA — некоторые запрещают коммерцию.

Apскейл: как получить высокое разрешение

Прямая генерация в 4K на большинстве GPU невозможна — не хватит VRAM. Стандартный pipeline:

  1. Сгенерируйте базовое изображение в 512×768 (SD 1.5) или 1024×1024 (SDXL).
  2. Используйте Hires.fix в A1111 или ноду Latent Upscale в ComfyUI для апскейла в 2×.
  3. Добавьте второй проход img2img с denoise=0.3–0.5 — добавит детали, не ломая композицию.
  4. Финальный апскейл моделями RealESRGAN, 4x-UltraSharp или SwinIR для перехода в 4K и выше.

Для апскейла моделей качайте RealESRGAN_x4plus.pth с GitHub xinntao и кладите в models/ESRGAN/ (A1111) или models/upscale_models/ (ComfyUI).

Что генерировать первым: тестовый промпт

Для проверки, что всё работает, попробуйте этот промпт:

Positive: a beautiful landscape with mountains, lake, sunset, photorealistic, 8k, detailed
Negative: blurry, low quality, watermark, text, deformed
Steps: 25, Sampler: Euler a, CFG: 7, Size: 512x512

Если картинка получилась — поздравляем, у вас работающая локальная нейросеть для генерации изображений!

FAQ

Сколько весит Stable Diffusion на диске?

Сам Web UI с зависимостями — около 8–10 ГБ. Одна базовая модель SD 1.5 — 2–4 ГБ, SDXL — 6–7 ГБ, SD 3.5 Large — 16 ГБ, Flux.1 Dev — 12–24 ГБ в зависимости от точности. С парой LoRA, ControlNet и VAE средняя установка набирает 50–80 ГБ. Под полноценную работу с разными моделями закладывайте 100+ ГБ.

Можно ли запустить Stable Diffusion без видеокарты?

Да, но придётся потерпеть. CPU-режим работает через флаг --use-cpu all в A1111 или OpenVINO-сборку для Intel-процессоров. Скорость: 1–3 минуты на изображение SD 1.5 в 512×512 на современном Ryzen 7. SDXL и SD 3.5 на CPU практически непригодны. Альтернатива — Google Colab с бесплатным T4 GPU или облачная аренда GPU.

Stable Diffusion бесплатный?

Да, веса моделей и Web UI бесплатны. SD 1.5 и SDXL под лицензией OpenRAIL-M разрешают коммерческое использование. SD 3.5 — Stability AI Community License: бесплатно для личного и коммерческого использования при выручке до 1 млн долларов в год. Платные расходы — только электричество и при желании облачное GPU.

Подходит ли Stable Diffusion для русского языка?

Базовые модели SD 1.5/SDXL/3.5 обучены преимущественно на английских описаниях. Промпты на русском работают, но качество ниже: модель чаще путает понятия и игнорирует детали. Решения: пишите промпты на английском (можно переводить через ChatGPT или Яндекс Переводчик), используйте Kandinsky от Сбера — он специально обучен на русском. SD 3.5 заметно лучше справляется с русским, чем SD 1.5.

Почему генерация очень медленная?

Чек-лист: проверьте через nvidia-smi, использует ли GPU вообще; обновите драйверы NVIDIA до Studio Driver; на ноутбуке принудительно переключите процесс Python на дискретный GPU; уберите флаг --lowvram, если у вас 8+ ГБ VRAM (он замедляет); переключитесь с DPM++ 2M на Euler a (быстрее в 2 раза при сопоставимом качестве).

Можно ли использовать сгенерированные изображения коммерчески?

Лицензии моделей разрешают, но есть нюансы: проверьте лицензию конкретной кастомной модели на CivitAI (некоторые имеют ограничения), не используйте чужие LoRA-файнтьюны для имитации стиля живых художников, для коммерческих проектов в РФ закладывайте, что суды пока не выработали практики по AI-контенту.

Какая видеокарта оптимальна по цене и производительности?

На начало 2026 года лучший баланс — RTX 3060 12 GB на вторичке или RTX 4060 Ti 16 GB новая. Для серьёзной работы с SDXL и SD 3.5 — RTX 4070 Super 12 GB. Для Flux в нативном разрешении — RTX 4090 24 GB или RTX 5090. AMD оптимально только в Linux с ROCm на RX 7900 XTX.

Что делать, если модель генерирует мусор / шум?

Возможные причины: несовместимый VAE (для SDXL обязательно sdxl_vae), неправильный сэмплер (попробуйте Euler a с CFG 7), слишком мало шагов (минимум 20 для SD 1.5, 25–30 для SDXL), модель не догрузилась (перезапустите Web UI), повреждён файл модели (скачайте заново и проверьте SHA-256).

Итог

Установка Stable Diffusion локально в 2026 году занимает 20–40 минут и не требует глубоких технических знаний. Даже видеокарта с 6 ГБ VRAM позволяет получать достойные результаты на SD 1.5. С RTX 3060 или мощнее открываются SDXL и SD 3.5; на Apple Silicon с 16+ ГБ unified memory тоже всё работает, хоть и медленнее.

Следующий шаг: освоить ComfyUI для продвинутых воркфлоу, сравнить локальные LLM в гайде Ollama vs LM Studio или собрать стек для офлайн-AI на одной машине. Для готовых инструментов и моделей загляните в карточку Stable Diffusion в каталоге.

Каталог нейросетей для генерации: Смотреть все инструменты →

МБ

Максим Барыбин НейроСкоп

1С-разработчик в медицине. Тестирует AI-инструменты на практике в реальных проектах: интеграции с медицинскими информационными системами, автоматизация документооборота.

Понравилась статья?

Поделитесь с коллегами и друзьями

Читайте также

Хотите больше таких статей?

Подпишитесь на еженедельный дайджест — новые инструменты, промпты и гиды каждую неделю

Подписаться бесплатно