はじめに
以下は実際のコマンド履歴を下にAIに書かせた内容。
1. uv と Python 環境
cd C:\msys64\home\yumetodo\stable-diffusion-webui powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" $env:Path = "C:\Users\yumetodo\.local\bin;$env:Path" uv python pin cpython-3.10.6-windows-x86_64-none
2. 仮想環境作成
uv venv
3. 必須依存ライブラリ
uv pip install -r requirements.txt uv pip install pytorch-lightning==1.9.4 uv pip install "pydantic<2" uv pip install git+https://github.com/openai/CLIP.git uv pip install sentencepiece uv pip install "gradio==3.41.2"
4. PyTorch (CUDA 12.6 対応ビルド)
uv pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
5. 高速化ライブラリ (任意)
uv pip install xformers==0.0.32.post2 --index-url https://download.pytorch.org/whl/cu126
6. リポジトリ補助モジュール
mkdir repositories cd repositories git clone --filter=blob:none https://github.com/Stability-AI/stablediffusion.git stable-diffusion-stability-ai git clone --filter=blob:none https://github.com/Stability-AI/generative-models.git git clone --filter=blob:none https://github.com/salesforce/BLIP.git git clone --filter=blob:none https://github.com/crowsonkb/k-diffusion.git git clone --filter=blob:none https://github.com/AUTOMATIC1111/stable-diffusion-webui-assets.git cd ..
stable-diffusion-stability-aiいらんきがする
7. モデル配置
models/Stable-diffusion/に.safetensorsまたは.ckptを置く
例:v1-5-pruned-emaonly.safetensors
8. 起動
uv run .\webui.py --xformers
✅ ポイント整理
- Python 3.10.6 を固定 → WebUI が安定
- PyTorch cu126 を直接インストール → RTX 3060 + CUDA 12.6 ドライバで動作
- pydantic<2 → API モデル生成エラー回避
- clip / sentencepiece → SD 系モデルのテキストエンコーダ依存を解決
- stable-diffusion-webui-assets → UI 静的ファイルエラー回避
- xformers → 高速化(任意)
⚠️ 注意
- SD3.5 系 (Medium / Large / Turbo) は A1111 本家ではまだ未対応。
→ ComfyUI や SD.Next を使うのが現実的。 - A1111 本家で安定して動かすなら SD1.5 / SD2.1 / SDXL 1.0 がベスト。