ComfyUI na Linux

Výkonné node-based rozhraní pro generování obrázků pomocí Stable Diffusion

Proč používat ComfyUI?

ComfyUI je moderní a výkonná alternativa k tradičním rozhraním pro Stable Diffusion s důrazem na flexibilitu a kontrolu nad každým krokem generování.

Node-based workflow

Vizuální programování pomocí nodů umožňuje vytvářet komplexní AI generovací pipelines bez psaní kódu.

Optimalizovaný výkon

Rychlejší než běžná rozhraní díky asynchronnímu zpracování a smart memory management. Žádné zbytečné rekalkulace.

Úplná kontrola

Přímý přístup ke každému kroku generovacího procesu včetně samplingu, scheduleru, VAE a dalších komponent.

Pokročilé funkce

ControlNet, img2img, inpainting, upscaling a mnoho dalších technik v jediném nástroji.

Rozšiřitelnost

Bohatý ekosystém custom nodes umožňuje přidávat nové funkce a integrovat nejnovější AI modely.

Podpora GPU

Funguje s NVIDIA (CUDA), AMD (ROCm) i Apple Silicon. Optimalizováno pro maximální využití hardwarové akcelerace.

Instalace ComfyUI na Linux

Následujte tento krok za krokem průvodce pro instalaci na Linux systémech.

1 Prerekvizity

Ujistěte se, že máte nainstalované:

  • Python 3.10+ - Doporučeno Python 3.10 nebo novější
  • pip - Python package manager
  • Git - Pro klonování repozitáře
  • NVIDIA GPU s CUDA (doporučeno) nebo AMD GPU s ROCm
# Ověření Python verze
python3 --version

# Instalace Git (Ubuntu/Debian)
sudo apt update
sudo apt install git python3-pip

# Ověření NVIDIA GPU (pokud máte)
nvidia-smi

2 Klonování repozitáře

Stáhněte ComfyUI z oficiálního GitHub repozitáře:

# Klonování repozitáře
git clone https://github.com/comfyanonymous/ComfyUI.git

# Přesun do adresáře
cd ComfyUI

3 Instalace závislostí

Nainstalujte požadované Python balíčky:

# Pro NVIDIA GPU (CUDA)
pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121

# Nebo pro AMD GPU (ROCm)
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.6

# Instalace dalších závislostí
pip3 install -r requirements.txt

💡 Tip: Instalace PyTorch může trvat několik minut. Ujistěte se, že máte dostatečné místo na disku (~4-5 GB).

4 Stažení modelů

ComfyUI vyžaduje alespoň jeden Stable Diffusion model. Stáhněte modely z Hugging Face nebo Civitai:

Struktura adresářů modelů:

ComfyUI/
├── models/
│ ├── checkpoints/ # Hlavní SD modely (.safetensors nebo .ckpt)
│ ├── vae/ # VAE modely
│ ├── loras/ # LoRA modely
│ ├── controlnet/ # ControlNet modely
│ └── upscale_models/ # Upscale modely

Příklad stažení modelu:

# Stažení Stable Diffusion 1.5 (příklad)
wget -P models/checkpoints/ \
https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors

⚠️ Poznámka: Modely jsou velké (2-7 GB každý). Bez alespoň jedného modelu v models/checkpoints/ nebude ComfyUI fungovat.

5 Spuštění ComfyUI

Spusťte ComfyUI server:

# Základní spuštění
python3 main.py

# Spuštění s přístupem z jiných zařízení
python3 main.py --listen 0.0.0.0

# Spuštění na vlastním portu
python3 main.py --port 8080

Po spuštění otevřete prohlížeč a přejděte na:

http://localhost:8188

Základní použití

Naučte se vytvářet základní workflow a generovat obrázky pomocí ComfyUI.

První kroky s ComfyUI

Načtení workflow

ComfyUI obsahuje ukázkové workflow v adresáři examples/. Načtěte je pomocí "Load" tlačítka v rozhraní.

Úprava promptů

V node "CLIP Text Encode" zadejte váš pozitivní a negativní prompt pro kontrolu generování obrázků.

Výběr modelu

V node "Load Checkpoint" vyberte model, který jste stáhli do models/checkpoints/.

Spuštění generování

Klikněte na "Queue Prompt" pro spuštění generování. Výsledné obrázky se zobrazí v node "Save Image".

Pokročilé funkce

  • Custom nodes: Instalujte rozšíření z ComfyUI Manager pro nové funkce
  • API mode: Automatizujte workflow pomocí REST API na portu 8188
  • Batch processing: Generujte více obrázků najednou úpravou batch size
  • Workflow export: Ukládejte a sdílejte své vlastní workflow jako JSON soubory

💡 Tipy pro optimální výkon

GPU Optimalizace

  • • Použijte --highvram pro GPU s 24+ GB VRAM
  • • Použijte --normalvram pro 8-16 GB VRAM
  • • Použijte --lowvram pro GPU s méně než 8 GB
  • • Sledujte využití VRAM pomocí nvidia-smi

Kvalita výstupu

  • • Začněte s nižším počtem kroků (20-30) pro testování
  • • Pro finální obrázky použijte 40-60 kroků
  • • Experimentujte s různými samplery (Euler, DPM++)
  • • Využívejte LoRA modely pro specifické styly