ํฐ์คํ ๋ฆฌ ๋ทฐ
https://comfyanonymous.github.io/ComfyUI_examples/wan/
Wan 2.1 Models
Examples of ComfyUI workflows
comfyanonymous.github.io
๐ WAN ๋ชจ๋ธ์ด๋?
WAN ๋ชจ๋ธ์ ์ด๋ฏธ์ง → ๋น๋์ค ๋ณํ (I2V, Image-to-Video) ๋ชจ๋ธ๋ก, ์ ์ ์ธ ์ด๋ฏธ์ง๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์์ง์ด๋ ๋น๋์ค๋ฅผ ์์ฑํ๋ AI ๋ชจ๋ธ์ด๋ค.
ComfyUI์์ ๋น๋์ค ์์ฑ์ฉ Diffusion ๋ชจ๋ธ์ ํ
์คํธํ๊ณ ์ถ๋ค๋ฉด WAN ๋ชจ๋ธ์ ์ฌ์ฉํ ์ ์๋ค.
ComfyUI์์ Wan 2.1 ๋ชจ๋ธ ์ฌ์ฉํ๊ธฐ
1. Download
- Text encoder and VAE:
umt5_xxl_fp8_e4m3fn_scaled.safetensors goes in: ComfyUI/models/text_encoders/
wan_2.1_vae.safetensors goes in: ComfyUI/models/vae/
- Video Models
The diffusion models can be found here
These files go in: ComfyUI/models/diffusion_models/
(๋๋ i2v 720 14b bf16) image to video , 720 ๋ฝํ๋ ๋ฒ์ ์ผ๋ก ๋ฐ์๋ค.
Image to Video
This workflow requires the wan2.1_i2v_480p_14B_bf16.safetensors file (put it in: ComfyUI/models/diffusion_models/) and clip_vision_h.safetensors which goes in: ComfyUI/models/clip_vision/
์๋ 480 ์ฌ์ด์ฆ
Note this example only generates 33 frames at 512x512 because I wanted it to be accessible, the model can do more than that. The 720p model is pretty good if you have the hardware/patience to run it.
1๏ธโฃ WAN ๋ชจ๋ธ์ ํน์ง
โ WAN ๋ชจ๋ธ (WAN 2.1)์ ํต์ฌ ๊ธฐ๋ฅ
- ์ ์ง๋ ์ด๋ฏธ์ง(์ฌ์ง)๋ก๋ถํฐ ์์ฐ์ค๋ฌ์ด ์์ง์์ ๊ฐ์ง ๋น๋์ค ์์ฑ
- ์งง์ ๊ธธ์ด (33 ํ๋ ์)์์ ๋ ๊ธด ๋น๋์ค ์์ฑ๊น์ง ํ์ฅ ๊ฐ๋ฅ
- ๊ธฐ์กด Diffusion ๊ธฐ๋ฐ ๋น๋์ค ๋ชจ๋ธ๋ณด๋ค ๋ ์์ฐ์ค๋ฌ์ด ์์ง์๊ณผ ํ๋ ์ ์ผ๊ด์ฑ ์ ์ง
โก๏ธ WAN ๋ชจ๋ธ์ **Static Image(๊ณ ์ ์ด๋ฏธ์ง)**๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์์ง์ด๋ ์์๋ฅผ ์ถ๊ฐํ์ฌ ๋น๋์ค๋ฅผ ์์ฑํ๋ ๋ฐ ํนํ๋จ.
2๏ธโฃ WAN ๋ชจ๋ธ์ ComfyUI์์ ์ฌ์ฉํ ๋ ํ์ํ ํ์ผ
WAN ๋ชจ๋ธ์ ํ ์คํธํ๋ ค๋ฉด ๋ค์ ํ์ผ์ ๋ค์ด๋ก๋ํ๊ณ ์ฌ๋ฐ๋ฅธ ํด๋์ ๋ฐฐ์นํด์ผ ํ๋ค.
โ ํ์ ํ์ผ
ํ์ผ ์ด๋ฆ์ญํ ์ ์ฅ ๊ฒฝ๋ก
wan2.1_i2v_480p_14B_bf16.safetensors | WAN ๋ชจ๋ธ ์์ฒด (Diffusion ๋ชจ๋ธ) | ComfyUI/models/diffusion_models/ |
clip_vision_h.safetensors | ๋น๋์ค ์์ฑ ์ ์ด๋ฏธ์ง ๋ถ์ | ComfyUI/models/clip_vision/ |
umt5_xxl_fp8_e4m3fn_scaled.safetensors | ํ ์คํธ ์ธ์ฝ๋ | ComfyUI/models/text_encoders/ |
wan_2.1_vae.safetensors | VAE (์๊ฐ & ๋ํ ์ผ ๊ฐ์ ) | ComfyUI/models/vae/ |
https://www.youtube.com/watch?v=SG7ffQZslIw
๐WAN ๋ชจ๋ธ๊ณผ ๋ค๋ฅธ Diffusion ๋ชจ๋ธ ๋น๊ต
๋ชจ๋ธ์ญํ ํน์ง
Stable Diffusion 1.5 / SDXL | ์ด๋ฏธ์ง ์์ฑ | ์ ์ ์ธ ์ด๋ฏธ์ง ์์ฑ (๋น๋์ค ๋ถ๊ฐ) |
Flux | ๊ฒฝ๋ ์ด๋ฏธ์ง ์์ฑ | VRAM ์ต์ ํ๋ Diffusion ๋ชจ๋ธ (๋น๋์ค ๋ถ๊ฐ) |
WAN 2.1 | ์ด๋ฏธ์ง → ๋น๋์ค ๋ณํ | ์ ์ง ์ด๋ฏธ์ง๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๋น๋์ค ์์ฑ ๊ฐ๋ฅ |
๐ SDXL (Stable Diffusion XL)๋?
SDXL (Stable Diffusion XL)์ Stability AI์์ ๊ฐ๋ฐํ Stable Diffusion ๋ชจ๋ธ์ ์ต์ ํ์ฅ ๋ฒ์
1024x1024 ํด์๋
LoRA ๋ฐ ControlNet ์ง์
- SDXL์ LoRA(์ํ ํ์ต ๋ชจ๋ธ) ๋ฐ ControlNet(ํฌ์ฆ ์ปจํธ๋กค, ์ค์ผ์น ์ ์ฉ ๋ฑ)๊ณผ ํจ๊ป ์ฌ์ฉํ ์ ์์ด ์ปค์คํฐ๋ง์ด์ง ๊ฐ๋ ฅ
๐ SDXL์ ์ฌ์ฉํ ๋ ํ์ํ ๊ฒ
- SDXL Base ๋ชจ๋ธ (sd_xl_base_1.0.safetensors)
→ ๊ธฐ๋ณธ์ ์ธ ์ด๋ฏธ์ง๋ฅผ ์์ฑํ๋ ๋ชจ๋ธ. - SDXL Refiner ๋ชจ๋ธ (sd_xl_refiner_1.0.safetensors) (์ ํ ์ฌํญ)
→ ์ด๋ฏธ์ง๋ฅผ ๋์ฑ ์ธ๋ฐํ๊ฒ ๋ค๋ฌ๊ณ ๊ณ ํ์ง๋ก ๋ง๋ค์ด์ฃผ๋ ํ์ฒ๋ฆฌ ๋ชจ๋ธ. - VAE (์ ํ ์ฌํญ)
→ SDXL์ ์ต์ ํ๋ VAE๋ฅผ ์ถ๊ฐ๋ก ์ ์ฉํ๋ฉด ์๊ฐ๊ณผ ๋ํ ์ผ์ด ๋ ์ข์์ง ์ ์์.
๐ SDXL ๋ชจ๋ธ ๋ค์ด๋ก๋ ๋ฐฉ๋ฒ
- Hugging Face: https://huggingface.co/stabilityai
- CivitAI: https://civitai.com
๐ Diffusion ๋ชจ๋ธ : SDXL๊ณผ Flux ๋ชจ๋ธ
:๋์ด ์๋ก ๋ค๋ฅธ Diffusion ๋ชจ๋ธ์ด๋ฏ๋ก ๋์ค ํ๋ ์ ํํด์ ์ฌ์ฉ.
(Diffusion ๋ชจ๋ธ์ ์ด๋ฏธ์ง ์์ฒด๋ฅผ ์์ฑํ๋ AI ๋ชจ๋ธ)
โ SDXL (Stable Diffusion XL)
- Stability AI์์ ๊ฐ๋ฐํ ๋ํ Diffusion ๋ชจ๋ธ.
- 1024x1024 ํด์๋ ๊ธฐ๋ณธ ์ง์์ผ๋ก ๊ธฐ์กด ๋ชจ๋ธ๋ณด๋ค ๋ฐ์ด๋ ํ์ง์ ์ ๊ณต.
- Base ๋ฐ Refiner ๋ชจ๋ธ๋ก ๊ตฌ์ฑ๋จ.
โ Flux (by Black Forest Labs)
- Flux๋ Black Forest Labs์์ ๊ฐ๋ฐํ Diffusion ๋ชจ๋ธ ํจ๋ฐ๋ฆฌ.
- ComfyUI์ ์ต์ ํ๋ ๊ฒฝ๋ ๋ชจ๋ธ๋ค์ด ์ ๊ณต๋จ.
- FP8 ๋ฒ์ ์ด ์์ด VRAM ์ฌ์ฉ๋์ ์ค์ด๋ฉด์๋ ๋์ ํ์ง ์ ์ง ๊ฐ๋ฅ.
- Flux Dev๋ ๊ฐ๋ฐ ๋ฒ์ ์ผ๋ก, ์๋ก์ด ๊ธฐ๋ฅ์ด ์ถ๊ฐ๋ ์ ์์.
https://github.com/black-forest-labs/flux
GitHub - black-forest-labs/flux: Official inference repo for FLUX.1 models
Official inference repo for FLUX.1 models. Contribute to black-forest-labs/flux development by creating an account on GitHub.
github.com
1๏ธโฃ ๋ชจ๋ธ๊ธฐ๋ณธ Text Encoder
SDXL | t5xxl_fp16.safetensors |
Flux | umt5_xxl_fp8_e4m3fn_scaled.safetensors |
2๏ธโฃ VAE (Variational Autoencoder)๋ชจ๋ธ
(VAE๋ ์ด๋ฏธ์ง์ ๋ํ ์ผ๊ณผ ์๊ฐ์ ์กฐ์ ํ๋ ์ญํ : ์๊ฐ, ๋ช ์, ํด์๋ ํฅ์)
SDXL | sdxl_vae.safetensors (์ถ์ฒ) |
Flux | wan_2.1_vae.safetensors |
๐ clip_vision_h.safetensors๊ฐ ๋ฌด์์ธ๊ฐ?
clip_vision_h.safetensors๋ CLIP (Contrastive Language-Image Pretraining) ๋ชจ๋ธ์ Vision Encoder ๋ถ๋ถ์ด๋ค.
CLIP (Contrastive Language-Image Pretraining)์ OpenAI์์ ๊ฐ๋ฐํ ๋ชจ๋ธ๋ก, ์ด๋ฏธ์ง์ ํ ์คํธ๋ฅผ ์ฐ๊ฒฐํ๋ ์ญํ ์ ํ๋ค.
โ
LoRA (Low-Rank Adaptation)๋ ํน์ ์คํ์ผ์ด๋ ์บ๋ฆญํฐ๋ฅผ ์ถ๊ฐ ํ์ตํ๋ ์์ ๋ชจ๋ธ
โ
๊ธฐ์กด Diffusion ๋ชจ๋ธ(WAN, SDXL ๋ฑ)์ ์ถ๊ฐ์ ์ผ๋ก ์ ์ฉํ๋ ๋ฐฉ์
โ
๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋์ด ์ ๊ณ ๋น ๋ฅด๊ฒ ๋ก๋ ๊ฐ๋ฅ
โก๏ธ ์ฆ, LoRA๋ "์ถ๊ฐ์ ์ธ ํ์ต ๋ฐ์ดํฐ"๋ฅผ ๊ธฐ์กด ๋ชจ๋ธ์ ๊ฒฐํฉํ๋ ์ญํ ์ ํ๋ค.
โก๏ธ WAN ๋ชจ๋ธ + LoRA๋ฅผ ๊ฒฐํฉํ๋ฉด ํน์ ์คํ์ผ์ ๋น๋์ค๋ฅผ ์์ฑํ ์ ์๋ค!
๋ชจ๋ธ ์ ํ | ์ญํ | ์ ์ฉ ๋ฐฉ์ |
Diffusion ๋ชจ๋ธ (WAN, SDXL ๋ฑ) | ์ด๋ฏธ์ง๋ฅผ ์์ฑ (WAN์ ๋น๋์ค ์์ฑ) | ํ์ |
VAE | ์๊ฐ, ๋ํ ์ผ ๊ฐ์ | ์ ํ ์ฌํญ (ํ์ง ํฅ์ ๊ฐ๋ฅ) |
LoRA | ์คํ์ผ ๋ฐ ์บ๋ฆญํฐ ์ถ๊ฐ | ์ ํ ์ฌํญ (๊ฐ์ฑ ์๋ ๊ฒฐ๊ณผ๋ฌผ ์์ฑ ๊ฐ๋ฅ) |
โก๏ธ Diffusion ๋ชจ๋ธ์ ๊ธฐ๋ณธ์ ์ธ ๊ตฌ์กฐ, VAE๋ ํ์ง ํฅ์, LoRA๋ ์คํ์ผ์ ์ถ๊ฐํ๋ ์ญํ !
โก๏ธ WAN ๋ชจ๋ธ์ LoRA๋ฅผ ์ถ๊ฐํ๋ฉด ๋น๋์ค์ ์คํ์ผ์ ๋์ฑ ๊ฐํ๊ฒ ์ปค์คํฐ๋ง์ด์ง ๊ฐ๋ฅ!
'AI' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
2025 AI ์ด๋ฏธ์ง & ๋น๋์ค ์์ฑ ๋ชจ๋ธ, ์ฌ์ดํธ, ํ๋ซํผ (๊ณ์ ์ถ๊ฐ๋จ ...) (0) | 2025.03.02 |
---|---|
Comfy UI : ControNetํ์ฅ _depth/Scribble (0) | 2025.02.26 |
๋ฏธ๋์ ธ๋ Midjurney _ AI_ text to img / img to img (0) | 2025.01.15 |
Comfy UI _ AI_ LTXVideo / Hunyuan Video Model (0) | 2025.01.15 |
AI_Genesis : mac ํ๊ฒฝ _ visualizing (0) | 2025.01.14 |
- Total
- Today
- Yesterday
- ardity
- Unity
- ์ ๋ํฐ
- emotive eeg
- docker
- ์ ๋ํฐํ๋ฌ๊ทธ์ธ
- AI
- motor controll
- ํ๋๋
- Express
- Java
- CNC
- three.js
- node.js
- Midjourney
- imgtoimg
- unity 360
- MQTT
- houdini
- Python
- opencv
- colab
- TouchDesigner
- oculuspro
- sequelize
- DeepLeaning
- ๋ผ์ฆ๋ฒ ๋ฆฌํ์ด
- VR
- Arduino
- RNN
์ผ | ์ | ํ | ์ | ๋ชฉ | ๊ธ | ํ |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |