카테고리 없음

ComfyUI에서 WAN / HUNYUAN 영상 생성시 메모리 부족 (Out of Memory)에러 대처법

deepnet 2025. 4. 29. 00:58

원하는 영상 컨셉을 잡고 오랜 시간 생성 실행을 돌려놨는데 중간에 

GPU메모리 에러가 발생하면 난감하죠. 시간이 아깝기도 하고

다음과 같은 다양한 방법으로 해결을 시도할 수 있습니다.

 

 

 

1. 낮은 숫자의 파라메터 경량 모델로 교체

  • WAN2.1의 경우 14B -> 1.3B로 교체

 

2. 증류된(Distilled) 경량 모델로 교체

  • Hunyuan의 경우 Distilled 모델로 교체

 

3. 이미지 크기 줄이기

  • KSampler 노드에서 width와 height 값을 낮춤. (예: 1024x1024 → 512x512)

 

4. 배치 크기(Batch Size) 감소

  • batch_size를 1로 설정하고 점차 늘려가며 테스트.

 

5. VAE 변경

  • 기본 VAE 대신 taesd VAE (경량화 버전)를 사용.
  • VAE 노드에서 Decoder 대신 TAE Decoder를 선택하거나, --taesd 옵션을 추가.

 

6. LowVRAM/MedVRAM 모드 활성화

  • ComfyUI 실행 시 커맨드라인에 옵션 추가:
  •  
    python main.py --lowvram   # 극단적 메모리 절약 (속도 ↓)  
    python main.py --medvram   # 중간 메모리 절약 (기본 권장)  

 

7.  xFormers 활성화

  • GPU 메모리 효율성을 높이는 xFormers 라이브러리를 사용.
  • python main.py --xformers  

 

8. 불필요한 노드 제거

  • 중복된 이미지 처리 노드(예: 여러 Upscaler)를 최소화.
  • Cache 노드를 활용해 중간 결과물을 저장하고 메모리 부하를 분산.

 

9. GPU 메모리 관리

  • nvidia-smi 명령어로 다른 프로그램이 GPU 메모리를 점유 중인지 확인.
  • 사용하지 않는 백그라운드 프로세스(예: Chrome, 게임)를 종료.

 

10. CUDA 캐시 정리

  • 파이썬 스크립트 실행 전 CUDA 캐시를 초기화.
  • import torch  
    torch.cuda.empty_cache()  

 

11. 2개 이상의 GPU 사용하기

  • XDiT 기술을 활용하여 병렬 처리
  • ComfyUI-MultiGPU Node등을 활용하여 Lora등의 모델을 2번째 GPU에 로딩하여 1번째 GPU의 메모리 절감

https://github.com/neuratech-ai/ComfyUI-MultiGPU

 

GitHub - neuratech-ai/ComfyUI-MultiGPU: Rudimentary support for using multiple GPUs in a ComfyUI workflow

Rudimentary support for using multiple GPUs in a ComfyUI workflow - neuratech-ai/ComfyUI-MultiGPU

github.com

 

 

12. 24G이상의 메모리를 가진 GPU 구입

  • 가정에서 가장 쉽게 구할수 있는 RTX 3090(24g), RTX 4090(24g), RTX 5090(32g)를 통해 넉넉한 GPU메모리를 활용

 

 

 

고가의 GPU를 구입하기 부담 될땐?

 

프로젝트 기간동안 임대해서 쓰는 것도 하나의 방법!

colab이 물론 최강 가성비를 자랑하지만

리셋되는 불편함 등 여러모로 클라우드 공용 자원을 사용 하는 것은 불편하기 마련 임

이럴땐 오롯이 나만의 gpu서버를 임대해서 쓰는 것도 하나의 방법임

 

특히 새로나온 RTX 5090 32g를 내맘대로 얼른 써보고 싶다면?

 

https://kogrobo.co.kr/

 

코그로보 GPU 호스팅몰

AI 및 딥러닝 등에 활용 가능한 GPU 서버 임대라면 코그로보 호스팅몰. 합리적인 가격으로 고성능 GPU 서버를 사용해 보세요!

kogrobo.co.kr