일상/일상 관련

AI, Stable-Diffusion-UI(Easy Diffusion) 쓸데없는 연구

by 소서리스25 2023. 4. 12.
반응형

AI, Stable-Diffusion-UI(Easy Diffusion) 쓸데없는 연구

 

그림 생성 인공지능 중에 현재 가장 많이 추천되는 것은 아마도 Stable Diffusion WebUI일 것이다.

대부분 검색해도 이것이 나오니까..

그러나 이것 이전에 Stable Diffusion UI를 먼저 접했고.. 현재 테스트겸 이것으로도 하고 있다.

물론 데스크탑이 워낙 구형이라 GPU가 아닌 CPU에 의존하면서,,,

무려 펜티엄 골드(G4600)로 돌려보고 있다.

아무튼 쓸데없지만 신기하고 재미있어서 기록으로 남겨본다.

 

워낙 유명한 사이트들에서 많이 다루다보니 전문적인? 것을 원한다면 그런 곳을 검색해 

보는 것이 좋을 것 같다. 이건 단지 주관적으로 쓸데없지만 기록상 남겨두는 사항이다.

 

신기해 했던 것은 기본 모델의 결과 이미지를 토대로 같은 설정으로 다른 모델로 구성했을때의

프로세싱 시간이다. 테스트는 인물만 해당한다. 다른 것도 진행 예정..

 

먼저 Stable Diffusion UI를 설치하면 기본 모델이 있다. 여기에 본래의 것과 유명한 모델을

몇가지만 더 추가하여 순차적으로 시간을 비교해 보았다. 이외에도 모델은 많이 있는데 일단 몇가지만..

 

▷ 시스템 주요 사양

  - CPU : 펜티엄 골드(G4600)

  - RAM / SSD : 16GB / 256GB (2.5")

  - VGA : Geforce GTX 1050 (어차피 사용 안한다..;;)

 

기본모델

  - sd-v1-4.ckpt (4.16GB)

  - vae-ft-mse-840000-ema-pruned.ckpt

 

▷ 추가모델

  - sd-v1-4-full-ema.ckpt (7.52GB)

  - Basil mix.safetensors (2.08GB)

  - chilloutmix-Ni.safetensors (7.52GB)

  - AOM3A1B_orangemixs.safetensors (2.08GB)

 

▷ 기본설정

  - Image Size : 512x512

  - Inference Steps : 10

  - Guidance Scale : 7.5

  - Prompt Strength : 0.8

 

그러면 최초 sd-v1-4 모델을 이용한 이미지를 살펴 보자. 이미지 생성에 24분이 소요되었다. 

초기 모델 결과물
초기 모델 결과물..

 

뭔가 굉장히 어설프고 부족한 결과물이다. 이정도면 쓰기 어려울 것 같다.

위의 기초 이미지를 가지고 먼저 sd-v1-4-full-ema.ckpt 추가 모델을 생성해 보았다.

모델의 변화 과정
모델의 변화 과정

sd-v1-4-full-ema의 변화 과정은 중간에 보는 것과 같이 나오는데, 이게 결과보다 더 좋은 느낌을 주는듯...

생성 시간은 12분이 소요되었다.

 

그러면 나머지 3개의 모델들(바질, 칠아웃믹스, 오렌지)을 쭉 프로세싱하여 나온 결과물을 보면 다음과 같다.

초기 모델을 바탕으로 생성된 훌륭한 이미지
초기 모델을 바탕으로 생성된 훌륭한 이미지

퀄리티가.....

생성시간은 위의 첫번째부터 14분, 12분, 12분 가량 소요되었다.

 

결론적으론 인물에 적합한 모델로서는 기본 모델은 버려야 겠다는 생각이 든다. 추천하는 모델을 쓰도록 하자.

또한 기본적인 이미지로 구성하고 구체화 하는 것이 시간단축에 훨씬 도움이 되겠다.

 

참고적으로 

테스트 Steps는 10 이다. 퀄리티를 크게 좌우하는 값이다. 보통의 값으로 25~50 을 많이 사용하더라..

 

번외로..

VAE까지 ORANGEMIX로 변경된 사항을 보자..

VAE까지 변경된 이미지

 

 

반응형

댓글