마스터봇님 이 영상이랑 모자제거 영상 둘다 CPU / GPU 영향을 받는 거 같은데 컴터 새로 맞추는데 어느정도로 맞추는게 좋을까요? 대게 작업용으로 인텔 CPU 선택한다고 고민 없었다가 최근 큰 이슈와 AMD 9000번대 기다렸는데 평이 좋지 않아서 고민입니다 그리고 AI작업은 GPU, 특히 VRAM이 중요 하다던데 RTX 4070 8G보다 4060TI 16G 이런게 더 좋은게 맞나요? AI작업관련 정보영상은 많은데 컴성능 정보는 너무 없네요.. 혹시 컴잘알이신데 조립컴 사양 같은정보도 알려주실 수 있으실까요? 질문할 곳이 없어 여기라도 길게 댓글 달았습니다 컴부터 제대로 맞추고 맴버쉽 가입해서 꼭 사용해보고 싶습니다 혹시 보시면 정보공유 부탁드립니다
모자제거의 경우 생성형 AI 만큼 사양을 크게 타지는 않습니다. 다만 comfyui나 stable diffusion같은 무거운 생성형 AI툴을 이용하신다면 cpu의 성능차이보다 GPU가 매우 중요합니다. 그리고 그래픽카드를 좋은것을 쓰는 이유는 속도적인 측면이 매우 강한데요. 물론 자체 성능도 중요하지만 그래픽카드 메모리(VRAM) 용량이 더 중요합니다. 특히 고해상도 이미지를 뽑고자 할때 VRAM 용량이 지대한 영향을 미치기 때문에 성능은 조금 낮더라도 VRAM 용량이 높은 제품이 유리한것이죠. 8G로는 많이 부족하고 VRAM은 많을 수록 좋다고 보시면 됩니다.
@@masterbot 우선 친절한 댓글 감사합니다 마스터봇님ㅎ 그럼 VRAM 큰 건 굳이 안사도 될 거 같네요 어짜피 새로 맞추는거 사진 같은거도 생성 해보고 싶다정도 였어서.. VRAM 신경 안쓰고 4060TI로 가면 되겠고.. 혹시 CPU는 최근 9000번대도 성능이 그닥이라 애매한데 혹시 7800x3D로 가도 되나요? 이건 멀티성능이 너무 안좋아서 생각도 안했었는데 크게 타지 않는다고 해서 확인차 여쭤봐요 그리고 모자제거에 괜찮은, 추천할만한 CPU가 있을까요? CPU 결정만 도움 부탁드러요 ㅠ
덕분에 쉽게 설치했습니다. 질문하나 드리겠습니다. 샘플이미지 여우메이드 그대로 넣고 Queue 누르면 이미지 생성하기까지 30초정도 딜레이 있고 그 뒤부터 SamplerCustomAdvanced에서 생성하기 시작합니다. 출력까지는 총 1분 10초 걸립니다. 4080인데 정상인가요?
프롬프트 역추출은 완벽하게 같게 나오지 않습니다. 미드저니나 스테이블디퓨전, comfyui 등 다양한 툴에서 추출이 가능한데요. 툴마다 프롬프트가 똑같지 않고 다르게 나옵니다. 하지만 실제 출력해보면 비슷하게 나오긴 합니다. 기본적으로 사진을 조금 변경한다고해서 역추출을 할시 크게 다르게 나오진 않습니다.
공식 사이트에 나와있지 않지만 flux fast(무료)에서 이미지를 생성해본 결과 schnell 모델 성능을 가진 이미지가 출력되는 것을 확인했습니다. dev모델이나 pro 모델 보다 퀄리티가 떨어지는 것을 알 수 있죠. 다만 여기서 유추 가능한 사항으로 freepik에 3가지 flux 모델이 있는데 flux fast(무료)의 경우 schnell 모델, flux(유료)는 dev, flux realism(유료)은 pro 버전이 아닐까 유추해볼 수 있을것 같습니다.
영상 설명 목차에서 단계별로 나와있는데요. huggingface 에서 모델을 다운로드 받으신 다음 영상에 나온 경로에 모델을 옮겨주시고 영상 설명에 있는 FLUX workflow 사이트로 가셔서 거기 보이는 이미지를 comfyui 화면에 드래그 하시면 거미줄처럼 workflow가 나오게 되죠. 만약 workflow가 보이지 않으면 연에 숨어 있는것일 수도 있으니 마우스 휠을 움직여서 확대하거나 축소하시면서 마우스 왼쪽버튼 드래그를 하셔서 찾아보시면 나오실겁니다.
영상에서도 설명했는데요. 영상설명란에 있는 FLUX workflow 사이트에서 이미지를 자신의 워크플로우 창으로 드래그 하시면 해당 이미지를 만들었던 노드들이 만들어지는 것을 볼 수 있으실겁니다. 워크플로우를 저장하려면 오른쪽 바에 save 버튼을 누르면되고 불러오려면 load 버튼으로 불러오실 수 있습니다. 안되시면 말씀 주세용
comfyui Launch 버튼을 눌렀는데 자동으로 창이 열리지 않는다면 자동 실행 설정이 되어 있지 않은 경우일 수 있습니다. Launch버튼 위에 있는 수레바퀴 모양(Launch options) 버튼을 눌러서 맨아래 --auto-launch 옵션에 체크를 하고 저장을 해주시면 다시 Launch버튼을 눌렀을때 자동으로 창이 열리실겁니다.
역시 마스터봇~! 굳굳
앗 찾아와주셔서 감사합니다~
어쩌면 약간 복잡 할수도 있는 부분인 FLUX를 이렇게 쉽고 재밌고 간단하게 설명해 주는 영상이 있다니 정말 대단해요. 저는 ComfyUi에서 말고 forge에서 FLUX를 설치해서 약간 맛만 보았는데 영상대로 ComfyUi에서도 한번 해봐야 겠네요😅
많은 ai유튭영상봤지만 여기만큼 쉽게설명해주는곳없다
ㅋㅋ다른데 바도 설치 못 했다는 반증 ㅋㅋㅋ
@@AIBibleProject2023 이거보곤 했네요ㅎㅎ
여러 프로그램들 비교영상 부탁드립니다
선생님 ~
생성한 캐릭터말고, 불러온(드래그앤 드랍) 캐릭터의 헤어스타일은 어떻게 바꾸는지 알고 계실까요?
프롬프트에서 원하시는 헤어스타일로 바꿔주시면 되실것 같습니다. 좀더 세밀하게 조정하기 위해서는 imgae to image나 inpaint 등을 이용하셔야겠죠.
학습된 ai가 아니면 예를 들어 일러스트 캐릭터 저작권에 걸릴일없나요?
완전히 똑같게 하지면 문제가 될 수 있기 때문에 img2img나 inpaint 등으로 스타일을 변경을 하셔서 하시는 것을 추천드립니다.
용량이 후덜덜 .. 어쩌지
좋은정보 감사합니다. pro 버전을 테스트하려고 들어가봤는데 image to video 나 image to image 기능은 쓸수없는건가요? 프롬프트창만 보여서 여쭙습니다 ㅠ
comfyui 나 stable diffusion에서 개별적으로 커스텀하는것이 아닌 다른 사이트에서 제공하는 노드의 경우 자유도가 떨어지는 부분이 있기 때문에 대부분 한계가 있는것이 사실입니다.
마스터봇님 이 영상이랑 모자제거 영상 둘다 CPU / GPU 영향을 받는 거 같은데 컴터 새로 맞추는데 어느정도로 맞추는게 좋을까요?
대게 작업용으로 인텔 CPU 선택한다고 고민 없었다가 최근 큰 이슈와 AMD 9000번대 기다렸는데 평이 좋지 않아서 고민입니다
그리고 AI작업은 GPU, 특히 VRAM이 중요 하다던데 RTX 4070 8G보다 4060TI 16G 이런게 더 좋은게 맞나요?
AI작업관련 정보영상은 많은데 컴성능 정보는 너무 없네요.. 혹시 컴잘알이신데 조립컴 사양 같은정보도 알려주실 수 있으실까요?
질문할 곳이 없어 여기라도 길게 댓글 달았습니다
컴부터 제대로 맞추고 맴버쉽 가입해서 꼭 사용해보고 싶습니다
혹시 보시면 정보공유 부탁드립니다
모자제거의 경우 생성형 AI 만큼 사양을 크게 타지는 않습니다.
다만 comfyui나 stable diffusion같은 무거운 생성형 AI툴을 이용하신다면 cpu의 성능차이보다 GPU가 매우 중요합니다.
그리고 그래픽카드를 좋은것을 쓰는 이유는 속도적인 측면이 매우 강한데요.
물론 자체 성능도 중요하지만 그래픽카드 메모리(VRAM) 용량이 더 중요합니다.
특히 고해상도 이미지를 뽑고자 할때 VRAM 용량이 지대한 영향을 미치기 때문에 성능은 조금 낮더라도 VRAM 용량이 높은 제품이 유리한것이죠.
8G로는 많이 부족하고 VRAM은 많을 수록 좋다고 보시면 됩니다.
@@masterbot
우선 친절한 댓글 감사합니다 마스터봇님ㅎ
그럼 VRAM 큰 건 굳이 안사도 될 거 같네요
어짜피 새로 맞추는거 사진 같은거도 생성 해보고 싶다정도 였어서.. VRAM 신경 안쓰고 4060TI로 가면 되겠고..
혹시 CPU는 최근 9000번대도 성능이 그닥이라 애매한데 혹시 7800x3D로 가도 되나요?
이건 멀티성능이 너무 안좋아서 생각도 안했었는데 크게 타지 않는다고 해서 확인차 여쭤봐요
그리고 모자제거에 괜찮은, 추천할만한 CPU가 있을까요?
CPU 결정만 도움 부탁드러요 ㅠ
덕분에 쉽게 설치했습니다. 질문하나 드리겠습니다. 샘플이미지 여우메이드 그대로 넣고 Queue 누르면 이미지 생성하기까지 30초정도 딜레이 있고 그 뒤부터 SamplerCustomAdvanced에서 생성하기 시작합니다. 출력까지는 총 1분 10초 걸립니다. 4080인데 정상인가요?
일반적으로 처음 모델을 인식하는데 딜레이가 있고 다음에 이미지를 생성할때는 바로 sampler에서 작업이 빠르게 시작되실꺼에요. 특히 flux모델의 경우 무거운 모델이기 때문에 일반 sd모델과는 다르게 느리게 작동이 됩니다.
@@masterbot 아~ 감사합니다
혹시 낙서같은 단순한 이미지도 학습시켜서 생성할수있을까요??
어떤것인지 이해를 잘 못하겠네요... comfyui나 stable diffusion에서 학습을 하는 기능은 알지 못합니다.
AI로 만들어낸 원본 사진을 조금이라도 변형하면, 프롬프트 역추출이 어렵게 되나요?
프롬프트 역추출은 완벽하게 같게 나오지 않습니다. 미드저니나 스테이블디퓨전, comfyui 등 다양한 툴에서 추출이 가능한데요. 툴마다 프롬프트가 똑같지 않고 다르게 나옵니다. 하지만 실제 출력해보면 비슷하게 나오긴 합니다. 기본적으로 사진을 조금 변경한다고해서 역추출을 할시 크게 다르게 나오진 않습니다.
FreePik에 있는 flux는 pro버전인가요?
공식 사이트에 나와있지 않지만 flux fast(무료)에서 이미지를 생성해본 결과 schnell 모델 성능을 가진 이미지가 출력되는 것을 확인했습니다. dev모델이나 pro 모델 보다 퀄리티가 떨어지는 것을 알 수 있죠. 다만 여기서 유추 가능한 사항으로 freepik에 3가지 flux 모델이 있는데 flux fast(무료)의 경우 schnell 모델, flux(유료)는 dev, flux realism(유료)은 pro 버전이 아닐까 유추해볼 수 있을것 같습니다.
huggingface에 로그인을 해야지 제대로 된 파일을 다운 받을 수 있는 건가요? Comfyui를 실행시켜도 똑같은 flow가 보이지 않아서 여쭈어봅니다!
영상 설명 목차에서 단계별로 나와있는데요. huggingface 에서 모델을 다운로드 받으신 다음 영상에 나온 경로에 모델을 옮겨주시고 영상 설명에 있는 FLUX workflow 사이트로 가셔서 거기 보이는 이미지를 comfyui 화면에 드래그 하시면 거미줄처럼 workflow가 나오게 되죠. 만약 workflow가 보이지 않으면 연에 숨어 있는것일 수도 있으니 마우스 휠을 움직여서 확대하거나 축소하시면서 마우스 왼쪽버튼 드래그를 하셔서 찾아보시면 나오실겁니다.
@@masterbot hugging face에 로그인을 하지 않으니 올바른 형식의 파일로 다운이 안되는것같어서 로그인한 후 파일을 다운받는중입니다! 혹시 로그인하고 동의를 둘러야지만 올바른 형식이 다운되는게 맞을까요?
왜그런지는 모르겠지만 vae의 경우만 huggingface 로그인을 해주셔야 하고 상단 부분에 약관동의에 체크까지 하셔야 다운로드가 가능하도록 되어 있습니다. 나머지의 경우 로그인을 하지 않으셔도 정상적으로 다운로드가 가능합니다. 참고하시길 바랍니다.
@@masterbot 앗 그렇군요! 정말 감사드립니다!
혹시 저 파일들을 다 다운받으면 원랜 마스터봇님과같은 형태의 flow가 자동으로 뜨나요? 저는 하나하나 노드를 추가해서 똑같이 만들었거든요!
모델을 다운받는것은 노드들을 구동을 하기 위해서 받는 것인데요. workflow 자체는 이미지를 드래그하는것 만으로도 자동 생성이 됩니다. 영상설명에 있는 사이트에 올려져 있는 이미지는 comfyui를 통해 만든 이미지이기 때문에 해당 워크플로우가 뜨는 원리 입니다.
1.마스터봇님. 컴피ui 런치 버튼을 눌러서 실행했는데요. 제가 clear를 잘못눌러서 거미줄처럼 연결되어있는 워크플로우 창이 초기화 됐어요. 영상에서 말씀해준 워크플로우 창으로 노드를 다시 되돌리는 방법이 없을까요ㅠ?인터넷에서 암만 찾아봤는데 모르겠어서요..다시 컴피ui를 재설치했는데도 똑같더라고요...ㅠㅠ노드를 화면에 있는것처럼 다시 만들고싶은데 어떻게 해야하는질 모르겠네요, 혹시 화면에있는 워크플로우를 공유해주실수도 있나요? 2.사진을 가져올때 기본 png나 jpeg 파일을 화면에 드래그하면 오류가 나는데, 따로 png나 jpg파일을 업로드 할수는 없나용??
영상에서도 설명했는데요. 영상설명란에 있는 FLUX workflow 사이트에서 이미지를 자신의 워크플로우 창으로 드래그 하시면 해당 이미지를 만들었던 노드들이 만들어지는 것을 볼 수 있으실겁니다. 워크플로우를 저장하려면 오른쪽 바에 save 버튼을 누르면되고 불러오려면 load 버튼으로 불러오실 수 있습니다. 안되시면 말씀 주세용
@@masterbot 아 바뀌었네요!!ㅎㅎ괜히 엄한곳에서 혼자 찾아 헤맸네요.감사합니다!!!
잘따라 하고 있습니다 그런데 저는 데이터 폴더가 없어서 진행을 못하고 있는데 혹시 다른 경로에 있나요?
stability matrix로 받으셨다면 Data 폴더의 경우 stability matrix 폴더 안에 있구요. 따로 깃허브에서 받으셔서 하셨다면 data 폴더 없이 바로 comfyui나 stable diffusion 폴더 안으로 들어가셔서 하시면 됩니다.
정상적으로 폴더에 다 넣고 런치누르면 창이 따로안뜨네요. 그래서 webUI 누르니 웹하나가뜨는데 거미줄화면이 너무 단조로운화면만 나옵니다. 어디서잘못되걸까요
파일들도 혹시 잘못다운받은게 아닌가싶어서 여러번 비교해봐도 정상적으로 다운받았고 위치도 정상적으로 넣었는데도 안되네요 ㅠㅠ
comfyui Launch 버튼을 눌렀는데 자동으로 창이 열리지 않는다면 자동 실행 설정이 되어 있지 않은 경우일 수 있습니다. Launch버튼 위에 있는 수레바퀴 모양(Launch options) 버튼을 눌러서 맨아래 --auto-launch 옵션에 체크를 하고 저장을 해주시면 다시 Launch버튼을 눌렀을때 자동으로 창이 열리실겁니다.
@@masterbot 오토런치 했음에도 나오는 UI화면이 영상의 거미줄이라 표현하신것처럼 복잡하지않고 요소가 몇개없는 아주간단한구조로 나오네요. ㅠㅠ
모든 절차대로 넣었는데 'typeError: Failed to fetch'라고 뛰어지는데 뭔가요?
vae나 dualclip등을 flux용으로 제대로 맞추셨는지 확인해보시길 바랍니다.
queue prompt 생성 버튼을 누르면 14% 진행되다가 더이상 진행이 안되네요...왜이런걸까요?
GPU VRAM 메모리 문제일 수도 있는데요. 해상도가 너무 크거나 하면 발생할 수 있습니다. 자세한 오류 코드는 CMD 창에서 확인해보시면 나오실거에요.
설명대로 schnell 버젼으로 실행하려고 하는데 reconnect 에러와 Failed to fetch에러가 발생합니다. 해결방법이 없을까요?
대부분 오류문구에 문제 원인이 나와있는데요 stability로 하셨다면 stability matrix 창에서 확인하실수 있습니다. numpy 오류라면 numpy 버전을 확인해보시길 바랍니다.
검색해서 알아냈습니다. 가상 메모리가 작게 설정되어 있어서 그런거네요.
vae 가 다운로드가 안되네요.
vae의 경우 로그인을 해주셔야 하고 약관동의에 체크를 하셔야 다운로드가 가능하도록 되어 있습니다. 참고하시길 바랍니다.
@@masterbot 감사합니다.
웹UI에서는 안되나?
가능합니다. 다음 영상 ua-cam.com/video/DttHQltnAtY/v-deo.html 여기서 확인하실 수 있습니다.
스테이블디퓨전 설명인가요??
stable diffusion이 아닌 comfyui 에 들어가는 모델입니다.