잘보았습니다 몇가지 첨언 하자면 ... 케이스는 클수록 좋고, 텅빈 공간이 많을수록 냉각에 좋습니다. 소음은 냉각을 위해 포기하고 서버실에 넣는게 좋습니다. 그리고 학습머신도 중요하지만 요즘은 데이타 전처리머신이 더 중요합니다. 전처리 머신의 운영체계는 생산성 측면에서 맥오에스가 최고죠.
@@TheEasyoung 1. 파인더: - 파일 및 폴더별 태그 기능 과 다양한 파일 미리보기 모드가 있어서 이미지 분류 및 정렬, 리네이밍 등의 지루한작업의 생산성을 높여준다.(하얀배경 윈도 탐색기의 각진폰트와 각진아이콘들로 하루종일 이 짓을 한다는건 생각만 해도 끔찍하다..) 2. 터미널에 imagemagick이 기본 설치되 있으며 sox, ffmpeg의 설치도 간단하여 이미지, 오디오, 비디오 파일의 전처리가 편리하고 bash shell과 연동시 파워풀하게 빅데이타 오그먼테이션 처리가 가능하다. 3. 터미널에서 파이썬, 옥타브(매트랩 클론), 깃허브 소스가 바로 돌기 때문에 다양한 데이타 처리 기술들을 가져다 사용할 수 있다. 4. 해상도 4k, 5k의 고해상도 디스플레이는 마우스 확대기능과 연결해 미세한 물체의 육안검사를 아주 편리하고 빠르게 작업하도록 돕는다. 5. XCode의 CoreML은 전처리한 데이타를 사전 검증하는 용도로 아주 편리하다. 하이엔드 딥러닝 학습 기능을 비주얼하게 제공해 주기 때문.(Metal GPGPU기능으로 딥콘볼루션을 가속화해주는건 덤~) 6. 애플펜슬과 사이드카로 미세한 형체의 Object Detection용 Masking 작업이 가능하다.(포토샵에서 누끼 따는 것과 비슷한 지루한 작업인데 마우스로 수천수만장 이미지에 이걸한다는건... 인간승리다.) 7. 맥터미널과 리눅스서버(학습 서버)는 ssh 연결성이 아주좋다. 맥에서 작업한 수백만개 파일은 압축 없이도 mc 같은 터미널 앱으로 한번클릭에 모두 옮길수 있다.(아규먼트 리스트 투롱 에러도 않난다)
아주 멋진 컴퓨터 입니다. 저도 딥러닝용 컴퓨터를 구입하려고 하는데, 컴퓨터에 총 얼마를 투자하셨나요? 그리고, 딥러닝을 CPU로 돌릴때와 GPU로 돌릴 때, 속도의 차이가 얼마나 나나요? 만약, CPU에서 5시간 정도 걸리는 모델이라면, GPU에서는 1시간 이내에 할 수 있나요?
좋은 인사이트 공유해주셔서 감사합니다. 제가 쓰레드란 개념에 대해 헷갈리는 부분이 있어서 질문드립니다. 파이썬에서는 한 코드가 실행될때, 별도의 작업을 하지 않으면 하나의 쓰레드로 실행이 된다고 알고 있었습니다. 그러면 말씀해주신 예제처럼 한 코드 안에 연산이 여러개가 있는 경우는 순차적으로 한 쓰레드로 실행이 되는게 아닌지요? 각 연산을 여러 쓰레드로 처리했다는 말이 멀티쓰레드로 처리했다는 말을 의미하신것인지 궁금합니다. 또, 파이썬에서는 GIL 때문에 멀티쓰레드가 불가능하다는 말을 얼핏 들은 기억이 있는데, 이것과도 연관지어서 말씀해주실수 있으실지요? 감사합니다!
맞습니다. 너무 좋은 질문 감사합니다. 파이썬은 기본적으로 GIL을 통해 한개의 스레드로 작동합니다.파이썬의 경우, 멀티 코어를 통해 멀티 프로세스로 처리하시는 방법이 있습니다. 12코어/24스레드라면 파이썬의 경우 12개의 연산을 한번에 수행 가능합니다. 물론 다른 언어라면 24개의 연산을 한번에 수행 가능합니다. gpu를 사용하게 되면 텐서플로나 파이토치는 c++라이브러리를 통해 cudnn을 사용하려 파이썬 의존성 없이 병렬적으로 한번에 수행 가능해지죠. 도움이 되는 답변이 되었길 바래요!
모델 사이즈가 커져셔 GPU VRAM이 부족할 경우 학습 자체가 안됩니다. 시스템 메인 메모리가 64GB 혹은 128GB 정도로 넉넉하면 CPU로 학습이 가능하다는 장점이 있죠. 이럴 땐 CPU의 스레드가 매우 많으면 CPU 자체를 사용해도 되고 내장 GPU를 이용해서 학습해도 괜찮습니다. 대신 내장 GPU를 쓰게 되면 바이오스에서 공유 VRAM을 아주 넉넉하게 잡아주면 되겠죠. 그리고 외장 GPU로 학습이 가능해도 CPU로 다른 모델을 동시에 학습해 볼 수 있으니 시간 절약이 되겠죠. 연구소 딥러닝 PC들 보면 4090 4 ways로 장착해도 시스템 메인 메모리를 가장 큰 램들로 풀뱅크 구성하는 이유가 여기에 있습니다. 참고로 시스템 메인 메모리는 부족하면 SSD에 스왑이 가능해서 실제적으로 메모리가 부족한 경우는 거의 없지만 딥러닝 학습 시 수 많은 가중치와 바이어스들을 역전파 과정에서 업데이트 해야하는데 이럴 경우 SSD 스왑으로 메모리 일부분을 할당하게 되면 학습 전체 과정이 매우 느려질 수 있습니다.
Cuda는 엔비디아의 독자적 기술로 텐서플로나 파이토치 모두 cuDNN을 사용하여 cuda 인터페이스에 연결해서 gpu를 통한 병렬 학습을 가능케 합니다. 이 구조에 cpu는 연관성이 없어서 인텔이나 amd의 cpu 상관없이 gpu를 통한 학습이 가능합니다. 질문이 엔비디아 gpu대신 AMD gpu를 사용할 경우에 가까운 것 같습니다. amd gpu에는 쿠다라는 개념이 없어서 구성이 까다로운 것으로 알고 있습니다. 저는 엔비디아 gpu를 사용합니다 ^^
안녕하세요. 영상 잘 보았습니다. 허민석 님은 딥러닝 모델 학습 속도를 높히기 위해서 GPU, CPU 선택 시 고려 사항을 말씀해 주셨는데요 혹시 Apache Spark의 연산 속도를 높히기 위해 GPU 성능을 활용할 수 있는 방법을 조언해 주실 수 있나요?? 전 딥러닝 보다는 대규모 데이터를 query하기 위해 Spark를 사용하고 싶은데, GPU로 성능을 높힐 수 있을 지 궁금합니다.
좋은 질문 감사합니다. 제가 gpu로 스파크를 돌린 적은 없지만, 아래 링크를 보니 가능한 것 같습니다. gpu를 통해 sparksql, dataframe 성능을 높힐 수 있다고 적혀있네요. www.nvidia.com/en-us/deep-learning-ai/solutions/data-science/apache-spark-3/
좋은 영상 감사드립니다. 혹시 딥러닝에 사용되는 텐서플로의 경우 gpu의 성능에 따라 학습시간이 줄어드는 것은 당연히 알고 있는 사실인데, 이 성능향상의 원인이 CUDA코어의 개수의 따라 증감이 되는 것이 맞을까요? 단적인 예로 1060의 CUDA코어 개수는 1280개, 3080의 CUDA코어 개수는 8704개로 나오는데 그렇다고 성능이 개수만큼 7배만큼 늘어나는 것이 아닌 어느정도 눈에 띄는 속도 향상이 있을까요? 물론 VRAM의 중요성도 알고 있지만 이를 제외하고 단순히 CUDA코어의 갯수로 속도의 차이가 나는지 궁금합니다. 감사합니다.
코어의 갯수 차이 상당히 중요합니다. 코어의 갯수에 따라 한번에 최적화할 수 있는 노드의 양에 차이가 생기기 때문이죠. 제가 따로 벤치마크해보진 않았지만 아래 링크 보시면, 1080TI (3584 core)와 2080TI (4352 core)의 1초당 이미지 처리량이 1.5배 차이나는 것을 볼 수 있습니다. 코어의 갯수는 1.2배 차이납니다. 무조건 비례는 아니지만, 벤치마크 링크가 객관적으로 이해하시는 데 도움될 것 같습니다. www.aime.info/en/blog/deep-learning-gpu-benchmarks-2019/
한단계씩 스펙을 낮춘다면 아래와 같게 구성은 할 수 있을 거 같습니다. cpu: amd ryzen 7 gpu: rtx 2080 ram: 32gb power: 650W 가성비도 중요하지만, 본인이 다룰 딥러닝 모델에 맞게 PC를 맞추시는 게 중요합니다. 입문자분들에게는 실제 딥러닝 PC가 필요없고 노트북으로 코랩으로 실습하시는 것을 추천드립니다. 실제 딥러닝 PC가 필요하시다면, 고려 많이 하셔서 본인에게 가장 알맞은 좋은 PC 잘 고르시길 바래요. 감사합니다.
안녕하세요 딥러닝 컴퓨터 관련 부품 조합중인데, 영상 도움 정말 많이되었습니다. 저는 Intel i9 10900k랑 rtx3090 사용하려하는데 메인보드 z490 auros master 괜찮을까요? Rtx3090과 함께 사용하는 X73쿨러 조합이 크기가 커서 케이스 고르는데 어려움이 있는데 혹시 몇가지 추천해 주실 수 있나요?
진짜 영상만 보고 가려고 했는데 영상이 진짜 깔끔하고 비유하시는게 진짜 이해도 쉬워서 도움이 진짜 많이 되네요 감사합니다
설명을 상당히 차분하게 잘하시네요. 부럽습니다...
항상 좋은 정보 감사합니다!!!
오~~ 잘 봤어요 ㅎㅎ
고마워요 ㅎ
감사합니다
영상 잘보고 있습니다. 혹시 노트북으로도 추천 가능할까요?
감사합니다. 아직 개인적으로 추천할민한 노트북이 없어요! 저는 노트북으로 딥러닝 실습 시 코랩으로 학습을 하곤 합니다.
2024년 딥러닝 개인 컴을 제작한다면 어떻게 해야 할까요 ? 😊
혹시 모니터는 몇 인치 짜리 사용하시나요? 2개 사용하시나요?
저는 아래 모니터 사용합니다. 불편함 없이 사용하고 있어요.
LG 27UK850-W 27" 4K UHD IPS Monitor with HDR10 with USB Type-C Connectivity and FreeSync, White
운영체제는 우분투 쓰시나요?
현재는 윈도우 씁니다. 문제 없이 잘 쓰고 있어요.
i5로는 딥러닝 불가능 할까요?
잘보았습니다 몇가지 첨언 하자면 ...
케이스는 클수록 좋고, 텅빈 공간이 많을수록 냉각에 좋습니다.
소음은 냉각을 위해 포기하고 서버실에 넣는게 좋습니다.
그리고 학습머신도 중요하지만 요즘은 데이타 전처리머신이 더 중요합니다.
전처리 머신의 운영체계는 생산성 측면에서 맥오에스가 최고죠.
감사합니다. 맥 os의 어떤면이 생산성 측면에서 최고라고 생각되셨는지 궁금합니다.
@@TheEasyoung 1. 파인더:
- 파일 및 폴더별 태그 기능 과 다양한 파일 미리보기 모드가 있어서 이미지 분류 및 정렬, 리네이밍 등의 지루한작업의 생산성을 높여준다.(하얀배경 윈도 탐색기의 각진폰트와 각진아이콘들로 하루종일 이 짓을 한다는건 생각만 해도 끔찍하다..)
2. 터미널에 imagemagick이 기본 설치되 있으며 sox, ffmpeg의 설치도 간단하여 이미지, 오디오, 비디오 파일의 전처리가 편리하고 bash shell과 연동시 파워풀하게 빅데이타 오그먼테이션 처리가 가능하다.
3. 터미널에서 파이썬, 옥타브(매트랩 클론), 깃허브 소스가 바로 돌기 때문에 다양한 데이타 처리 기술들을 가져다 사용할 수 있다.
4. 해상도 4k, 5k의 고해상도 디스플레이는 마우스 확대기능과 연결해 미세한 물체의 육안검사를 아주 편리하고 빠르게 작업하도록 돕는다.
5. XCode의 CoreML은 전처리한 데이타를 사전 검증하는 용도로 아주 편리하다. 하이엔드 딥러닝 학습 기능을 비주얼하게 제공해 주기 때문.(Metal GPGPU기능으로 딥콘볼루션을 가속화해주는건 덤~)
6. 애플펜슬과 사이드카로 미세한 형체의 Object Detection용 Masking 작업이 가능하다.(포토샵에서 누끼 따는 것과 비슷한 지루한 작업인데 마우스로 수천수만장 이미지에 이걸한다는건... 인간승리다.)
7. 맥터미널과 리눅스서버(학습 서버)는 ssh 연결성이 아주좋다. 맥에서 작업한 수백만개 파일은 압축 없이도 mc 같은 터미널 앱으로 한번클릭에 모두 옮길수 있다.(아규먼트 리스트 투롱 에러도 않난다)
자세한 인사이트 감사합니다. 여러모로 맥 os가 데이터 처리에 큰 도움을 주네요.
@@TheEasyoung 8. 딥러닝 깃허브소스를 맥터미널에서 cpu모드로 미리 돌려볼수 있다.
학습속도는 당근 느리지만
내 커스텀 테이타를 로딩할수 있는지 테스트 할수있다는 것만으로도 충분히 의미있다.
아 .. 진짜 인정합니다....
진짜 이것때매 맥을 못버려요,.
정말 사소한건데 파인더 부터 해서 아이패드 연동 마스킹까지...
근데 맥으로 딥러닝을 돌리는건 무리여서 고민이 됩니다 ㅠㅠㅠ
이영상으로 와이프 설득 가능 꿀팁 감사합니다
아주 멋진 컴퓨터 입니다. 저도 딥러닝용 컴퓨터를 구입하려고 하는데, 컴퓨터에 총 얼마를 투자하셨나요? 그리고, 딥러닝을 CPU로 돌릴때와 GPU로 돌릴 때, 속도의 차이가 얼마나 나나요? 만약, CPU에서 5시간 정도 걸리는 모델이라면, GPU에서는 1시간 이내에 할 수 있나요?
GPU 기종에 따라 다르지만 가능합니다. 전 300만원대로 조립했던 걸로 기억합니다.
@@TheEasyoung 300 만원대로 조립 하셨으면 가성비가 아주 좋네요.
좋은 인사이트 공유해주셔서 감사합니다.
제가 쓰레드란 개념에 대해 헷갈리는 부분이 있어서 질문드립니다.
파이썬에서는 한 코드가 실행될때, 별도의 작업을 하지 않으면 하나의 쓰레드로 실행이 된다고 알고 있었습니다.
그러면 말씀해주신 예제처럼 한 코드 안에 연산이 여러개가 있는 경우는 순차적으로 한 쓰레드로 실행이 되는게 아닌지요?
각 연산을 여러 쓰레드로 처리했다는 말이 멀티쓰레드로 처리했다는 말을 의미하신것인지 궁금합니다.
또, 파이썬에서는 GIL 때문에 멀티쓰레드가 불가능하다는 말을 얼핏 들은 기억이 있는데, 이것과도 연관지어서 말씀해주실수 있으실지요?
감사합니다!
맞습니다. 너무 좋은 질문 감사합니다. 파이썬은 기본적으로 GIL을 통해 한개의 스레드로 작동합니다.파이썬의 경우, 멀티 코어를 통해 멀티 프로세스로 처리하시는 방법이 있습니다. 12코어/24스레드라면 파이썬의 경우 12개의 연산을 한번에 수행 가능합니다. 물론 다른 언어라면 24개의 연산을 한번에 수행 가능합니다. gpu를 사용하게 되면 텐서플로나 파이토치는 c++라이브러리를 통해 cudnn을 사용하려 파이썬 의존성 없이 병렬적으로 한번에 수행 가능해지죠. 도움이 되는 답변이 되었길 바래요!
안녕하세요. 동영상 잘 보았습니다. 그런데 램을 64gb로 두면 딥러닝에 도움이 되나요? 예산 상 32gb로 두어도 어차피 gpu가 연산을 하기에 램이 필요가 없을지도 모른다는 생각이 들었습니다. 감사합니다.
모델 사이즈가 커져셔 GPU VRAM이 부족할 경우 학습 자체가 안됩니다. 시스템 메인 메모리가 64GB 혹은 128GB 정도로 넉넉하면 CPU로 학습이 가능하다는 장점이 있죠. 이럴 땐 CPU의 스레드가 매우 많으면 CPU 자체를 사용해도 되고 내장 GPU를 이용해서 학습해도 괜찮습니다. 대신 내장 GPU를 쓰게 되면 바이오스에서 공유 VRAM을 아주 넉넉하게 잡아주면 되겠죠. 그리고 외장 GPU로 학습이 가능해도 CPU로 다른 모델을 동시에 학습해 볼 수 있으니 시간 절약이 되겠죠. 연구소 딥러닝 PC들 보면 4090 4 ways로 장착해도 시스템 메인 메모리를 가장 큰 램들로 풀뱅크 구성하는 이유가 여기에 있습니다. 참고로 시스템 메인 메모리는 부족하면 SSD에 스왑이 가능해서 실제적으로 메모리가 부족한 경우는 거의 없지만 딥러닝 학습 시 수 많은 가중치와 바이어스들을 역전파 과정에서 업데이트 해야하는데 이럴 경우 SSD 스왑으로 메모리 일부분을 할당하게 되면 학습 전체 과정이 매우 느려질 수 있습니다.
@@helios6978 답변 정말 감사드립니다. 멋진 하루 되십시오!
좋은 정보입니다. 근데 스펙만 보고.. 발열이 적고 튼튼하다라는 부분을 알기가 쉽지가 않네요 ㅠㅠ 저도 마더보드좀 깐깐히 보고 싶은데.. 좋은 녀석들이 최신으로 누가있는지 알지는 가장 어려운
좋은 정보 감사합니다. 해당 사양으로 그래픽 카드는 몇개 꽂을 수 있을까요? 2080ti 2개는 힘들런지요
30시리즈가 2080 ti보다 가성비 좋게 나올 예정인데 기다려보시는 것도 좋을 듯합니다. 슬롯은 세개 있는데 저는 gpu 한개만 꼽고 사용중입니다.
안녕하세요. 궁금한게 tensorflow 사용하는데 인텔 cpu아니면 잘 못잡는다는데 제가 잘못알고 있나요? 컴알못이라 질문드립니다.
cpu 상관없이 텐서플로 잘 돌아갑니다. 학습은 gpu로 돌립니다. 감사합니다.
@@TheEasyoung 아 그렇군요. 감사합니다.
저도 이 얘기를 듣고 무조건 인텔로 가야하나 했는데, 아닌가 보네여...
영상 잘봤습니다ㅎ
혹시 3070으로도 어느정도 규모가 있는 데이터를 디텍션이나 세그멘테이션을 활용하여 학습이 가능할까요?
예산문제 때문에 3070으로 맞춰보려고 하는데 gpu 메모리가 8기가라서 데이터가 못올라 갈까봐 걱정되서요ㅜㅜ
lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/
배치 사이즈를 줄이시면 학습 가능하십니다. 예제는 위 링크에 있습니다. 물론 배치 사이즈를 줄이면 성능에 영향은 주지만, 학습은 가능하십니다.
쉽고 자세한 설명 잘 들었습니다.
고마워요! ㅎㅎ
os는 우분투 쓰시나요?
지금은 윈도우 씁니다.
@@TheEasyoung wsl이 나와서 윈도우를 사용하시는 건지요?? 도커 속도 차이는 없나요??
Rtx2080 ti 2개 사용하는것과 rtx3080 ti 한개 사용하는것중 뭐가 더 좋을까요?
메모리 용량때문에 2080ti 2개가 나으려나요?
혹 입문자용 스팩 추천해주실수있나요... 저걸로 맞추기엔 입문자인데 가격이 너무쎄기도 하고 적당한거 찾기가 힘드네요....
입문자분들께는 pc구매하시는 것보다 클라우드 사용하시는 것을 추천드려요. 왠만한 예제들은 구글 코랩에서 무료로 다 돌아갑니다. 코랩은 gpu도 무료로 지원하구요. 코랩 사용하시다가 불편함을 느끼시면 그 때 pc구매를 고려해보셔도 될 거 같습니다.
@@TheEasyoung 선생님! 혹시 그렇다면 클라우드 사용하는거로 가정하면 일반 노트북 추천해주신다면,,, 어떤거 추천해주시나엽..?(현재 맥북에어2017 사용 중이고 코딩할 때 좀 느린걸 느껴서 m1다음 버전 나오면 애플쪽으로 살까 하는데 괜찮을지 궁금하네요!)
좋은 영상 감사합니다.
AMD CPU 에서는 CUDA가 지원이 안되는 것으로 아는데, 어떤식으로 딥러닝 프레임워크를 구축하는지 궁금합니다.
저는 주로 PyTorch를 쓰고 있는데, 이 셋업으로 PyTorch사용도 가능한가요?
Cuda는 엔비디아의 독자적 기술로 텐서플로나 파이토치 모두 cuDNN을 사용하여 cuda 인터페이스에 연결해서 gpu를 통한 병렬 학습을 가능케 합니다. 이 구조에 cpu는 연관성이 없어서 인텔이나 amd의 cpu 상관없이 gpu를 통한 학습이 가능합니다. 질문이 엔비디아 gpu대신 AMD gpu를 사용할 경우에 가까운 것 같습니다. amd gpu에는 쿠다라는 개념이 없어서 구성이 까다로운 것으로 알고 있습니다. 저는 엔비디아 gpu를 사용합니다 ^^
네 두번째로 정정해주신 질문이 더 맞는 것 같네요 :) 감사합니다.
결국엔 최신 게임용 PC랑 동일한듯 ...
12코어짜리 시퓨면 그 이상일듯요
겜하면 보통 6~8코어니
다 합치면... 대략적인 가격이 얼마 정도 나오나요?
아래 aiBoo님께서 친절하게 현 최저가 시세로 알아봐주셨습니다. 대략 300만원 정도로 보입니다.
10700k랑 10900k이랑어떤CPU 살까 고민했는데 10900으로 가는걸로 결정했네요
일단 AMD는 딥러닝작업할떄 안되는 프로그램이 있어서 제외 했는지라
감사합니다. 어떤 프로그램의 제약이 있는 지 알 수 있을까요?
안녕하세요. 영상 잘 보았습니다. 허민석 님은 딥러닝 모델 학습 속도를 높히기 위해서 GPU, CPU 선택 시 고려 사항을 말씀해 주셨는데요
혹시 Apache Spark의 연산 속도를 높히기 위해 GPU 성능을 활용할 수 있는 방법을 조언해 주실 수 있나요??
전 딥러닝 보다는 대규모 데이터를 query하기 위해 Spark를 사용하고 싶은데, GPU로 성능을 높힐 수 있을 지 궁금합니다.
좋은 질문 감사합니다. 제가 gpu로 스파크를 돌린 적은 없지만, 아래 링크를 보니 가능한 것 같습니다. gpu를 통해 sparksql, dataframe 성능을 높힐 수 있다고 적혀있네요.
www.nvidia.com/en-us/deep-learning-ai/solutions/data-science/apache-spark-3/
좋은 영상 감사드립니다.
혹시 딥러닝에 사용되는 텐서플로의 경우 gpu의 성능에 따라 학습시간이 줄어드는 것은 당연히 알고 있는 사실인데, 이 성능향상의 원인이 CUDA코어의 개수의 따라 증감이 되는 것이 맞을까요?
단적인 예로 1060의 CUDA코어 개수는 1280개, 3080의 CUDA코어 개수는 8704개로 나오는데 그렇다고 성능이 개수만큼 7배만큼 늘어나는 것이 아닌 어느정도 눈에 띄는 속도 향상이 있을까요?
물론 VRAM의 중요성도 알고 있지만 이를 제외하고 단순히 CUDA코어의 갯수로 속도의 차이가 나는지 궁금합니다.
감사합니다.
코어의 갯수 차이 상당히 중요합니다. 코어의 갯수에 따라 한번에 최적화할 수 있는 노드의 양에 차이가 생기기 때문이죠. 제가 따로 벤치마크해보진 않았지만 아래 링크 보시면, 1080TI (3584 core)와 2080TI (4352 core)의 1초당 이미지 처리량이 1.5배 차이나는 것을 볼 수 있습니다. 코어의 갯수는 1.2배 차이납니다. 무조건 비례는 아니지만, 벤치마크 링크가 객관적으로 이해하시는 데 도움될 것 같습니다.
www.aime.info/en/blog/deep-learning-gpu-benchmarks-2019/
@@TheEasyoung 굉장히 가려웠던 부분을 긁어주신 기분입니다! 전문적인 답변과 링크 정말 감사드립니다 :)
쪼금만 참으시지 ㅠㅠ
ㅎㅎㅎ 3080 가격이 매우 착하게 나왔네요.
그리고 3080이 150만원에 거래되는 대란이 발생... 신의 한수가 되었다!!
지금 2000번대 Gpu 샀던값에 중고로 팔 수 있어요 ㅋㅋㅋ
@@jlee3680 지금은 200 ㅠㅠ
이렇게까지 좋은 사양이 있으면 좋겠지만 현실적으로 구성하기 힘들어서 혹시 200만원 안쪽으로 최대한 가성비좋게 구성하는 법 추천해주실 수 있나요?
한단계씩 스펙을 낮춘다면 아래와 같게 구성은 할 수 있을 거 같습니다.
cpu: amd ryzen 7
gpu: rtx 2080
ram: 32gb
power: 650W
가성비도 중요하지만, 본인이 다룰 딥러닝 모델에 맞게 PC를 맞추시는 게 중요합니다. 입문자분들에게는 실제 딥러닝 PC가 필요없고 노트북으로 코랩으로 실습하시는 것을 추천드립니다. 실제 딥러닝 PC가 필요하시다면, 고려 많이 하셔서 본인에게 가장 알맞은 좋은 PC 잘 고르시길 바래요. 감사합니다.
답글 감사합니다!!
입문자는 아니고, 연구실에서 공용으로 쓰는 스테이션의 gpu가 부족해서 개인용으로 맞추려던 차였습니다ㅎㅎ 답글 달아주신 사양으로 한번 찾아보겠습니다 감사합니당
그렇군요! 네 가성비로는 2080 괜찮습니다. 실제 가격은 절반이지만 성능은 절반 이상입니다.
2020-08-27 다나와 기준 최저가(단위:원)
총 2,936,100원
-----------------------------------------------------------------------------------
CPU: Ryzen 9 3900X
= 564,600원
GPU: RTX 2080 Ti
= 845,000원
MOBO: X570 AUROS Master
= 268,600
Ram: Vengeance RGB Pro 64gb ram
= 445,000
M.2: 970 EVO NVMe M.2 1TB
= 242,900
PSU: Corsair AX 850W
= 347,000
Case: Phanteks Eclipse P600s
= 223,000
공유 감사합니다. GPU 정가가 1199달러인데 최저가가 저렴하네요.
2080ti는 현재 품절이라고, 그리고 3090나오니 사지도 말라고 컴터유튜버들이 말하던데. 그래서 가격이 업데이트 안되고 싼거 같네요.
Ji Won Choi 네 3080ti가 어떻게 나올 지 저도 기대됩니다.
노트북으로 코랩쓰는데 너무 느려요.... ㅠㅠㅠ 어떻게해야할까요
어떤 점이 느린 지 모르겠지만 노트북이 원인이 아닐 경우, 학습이 느린 경우, gpu나 tpu를 사용하시면 학습이 훨씬 빠릅니다.
안녕하세요 딥러닝 컴퓨터 관련 부품 조합중인데, 영상 도움 정말 많이되었습니다. 저는 Intel i9 10900k랑 rtx3090 사용하려하는데 메인보드 z490 auros master 괜찮을까요? Rtx3090과 함께 사용하는 X73쿨러 조합이 크기가 커서 케이스 고르는데 어려움이 있는데 혹시 몇가지 추천해 주실 수 있나요?
제가 사용하지 않아본 조합이라 말씀드리기 어렵네요. 좋은 조합 잘 찾으시기 바래요!