- 36
- 56 015
텐초
Приєднався 27 лип 2013
[내돈내산] 어쩌면 버튜버를 대체할 새로운 기술 vtoonify
리뷰요청, 코딩 개인 레슨 문의
open.kakao.com/o/gSER2IHe
참여 코드: 27Lr
open.kakao.com/o/gSER2IHe
참여 코드: 27Lr
Переглядів: 499
Відео
[내돈내산 논문리뷰] 압구정 성형외과 압도하는 DualStyleGAN
Переглядів 5782 роки тому
리뷰요청, 코딩 개인 레슨 문의 open.kakao.com/o/gSER2IHe 참여 코드: 27Lr
[Must Have 텐초의 파이토치 딥러닝 특강] 15장. 데이터 없이 학습하는 GAN
Переглядів 3262 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 14장. 화질을 개선하는 GAN
Переглядів 2852 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 13장. 사람 얼굴을 생성하는 GAN
Переглядів 3462 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 12장. 캡챠 텍스트 인식: CRNN + GRU
Переглядів 4742 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 11장. 직접 만드는 번역기: 어텐션 기계번역
Переглядів 3592 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 10장. 글쓰는 인공지능: LSTM 텍스트 생성
Переглядів 3762 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 9장. 자동채색: Let There Be color
Переглядів 4342 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 8장. 이미지 노이즈 제거: 오토인코더
Переглядів 5932 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 7장. 이미지 세그멘테이션 : U-Net
Переглядів 9942 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT 추가. 데이터에 오류가 일부 있었습니다 현재는 삭제조치 했으나, 로컬에서 실습...
[Must Have 텐초의 파이토치 딥러닝 특강] 6장. RNN으로 넷플릭스 주가 예측
Переглядів 8122 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 5장. ResNet 학습하기
Переглядів 9222 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 4장. CNN과 VGG로 사진 분류하기
Переглядів 1,4 тис.2 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 3장. 간단한 신경망 만들기
Переглядів 1,9 тис.2 роки тому
이번에 제가 지금껏 공부해왔던 딥러닝 지식을 담은 《Must Have 텐초의 파이토치 딥러닝 특강》을 출간하게 되어 저자강의를 진행하게 되었습니다. 딥러닝을 공부하는데 있어서 가장 중요한 기초를 다지는 예제와 초보 탈출을 위한 심화 예제까지 최대한 한권으로 딥러닝 공부를 끝마칠 수 있게 담아보았습니다. 파이토치를 이용해 직접 신경망을 설계해볼 수도 있고, 학습이 완료된 가중치를 공유하고 있으니 시간을 최대한 아껴서 공부하실 수 있습니다. (본 강의는 1장에 들어있는 내용을 예습했다는 전제하에 진행됩니다) 📕 교보 : bit.ly/3cxAktt 📕 예스24 : bit.ly/3oDdDGY 📕 알라딘 : bit.ly/3b5tCdT
[Must Have 텐초의 파이토치 딥러닝 특강] 2장. 인공 신경망 ANN 이해하기
Переглядів 3 тис.2 роки тому
[Must Have 텐초의 파이토치 딥러닝 특강] 2장. 인공 신경망 ANN 이해하기
[자연어처리 특강(完)] BERT와 GPT(Feat. 자연어처리 태스크)
Переглядів 2,5 тис.3 роки тому
[자연어처리 특강(完)] BERT와 GPT(Feat. 자연어처리 태스크)
[자연어처리 특강2.] 워드 임베딩(Word2Vec, TF-IDF)
Переглядів 1,3 тис.3 роки тому
[자연어처리 특강2.] 워드 임베딩(Word2Vec, TF-IDF)
[내돈내산 논문리뷰] ViT의 진화형, Swin Transformer
Переглядів 6 тис.3 роки тому
[내돈내산 논문리뷰] ViT의 진화형, Swin Transformer
[내돈내산 논문리뷰]차세대 convolution, Involution 파헤치기
Переглядів 1,6 тис.3 роки тому
[내돈내산 논문리뷰]차세대 convolution, Involution 파헤치기
[인공지능 강의 교양편 3.] 마케팅에서의 활용, 군집화와 연관규칙 분석
Переглядів 1583 роки тому
[인공지능 강의 교양편 3.] 마케팅에서의 활용, 군집화와 연관규칙 분석
[인공지능 강의 교양편2.] 컴퓨터의 마음 이해하기, 컴퓨터가 보는 이미지
Переглядів 2113 роки тому
[인공지능 강의 교양편2.] 컴퓨터의 마음 이해하기, 컴퓨터가 보는 이미지
classification에선 결정경계가 margin을 최대화 할수록 좋은거 아닌가요? SVM이 그렇게 구해지는걸로 알고있어서요 regression에선 회귀선과 point 간 오차가 적어야 좋구요 설명이 좀 헷갈리네요
마지막에가 조금 어렵지만 좋은 강의 입니다!
드롭아웃에 대한 설명이 잘 못된 것이 아닌지 궁금합니다. 노드를 무작위로 비활성화 시켜야하는 것으로 알고 있습니다. 교재, 유튜브 설명은 드롭컨넥트(Drop Connect)에 대한 설명 같습니다.
말씀하신 내용이 맞습니다 활성화된 출력의 일부를 0으로 만들어야되는게 맞고 설명에 오류가있었던 것으로 확인됩니다
텐초님. 모델 학습과정 손실 계산 부분 loss = nn.BCEWithLogitsLoss() 에서 ValueError: Target size (torch.Size([1, 128, 128])) must be the same as input size (torch.Size([128, 128])) 이 에러가 나고 있습니다. 올려주신 소스 그대로 실행해보고 있습니다. 어떤 부분을 확인해봐야 할까요?
모델 출력하고 데이터로더가 반환하는 정답의 모양이 일치하지 않는게 문제입니다 모델의 마지막출력 직전에 unsqueeze같은 함수로 배치 차원을 추가해주세요
근데 이상하네요 모델의 순전파쪽에서 squeeze를 해주고 데이터셋의 preprocess mask함수에서 채널정보를 지울테니 보통이라면 뜰수없는 에러입니다 코드에 오타가 없는지 확인해주세요
@@텐초 처음부터 나오는 것이 아니라 epoch1 loss:0.5439759492874146: 98%|█████████▊| 62/63 [02:31<00:02, 2.45s/it] 이 상태에서 발생합니다. ValueError Traceback (most recent call last) Cell In[15], line 8 5 optim.zero_grad() # 이전 루프의 기울기 초기화 7 preds = model(data.to(device)) # 모델의 예측값 출력 ----> 8 loss = nn.BCEWithLogitsLoss()( 9 preds, 10 label.type(torch.FloatTensor).to(device)) # 손실 계산 11 loss.backward() # 오차 역전파 13 optim.step() # 최적화 File ~/git/python/pytoch/.venv/lib/python3.12/site-packages/torch/nn/modules/module.py:1511, in Module._wrapped_call_impl(self, *args, **kwargs) 1509 return self._compiled_call_impl(*args, **kwargs) # type: ignore[misc] 1510 else: -> 1511 return self._call_impl(*args, **kwargs) File ~/git/python/pytoch/.venv/lib/python3.12/site-packages/torch/nn/modules/module.py:1520, in Module._call_impl(self, *args, **kwargs) 1515 # If we don't have any hooks, we want to skip the rest of the logic in 1516 # this function, and just call forward. 1517 if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks or self._forward_pre_hooks 1518 or _global_backward_pre_hooks or _global_backward_hooks 1519 or _global_forward_hooks or _global_forward_pre_hooks): -> 1520 return forward_call(*args, **kwargs) 1522 try: 1523 result = None ... 3196 if not (target.size() == input.size()): -> 3197 raise ValueError(f"Target size ({target.size()}) must be the same as input size ({input.size()})") 3199 return torch.binary_cross_entropy_with_logits(input, target, weight, pos_weight, reduction_enum) ValueError: Target size (torch.Size([1, 128, 128])) must be the same as input size (torch.Size([128, 128]))
@@텐초 처음부터 에러가 나는 거이 아니라 epoch1 loss:0.5439759492874146: 98%|█████████▊| 62/63 [02:31<00:02, 2.45s/it] 이상태까지는 정상 진행하고 오류가 발생합니다. ValueError Traceback (most recent call last) Cell In[15], line 8 5 optim.zero_grad() # 이전 루프의 기울기 초기화 7 preds = model(data.to(device)) # 모델의 예측값 출력 ----> 8 loss = nn.BCEWithLogitsLoss()( 9 preds, 10 label.type(torch.FloatTensor).to(device)) # 손실 계산 11 loss.backward() # 오차 역전파 13 optim.step() # 최적화 File ~/git/python/pytoch/.venv/lib/python3.12/site-packages/torch/nn/modules/module.py:1511, in Module._wrapped_call_impl(self, *args, **kwargs) 1509 return self._compiled_call_impl(*args, **kwargs) # type: ignore[misc] 1510 else: -> 1511 return self._call_impl(*args, **kwargs) File ~/git/python/pytoch/.venv/lib/python3.12/site-packages/torch/nn/modules/module.py:1520, in Module._call_impl(self, *args, **kwargs) 1515 # If we don't have any hooks, we want to skip the rest of the logic in 1516 # this function, and just call forward. 1517 if not (self._backward_hooks or self._backward_pre_hooks or self._forward_hooks or self._forward_pre_hooks 1518 or _global_backward_pre_hooks or _global_backward_hooks 1519 or _global_forward_hooks or _global_forward_pre_hooks): -> 1520 return forward_call(*args, **kwargs) 1522 try: 1523 result = None ... 3196 if not (target.size() == input.size()): -> 3197 raise ValueError(f"Target size ({target.size()}) must be the same as input size ({input.size()})") 3199 return torch.binary_cross_entropy_with_logits(input, target, weight, pos_weight, reduction_enum) ValueError: Target size (torch.Size([1, 128, 128])) must be the same as input size (torch.Size([128, 128]))
이런 좋은 설명 감사합니다 머신러닝에서 넘어왔는데 도움이 많이 되었습니닥 감사합니다
화질이..왜이래요
다시보니 최악이네요.....
책에 있는 데이터셋 위치 드가보면 찾을 수 없는 페이지입니다 으악 으악
단축url이 만료돼서 그럴겁니다 전체 url을 입력하시거나 모든 링크를 모아놓은 "한눈에 보기" 노트북 페이지를 참고해주세요
보스턴 무슨 윤리문제로 데이터 못쓴다는 것 같던데요?
그래서 캘리포니아로 해봤어요. 데이터에 맞게 특징 개수도 13개에서 9로 바꾸고 똑같이 실행해보니깐 loss가 줄어들다가 다시 늘어나더라구요. 그래서 learning rate가 너무 커서 수렴을 벗어난건가 싶어서 lr 줄이니깐 어느정도 해결은 됐는데 이렇게 접근하는게 맞을까요?
답변 감사합니다!
안녕하세요. 클래스를 그대로 3개로 분류하게 코드를 다시 짜고 있는데 몇가지 의문이 있습니다. 모델의 torch.squeeze 부분과 preprocess 없애고 최종 채널을 3, bce를 ce로 바꾸긴 했는데 softmax 힘수를 코드의 어느부분에 적용시켜야 할지 잘 모르겠습니다... 그리고 파일을 열어보니까 레이블이 1 2 3 으로 되어 있던데 띠로 0 1 2로 안바꿔도 될까요??
@@텐초 계속 런타임 에러 CUDA error: device-side assert triggered 라고 뜨는데 이유를 모르겠네요 ㅠㅠ
@@텐초 preprocess_mask를 지우고 np.squeeze(label) 하니까 오류 없이 학습이 진행됩니다!! 그런데 loss가 아예 0이 되어 버리네요..
@@텐초 스퀴즈를 안하면 RuntimeError: only batches of spatial targets supported (3D tensors) but got targets of size: : [32, 1, 128, 128] 요런 오류가 떠서요! label은 3차원으로 받아야 한다고 에러가 뜨는거 같습니다
조금 늦었지만 해결이 됐습니다!! 제가 짠 코드가 맞는건진 모르겠지만 일단 돌아가고 결과도 나오네요 정말 감사합니다!!
책에 있는 QR 링크도, 예제 코드 노트도 작동이 이제 안됩니다...
한가지 궁금한게 있네요 class Captcha(Dataset): 클래스 정의할때 train=True에 따라서 이미지를 분기했는데, 여기서 궁금한것은 두개의 구문에서 다른 부분은 false일때에는 if self.train: # png파일을 RGB파일로 변환 data = Image.open(self.trainset[i]).convert("RGB") label = self.trainset[i].split("/")[-1] # 파일이름에서 확장자를 제거 label = label.split(".png")[0] # 정답 문자열을 BOW의 순열로 변환 label = self.get_seq(label) data = np.array(data).astype(np.float32) # 파이토치는 채널이 가장 앞에 와야 함 data = np.transpose(data, (2, 0, 1)) label = np.array(label) return data, label else: data = Image.open(self.testset[i]).convert("RGB") label = self.testset[i].split("/")[-1] label = label.split(".png")[0] label = self.get_seq(label) data = np.array(data).astype(np.float32) label = np.array(label) return data, label data = np.transpose(data, (2, 0, 1))를 안하고 그냥 data와 label를 리턴하던데 이 차이가 무엇인가요?
에러 내용을 복사한후 붙여넣으면 계속 댓글에 올라가질 않네요 RuntimeError: input_lengths must be of size batch_size 이런 오류가 뜹니다, return torch.ctc_loss의 파라미터 부분에서 텐서의 크기가 서로 안맞는 다고 에러가 나는 것 같습니다 ( log_probs, targets, input_lengths, target_lengths, blank, _Reduction.get_enum(reduction), zero_infinity
코랩에서 12장 모델학습하기를 실행하면 loss = nn.CTCLoss(blank=0)(preds, label.to(device), preds_size, target_len)에서 텐서의 크기가 맞지 않다고 에러가 뜹니다. 확인해 주시면 감사하겠습니다 RuntimeError Traceback (most recent call last) <ipython-input-39-2b8cce7706c7> in <cell line: 15>() 30 31 # ➎ 손실 계산 ---> 32 loss = nn.CTCLoss(blank=0)( 33 preds, label.to(device), preds_size, target_len) 에러 내용을 복사한후 붙여넣으면 계속 댓글에 올라가질 않네요 RuntimeError: input_lengths must be of size batch_size 이런 오류가 뜹니다, return torch.ctc_loss의 파라미터 부분에서 텐서의 크기가 서로 안맞는 다고 에러가 나는 것 같습니다 ( log_probs, targets, input_lengths, target_lengths, blank, _Reduction.get_enum(reduction), zero_infinity
영상 잘 봤습니다 :) 개괄적으로 이해하는데 많은 도움이 됐어요!
페이지 310에 기본블록정의에 대한 질문이랍니다.
책을 보다 한가지 질문이 있습니다. 커널 사이즈를 (3,5)로 설정 한후, 스트라이드를 (2,1)로 설정했는데 이렇게 한 이유가 무엇일까요? 스트라이드를 이렇게 실정하면 오른쪽으로 한칸 아래로2칸을 이동하여 이미지를 추출하는데 그럼 커널이 이동할 수록 위의 있는 이미지의 특징을 추출 못할것 같은데.. 스트라이드를 (2,1)로 설정한 이유가 궁금합니다...
개념잡는데 많은 도움 되었습니다. 감사합니당
그럼 가중치 w2의 가중치를 업데이트 하려면 어떻게 해야하는지 알 수 있을까요 ㅠㅠ
w1 가중치업데이트하는걸 답글 올렸었는데 자꾸 사라져서 혹시 w1 가중치 업데이트 식이 어떻게 되는지 알 수 있을까요,,,
@@텐초 그러면 w1의 가중치 업데이트 식은 최종오차값과 시그모이드 미분한거는 w5업데이트 할 때와 같고 w5업데이트할 때 맨 끝에 시그모이드1이 오는데 w1업데이트할 때는 맨 마지막이 w5를 곱하는게 맞는 식일까요?
텐초님 덕분에 파이토치랑 딥러닝 공부 입문을 정말 잘했습니다...! 앞으로도 더 많은 책 부탁드립니다. 도움 많이 받았습니다 감사합니다.
강의 감사합니다 😊
11:15 f(x)=cx 일때 f(f(x))는 (c^2)x가 되니깐 f(f(x)) != f(x)이지 않나요? 왜 같다고 하시는거죠
C는 어차피 계수니까 똑같다는거예요 C나 C제곱이나
안녕하세요! 책으로 읽다가 강의를 찾게되어 너무 반갑네용!! ㅎㅎ 열심히 달려보겠습니다
이 책에 나와 있는 데이터셋 링크 막혔는데 다시 수정을 해주시고 어디에 고지 좀 해주세요;;
@@텐초 죄송합니다. 다시 해보니까 되네요... p 29쪽에 구글드라이브로 정확히 입력하니까 들어가지네요. 단축 URL은 안들어가집니다.
모니터에서 크게 보고 있는데 화질이 너무 안좋아서 코드 부분은 내용이 잘 안보이네요 ㅠ
ppt 자료는 받아볼수없나요? 아이패드로 필기하면서 듣고 싶어서요 ㅎㅎ
안녕하세요. 책과 강의 잘 보고 있습니다. 혹시 이진 분류를 다중 분류로 변경하는 부분에 대해서 수정 코드를 알 수 있을까요? 연습 문제에 나와있는 정답을 참고해서 변경해보고 있는데,, 잘안되네요..
@@텐초 확인 감사합니다.. 책에 나와있는대로, 출력채널은 1에서 3으로, softmax 추가, CELoss사용하도록 수정은 했습니다. 다만, Label 데이터를 0, 1이 아닌 3개의 classes를 가지도록 해야 할 것 같은데 preprocessmask부분을 어떻게 변경해야 될지 감이 안 옵니다. one-hot encoding 을 써야 될까요? 고견 부탁드립니다. 감사합니다.
기울기가 2*(y_pred-y)*y_pred 아닐까여?
학습시키다 80%에서 에러 나시는분 참고하세요... 307p return len(self.imgfiles) --> return len(self.trainset)
안녕하세요 데이터 불러오기 할 때 transform은 train/test 구분지어야 되는 것이 맞죠? test에서도 crop, flip이 포함되어 있어서요
감사합니다
감사합니다🥰
잠재블록은 latent block을 말씀하시는건가요?
히든 사이즈라고 하는게, rnn 입력 한 층에서 받는 가중치 갯수라고 보면 되나요? 8로 설정한 특별한 이유가 있는지요?
잘 봤습니다. 다만, vgg 스타일로 처음부터 끝까지 involution만 사용하면 당연히 성능이 안나올수 밖에 없는 것 아닌가요? 실제 논문에서도 보틀넥 구조의 레즈넷 블록 중에서 중간부분에만 involution을 적용하기도 했구요.
텐초님 책과 영상 잘 보고 있습니다. 모델 평가하는 부분에서 아래와 같이 타입에러 뜨시는 분은 다음과 같이 cpu로 텐서를 바꿔주시면 됩니다. 에러 내용: TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first. 수정 : 모델 평가 부분 pred = model(torch.unsqueeze(data.to(device), dim=0))>0.5 --> pred = model(torch.unsqueeze(data.to(device), dim=0)).cpu()>0.5 감사합니다.
저는 간첩입니다 ㅠ
좋은 영상 감사합니다~
이상하게 여기에 코드를 2번이나 올렸는데 사라지내요.. 데이터도 잘 불러와지는데 머때문에 오류가생기는지 잘모르겠어요 마지막 학습부분에서 오류가발생합니다.
안녕하세요. 재밌게 따라가고있는데, Unet의 모든 코드를 똑같이 해도 이런오류가발생하는데 해결방법을 아실까요? stack expects each tensor to be equal size, but got [3, 128, 128] at entry 0 and [1, 128, 128] at entry 28
@@텐초 책의 내용을 그대로 따라했는데 학습루프에서 같은 에러가 발생하네요
@@텐초 네 감사합니다.
하아... 하루종일 이 에러 찾다가 영상 생각나서 왔는데 관련 해결책이 있네요. 저는 텐초님 코드가 작동이 않되서 어찌 저찌 찾았습니다. 아래 파일들이 32bit(4채널), 8bit(1채널) jpg라 차원이 안맞게 되나봅니다. 참고하시기 바랍니다. (흑백이야 그렇다치고... 왜 jpg따위에 32bit로 저장을 하는지. ㅠ_ㅠ, 옥스포드 놈들도 밉네요. 기왕에 뿌릴거 정리 좀 더 해주지.. 쩝) ./data/oxford/images\Abyssinian_34.jpg (202, 250) ./data/oxford/images\Abyssinian_5.jpg (150, 200, 4) ./data/oxford/images\Egyptian_Mau_129.jpg (325, 299) ./data/oxford/images\Egyptian_Mau_139.jpg (250, 350) ./data/oxford/images\Egyptian_Mau_14.jpg (800, 582, 4) ./data/oxford/images\Egyptian_Mau_145.jpg (188, 216) ./data/oxford/images\Egyptian_Mau_167.jpg (275, 183) ./data/oxford/images\Egyptian_Mau_177.jpg (175, 246) ./data/oxford/images\Egyptian_Mau_186.jpg (275, 183, 4) ./data/oxford/images\Egyptian_Mau_191.jpg (214, 300) ./data/oxford/images\staffordshire_bull_terrier_2.jpg (282, 500) ./data/oxford/images\staffordshire_bull_terrier_22.jpg (500, 364)
감사합니다
안녕하세요~ 책으로 공부하던 중에 이해가 질문이 생겨 11장 내용임에도 일단 한 번 여기에 여쭤봅니다 ^^: 11장 어텐션 메커니즘이 공식적인?, 일반적인? 어텐션 메커니즘, 그러니깐 atteition score와 context vector를 구하는 방법과 좀 다른 것 같은데, 제 생각이 맞는 건지 일단 궁금합니다. 그리고 p.280에서 '디코더의 출력 벡터(책에서는 어텐션 가중치로 부르기로 한 것)와 인코더의 모든 은닉 상태와 내적을 한 다음 소프트맥스 함수를 거쳐 인코더의 각 시점의 중요도를 구한다'는 설명을 보면서, query를 루트 query의 차원으로 나누지 않은 것을 제외하고는 일반적으로 context vector를 만드는 방법과 유사하다고 생각했는데, p.289의 코드 구현은 이 방법과 다른 것 같더라고요. 코드에서는 디코더의 은닉 상태와 인코더의 은닉 상태를 내적하기 전에 소프트맥스 함수를 적용하고 있더라고요. 인코더의 최종 은닉 상태를 key로 보고, 디코더의 입력을 query로 봐서 이 각각에 적용되는 선형변환층의 학습이 어텐션 가중치를 계산하기 위한 MLP층(nn.Linear(hidden_size * 2, max_length)에서 한 번에 진행되고 있는 건가요? 실습을 하다 막혀서 방황하다 당최 감이 잡히지 않아 무턱대고 여기에 질문드려봅니다 >< 이 댓글은 2-3일 정도만 남겨 두다 삭제하겠습니다~
@@텐초 빠른 답변 감사드립니다~!! :) 디코더의 출력과 인코더의 출력을 mlp층에 넣은 후 소프트맥스를 통과시키는 게 attention과 같은 효과를 지니는 이유는 무엇인가요? 이 방법이 해당 기계번역 문제에 효과적이란 걸 알게 되신 과정, 노하우 같은 것도 궁금하고요
@@텐초 매번 답변을 빨리 주시네요~ 친절한 답변 감사드립니다! 답변 보고 드는 궁금증 좀 추가로 여쭤볼게요 ^^; 디코더의 은닉상태와 인코더의 은닉상태에 대한 상관관계가 소프트맥스 함수를 통과함으로써 디코더와 인코더 은닉상태의 차원 가운데 주목해야할 차원이 확률적으로 구해지는 걸 말씀하시는 건가요? 만약 그런 의미가 아니라면, 내적과 같은 처리를 하는 것도 아니고 그저 선형 신경망에 인코더와 디코더의 은닉상태를 함께 입력으로 넣고 그 결과에 소프트맥스 함수를 적용하는 게 어떤 원리로 인코더와 디코더의 은닉상태 간에 상관관계를 도출하는지 궁금하네요.
@@텐초 답이 너무 늦었네요 ; 몇 번 반복해서 읽다가 다른 일 때문에 감사의 인사를 적지 못하고 창을 닫았는데 그 후로 깜빡깜빡했네요 ^^; 질문마다 빠르고 친절하게 답해주셔서 너무 감사드립니다~!! bb
강의 잘봤습니다. 매일 강의 업로드하실 계획이신가요?
흥미롭게 잘 설명하네요.
좋은 강의 감사합니다! 22:51에서 여러개의 채널의 같은 위치에 있는 데이터를 하나의 채널에 합쳐서 채널의 수를 줄여준다는 말씀이신가요?
안녕하세요 먼저 좋은 영상 올려주셔서 감사합니다. CBOW 설명 과정에서 질문이 있어 댓글 남깁니다. V*M에서 M은 임의로 정하는 건가요? 그리고 개=[0.2,0.4] 이 예시가 M=2일 때 Projection layer의 값인가요?
아. Projection layer의 값이 아니라 W 가중치 행렬에서의 '개' 인덱스에 해당하는 하나의 행이 되겠군요
안녕하세요. 상세한 동영상 덕분에 잘 이해가 됐습니다. 정말 감사드립니다! 한 가지 질문이 있는데요, 12:20 경에 'Patch Merging을 통해서 윈도우 사이즈를 4개를 모아 크게 만든다' <- 해당 과정에 대해 부연 설명이 가능하실까요? (b) Two Successive Swin Transformer Blocks 그림에서, W-MSA가 위 그림의 4칸을 학습한것, SW-MSA가 두 번째 9칸을 학습한 것 이라고 이해했습니다. 여기서 4칸과 9칸이 합쳐져 크기가 더 커진다는건지..? 제가 이해가 부족해서 여쭤봅니다
@@텐초 상세한 설명 정말 감사드립니다! 혹시 추가적으로 몇 개만 더 여쭤봐도 되는지요? 그럼 제가 이해하기로는 1. (a)swin transformer block이 2장 있다는 것은 'W_MSA가 있는 block 하나 + SW_MSA를 수행하는 block 하나' 를 두 번 수행했다는 뜻으로 이해했습니다(3번째는 6번 수행). 맞을까요? 2. 이러한 (a) swin transformer block(첫 번째) 을 거치게 되면 컴퓨터가 이해할 수 있는 어떤 벡터의 형태로 표현이 되고, 이것이 다음 stage2에 들어가 주변의 부분과 합쳐진다(2번째 patch merging) 3. 이런식으로 반복되어 attetion+ ffl(feed foward layer)를 거쳐 linear+softmax 함수로 각 class에 속할 확률을 제공함으로써 이미지 판별이 가능하다. 입니다 이런식의 flow가 맞을까요? 정말 감사드립니다
@@텐초 상세한 설명 감사합니다^^ 좋은 하루 보내세요
감사합니다!
좋은 영상 감사합니다
덕분에 잘 보았습니다. 감사합니다 :)
감사합니다