혹시 이 강의가 조금 어렵게 느껴지시나요? 그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다! 지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요! < Easy! 딥러닝 재생목록 > ua-cam.com/play/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu.html -------------------- 📢 혁펜하임의 딥러닝 마스터 커리큘럼! LEVEL 1 - Easy! 딥러닝 hyukppen.modoo.at/?link=2n1a6p7t LEVEL 1 - 인스톨! 파이토치 hyukppen.modoo.at/?link=131k3k7g LEVEL 2 - Legend 13 hyukppen.modoo.at/?link=5db82s6p LEVEL 2 - TTT: To The Transformer hyukppen.modoo.at/?link=21c4dj8y LEVEL 3 - ATT: After The Transformer hyukppen.modoo.at/?link=2mcbufeg
0:20 notation이나 "스칼라를 벡터로 미분"한다는 말에서 뇌정지가 오시는 분을 위해... 만약 함수 f를 미분함을 나타내려고 df/dx라고 표기했는데, 분모에 볼드체로 적힌 벡터가 왔다는 건 애초부터 f가 받는 입력이 벡터였다는 뜻입니다. 그래서 고등학교 때 일변수함수에서 했던 것처럼 입력에 대한 출력의 변화량을 구하고자 한다는 것에 지나지 않습니다. 다변수 벡터 함수도 마찬가지겠죠. 저건 출력을 입력으로 미분한다는 것을 생각하고 이야기를 한다고 보면 받아들이기 편합니다.
안녕하세요. 사소한 질문 일 수도 있는데요. 06:36에서 수식을 df=[ŷ-A(x+d[x벡터])]^T• [ŷ-A([x벡터]+dx)]-(ŷ-A[x벡터])^T•(ŷ-A[x벡터]) 이렇게 적으셨는데요. [ŷ-A(x+d[x벡터])]^T• [ŷ-A([x벡터]+dx)]에서 어떻게 으로 표현하셨는지 잘 이해가 안되서요. 똑같이 이 되어야 할거 같은데 제가 놓치고 있는 부분이 있을까요? 참고: x벡터 표현하기가 어려워서 그냥 한글로 적어 봤습니다. 제가 표현하고자 하는 수식이 잘 전달 되어야 할텐데 걱정이네요 ^^;;
3:46 에 노란색으로 나오는 수식이 잘 이해가 가지 않는데.. ㅠㅠ 혹시 참고할만한 링크나 원문이 있을까요? 뭔가 노란색으로 나오는 수식을 계산하면 2df가 될 것 같은 느낌....? 왜냐하면 기울기 * dx_1 + 기울기 * dx_2 = df + df = 2df 이런식으로요. 제가 어느 부분을 잘못 생각하고 있는건가요? 직관적으로는 (6f / 6x) * dx_1 + (6f / 6x) * dx_2 이렇게 되어야 할 것 같은데..ㅠ
감사합니다! 헷갈리는 개념이었는데 도움이 많이 되었습니다. 내용중에 궁금한 것이 있습니다. 식 전개할때 dx^2을 0으로 생각해도 되는것은 설명해주신 일변수함수의 미분의 정의로 이해가 됩니다. 그러면 이변수함수일때 dx1dx2 나 dx1^2 이 포함된 항은 다 0이 되는건가요? 이것이 0이 되는 것은 어떻게 알 수 있을지 조금 더 설명부탁드려도 될까요??
마찬가지 논리로 생각해볼 수 있습니다. dx1->0 dx2->0 f(x1+dx1,x2+dx2)-f(x1,x2) 를 구할텐데 f(x1,x2)=x1x2 라면 dx1dx2가 생길 것이고, dx1으로 나눠주면 dx2만 남는데 dx2->0 이므로 어차피 0으로 수렴할 녀석이라 미리 무시해줘도 되는 거죠!
안녕하세요 현재 ai deep dive를 듣고있는 학생입니다 ai deep dive에서도 스칼라를 벡터로 미분하는것에 대해 설명해주셨는데 모르는게 생겼지만 패스트캠퍼스에는 질문란이 없어 여기서 연락드립니다. 혹시 ai deep dive에서 발생한 궁금증은 어떤방법으로 연락드리면 될까요?
애초에 a를 b에 대해서 미분 한다는 것이 가장 직관적으로 기본적인 정의가 a의 변화량의 b의 변화량에 대한 비율이기 때문에 만약에 b가 벡터 (x1,x2,...)이라고 하면 벡터의 모든 원소들에 대한 변화량에 대해서 따져주는게 가장 합리적인 흐름이라고 생각해서 da/db = (da/dx1, da/dx2, ...) 이 되는게 자명하기도 하네요
행벡터로 변한다기 보단 각각의 편미분을 단순 쌓는데, 오른쪽으로 쌓으면 헹벡터인거죠. 변화량 df를 내적으로 표현되다보니 행벡터*열벡터의 꼴로 나타내지기 때문에 벡터는 보통 열벡터로 정의하므로 x라는 (열)벡터로 미분하는데 가로로 쌓여있으니 df/dx^T로 표기하는 것 입니다. 표기의 문제이지 열벡터로 미분했더니 행벡터가 되었다 라고 하기엔 어색한 점이 있죠~
@@hyukppen 답변 너무 감사합니다!!. 그런데 말입니다. 1. 이와 같이 그래디언트를 구하면 딥러닝에선 어떻게 활용을 합니까? 2. 딥러닝 옵티마이저로 파라미터를 피팅할때에는, 이와 같이 벡터 폼의 그래디언트를 구하고 나서 옵티마이저에 벡터폼으로 대입하여 피팅된 파라미터를 벡터 폼으로 받아낼 수 있는 건가요? 또 실제로 그렇게 진행되나요?
혹시 이 강의가 조금 어렵게 느껴지시나요?
그동안 갈고닦은 강의력으로 4년 만에 새로운 딥러닝 강의를 올리게 되었습니다!
지금 보고 계신 영상보다 훨씬 더 쉽고, 더 꼼꼼하게 전달하는 강의니까 아래 재생목록 저장해두고 딥러닝 공부 시작해 보세요!
< Easy! 딥러닝 재생목록 >
ua-cam.com/play/PL_iJu012NOxdw1jc3KEo8Mq5oD5SXKhLu.html
--------------------
📢 혁펜하임의 딥러닝 마스터 커리큘럼!
LEVEL 1 - Easy! 딥러닝
hyukppen.modoo.at/?link=2n1a6p7t
LEVEL 1 - 인스톨! 파이토치
hyukppen.modoo.at/?link=131k3k7g
LEVEL 2 - Legend 13
hyukppen.modoo.at/?link=5db82s6p
LEVEL 2 - TTT: To The Transformer
hyukppen.modoo.at/?link=21c4dj8y
LEVEL 3 - ATT: After The Transformer
hyukppen.modoo.at/?link=2mcbufeg
0:20 notation이나 "스칼라를 벡터로 미분"한다는 말에서 뇌정지가 오시는 분을 위해... 만약 함수 f를 미분함을 나타내려고 df/dx라고 표기했는데, 분모에 볼드체로 적힌 벡터가 왔다는 건 애초부터 f가 받는 입력이 벡터였다는 뜻입니다. 그래서 고등학교 때 일변수함수에서 했던 것처럼 입력에 대한 출력의 변화량을 구하고자 한다는 것에 지나지 않습니다. 다변수 벡터 함수도 마찬가지겠죠. 저건 출력을 입력으로 미분한다는 것을 생각하고 이야기를 한다고 보면 받아들이기 편합니다.
단순 공식 나열 글들이 많은 , 직접 유도까지 해주시니 더 이해도되고 재밌네요. 감사합니다
1년전에는 이 영상이 명확하게 이해가 안 갔는데 이제는 알겠네요. 느리지만 조금씩 저 스스로가 성장하는게 느껴져서 기쁩니다
@@ringo8530 와우.. 꾸준하게 공부하셔서 가능했던 것 같습니다! 👍
안녕하세요. 사소한 질문 일 수도 있는데요.
06:36에서 수식을 df=[ŷ-A(x+d[x벡터])]^T• [ŷ-A([x벡터]+dx)]-(ŷ-A[x벡터])^T•(ŷ-A[x벡터]) 이렇게 적으셨는데요.
[ŷ-A(x+d[x벡터])]^T• [ŷ-A([x벡터]+dx)]에서 어떻게 으로 표현하셨는지 잘 이해가 안되서요.
똑같이 이 되어야 할거 같은데 제가 놓치고 있는 부분이 있을까요?
참고: x벡터 표현하기가 어려워서 그냥 한글로 적어 봤습니다. 제가 표현하고자 하는 수식이 잘 전달 되어야 할텐데 걱정이네요 ^^;;
x도 벡터 dx도 벡터입니다! ㅎㅎ
3:46 에 노란색으로 나오는 수식이 잘 이해가 가지 않는데.. ㅠㅠ 혹시 참고할만한 링크나 원문이 있을까요?
뭔가 노란색으로 나오는 수식을 계산하면 2df가 될 것 같은 느낌....? 왜냐하면 기울기 * dx_1 + 기울기 * dx_2 = df + df = 2df 이런식으로요.
제가 어느 부분을 잘못 생각하고 있는건가요?
직관적으로는 (6f / 6x) * dx_1 + (6f / 6x) * dx_2 이렇게 되어야 할 것 같은데..ㅠ
아래 증명이 도움이 될 것 같습니다
ibb.co/VLgTXMZ
df/dx 이거 분수 아니라서 그렇게 생각하시면 큰일나욥!!!
@@hyukppen 감사합니다! 오늘도 저의 무지함을 느끼는군요,,ㅎㅎ
@@jpark7636 무지라뇨!! ㅎㅎ 제가 오히려 J님께 많이 배웁니다
@@hyukppen 감사합니다^^
정말 감사합니다!!
도움이 많이 됐어요! 감사합니다!
댓글 감사합니다 ! ㅎㅎ
안녕하세요 패스트캠퍼스에 ai기초수학 공부하다 질문할곳이 없어서 질문드립니다 ㅠㅠ.
공지에 나와있는 질문카톡방이 없습니다...
강의에서 f = xx^t 라고 하셨는데 x =[x1,x2] 이고 내적하면 x1^2 + x^2 인데 왜 이게 함숫값인지 이해가 안갑니다..
x1,x2 가 들어가서 x1^2+x^2 이 나가는 함수인거죠 ㅎㅎ
공지에 질문카톡방 링크 나와있지 않나요..?
감사합니다! 헷갈리는 개념이었는데 도움이 많이 되었습니다. 내용중에 궁금한 것이 있습니다. 식 전개할때 dx^2을 0으로 생각해도 되는것은 설명해주신 일변수함수의 미분의 정의로 이해가 됩니다. 그러면 이변수함수일때 dx1dx2 나 dx1^2 이 포함된 항은 다 0이 되는건가요? 이것이 0이 되는 것은 어떻게 알 수 있을지 조금 더 설명부탁드려도 될까요??
마찬가지 논리로 생각해볼 수 있습니다.
dx1->0 dx2->0 f(x1+dx1,x2+dx2)-f(x1,x2)
를 구할텐데
f(x1,x2)=x1x2
라면 dx1dx2가 생길 것이고,
dx1으로 나눠주면 dx2만 남는데 dx2->0 이므로 어차피 0으로 수렴할 녀석이라 미리 무시해줘도 되는 거죠!
혹시 2:57부분에서 df가 ~의 변화량이라고 하셨는데 혹시 ~가 어떤건지 가르쳐 주실수있나요?
에프의 변화량 이라고 말했네용 ㅎㅎ
헤어가 좀 더 멋져졌습니다.
안녕하세요 현재 ai deep dive를 듣고있는 학생입니다
ai deep dive에서도 스칼라를 벡터로 미분하는것에 대해 설명해주셨는데 모르는게 생겼지만 패스트캠퍼스에는 질문란이 없어 여기서 연락드립니다. 혹시 ai deep dive에서 발생한 궁금증은 어떤방법으로 연락드리면 될까요?
수강화면 하단의 ”공지“버튼 누르시면 단톡방으로 들어오실 수 있습니다!
혹시 마지막 예제 편미분으로도 푸는 풀이과정 알려주실수 있나요?
이미 영상에서 한 것이 x로 편미분한 것입니다!
애초에 a를 b에 대해서 미분 한다는 것이 가장 직관적으로 기본적인 정의가
a의 변화량의 b의 변화량에 대한 비율이기 때문에
만약에 b가 벡터 (x1,x2,...)이라고 하면
벡터의 모든 원소들에 대한 변화량에 대해서 따져주는게 가장 합리적인 흐름이라고 생각해서
da/db = (da/dx1, da/dx2, ...) 이 되는게 자명하기도 하네요
열벡터로 스칼라를 미분하면 행벡터가 되는건가요?
행벡터로 변한다기 보단 각각의 편미분을 단순 쌓는데, 오른쪽으로 쌓으면 헹벡터인거죠.
변화량 df를 내적으로 표현되다보니 행벡터*열벡터의 꼴로 나타내지기 때문에 벡터는 보통 열벡터로 정의하므로 x라는 (열)벡터로 미분하는데 가로로 쌓여있으니 df/dx^T로 표기하는 것 입니다. 표기의 문제이지 열벡터로 미분했더니 행벡터가 되었다 라고 하기엔 어색한 점이 있죠~
표기상의 문제군요! 뭔가 그냥 넘어가기엔 찝찝했는데 여쭤보길 잘 했네요 ㅎㅎ 답변 주셔서 감사합니다
dk.....................................................
스칼라인 손실함수를 벡터로 미분한 그래디언트를 구할 때, 번거로운 편미분 과정을 하지 않고 함수의 증분을 활용한다고 생각하면 되나요?
오 정확합니다!!
@@hyukppen 답변 너무 감사합니다!!.
그런데 말입니다.
1. 이와 같이 그래디언트를 구하면 딥러닝에선 어떻게 활용을 합니까?
2. 딥러닝 옵티마이저로 파라미터를 피팅할때에는, 이와 같이 벡터 폼의 그래디언트를 구하고 나서 옵티마이저에 벡터폼으로 대입하여 피팅된 파라미터를 벡터 폼으로 받아낼 수 있는 건가요? 또 실제로 그렇게 진행되나요?
O
ua-cam.com/video/MxcyNzIp-tk/v-deo.html (인공지능 )