Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
제가 너무나 궁금해하던 부분을 시원하게 긁어주는 강의입니다. 이렇게 좋은 채널을 이제라도 알게 돼서 너무 감사하네요! 실제로 대면으로 강의도 들어보고 싶을정도입니다. 다른 강의들도 쭉 보면서 잘 배워가겠습니다. 정말 감사합니다.
구독했습니다. 초심자도 이해가 깊게 되네요. 정말 감사합니다 🙏
인공지능 원리 이해하는데 매우 좋은 콘텐츠 입니다.
lovely content
딥러닝 초보자입니다. 강의 잘보고있습니다. 궁금한건 시그모이드 함수에서 ㅡ10을 주는건 정해진건가요? 왜 ㅡ10인지 궁금합니다.
예를 들어 주변의 10개 픽셀들의 가중 합이 10이상일 경우에 반응하는 노드를 가정한 것이며, 그련 경우에 학습을 하면 아마도 b 가 -10 이 될 거라는 설명입니다. 학습 대상의 모양에 따라서 어떤 값도 될 수 있습니다.
감사합니다
혹시 그러면 입력층을 제외하고 hidden layer부터는 모든 node값이 활성화함수에 시그모이드함수를적용하기때문에 0-1값을갖는건가요?
aiingO2 aiingO2H2 nanoingH2 notebook studying nanoingH2 cleaning make up ingH2 biting
제가 너무나 궁금해하던 부분을 시원하게 긁어주는 강의입니다. 이렇게 좋은 채널을 이제라도 알게 돼서 너무 감사하네요! 실제로 대면으로 강의도 들어보고 싶을정도입니다. 다른 강의들도 쭉 보면서 잘 배워가겠습니다. 정말 감사합니다.
구독했습니다. 초심자도 이해가 깊게 되네요. 정말 감사합니다 🙏
인공지능 원리 이해하는데 매우 좋은 콘텐츠 입니다.
lovely content
딥러닝 초보자입니다. 강의 잘보고있습니다. 궁금한건 시그모이드 함수에서 ㅡ10을 주는건 정해진건가요? 왜 ㅡ10인지 궁금합니다.
예를 들어 주변의 10개 픽셀들의 가중 합이 10이상일 경우에 반응하는 노드를 가정한 것이며, 그련 경우에 학습을 하면 아마도 b 가 -10 이 될 거라는 설명입니다. 학습 대상의 모양에 따라서 어떤 값도 될 수 있습니다.
감사합니다
혹시 그러면 입력층을 제외하고 hidden layer부터는 모든 node값이 활성화함수에 시그모이드함수를적용하기때문에 0-1값을갖는건가요?
aiingO2 aiingO2H2 nanoingH2 notebook studying nanoingH2 cleaning make up ingH2 biting