[핵심 머신러닝] RNN, LSTM, and GRU

Поділитися
Вставка
  • Опубліковано 21 гру 2024

КОМЕНТАРІ • 50

  • @이지연-v1y
    @이지연-v1y Рік тому +21

    진짜 명강의입니다. RNN 구조 제대로 이해하고 싶어서 책도 읽고, 다른 강의도 찾아봤는데, 이 강의가 진짜 최고입니다. 구조만 설명해주시는 것이 아니라 학습 과정도 설명해주셔서 좋았습니다. 너무 감사합니다. 여러 번 반복해서 듣고 있습니다.

  • @baked_almonds
    @baked_almonds 11 днів тому

    타학교 학생입니다. LSTM 빠삭하게 이해하고 갑니다. 유익한 강의 공유해주셔서 감사합니다!

  • @Srcb-q7s
    @Srcb-q7s Місяць тому

    RNN Backpropagation 에 대해서 이렇게 자세히 설명하고 이해하기 쉽게 알려주는 강의/블로그는 못 본것 같습니다. 감사합니다.

    • @seoungbumkim3300
      @seoungbumkim3300 Місяць тому

      감사합니다! 도움이 되셨다니 기쁜 마음입니다.

  • @정정정정정-z4o
    @정정정정정-z4o 14 днів тому

    좋은 강의 공유해주셔서 감사합니다.

  • @DrKane96
    @DrKane96 Місяць тому +1

    LSTM을 이해 못했었는데 교수님 강의 듣고 잘 알아갑니다. 감사합니다.

  • @nayoung6652
    @nayoung6652 Місяць тому

    교수님, 양질의 강의를 이렇게 공개해주셔서 너무 감사드립니다. 이해하는데에 큰 도움이 되었습니다.

  • @구삼왕자
    @구삼왕자 4 місяці тому +1

    교수님 정말 감사합니다. 비전공자 입장에서 Dnn,cnn까지는 이해가 잘 되는데 rnn부터는 개념이 바뀌어 쉽게 이해가 안되었는데 교수님 강의가 정말 한줄기 빛이 되주었습니다. 정말 감사합니다.

  • @ji8824
    @ji8824 5 місяців тому +2

    이렇게 이해하기 쉽게 설명해주는 강의 처음입니다 감사합니다!:)

  • @정대진-t2x
    @정대진-t2x 2 місяці тому +1

    교수님 유투브 댓글 처음 달아봅니다. 감사합니다.

  • @이병훈-d8y
    @이병훈-d8y 8 місяців тому +1

    교수님 감사합니다. 강의 너무 좋습니다

  • @helloo5480
    @helloo5480 Рік тому +1

    교수님 최고...

  • @김현용-y3j
    @김현용-y3j 6 місяців тому

    훌륭한 강의 잘 들었습니다. 감사합니다.

  • @김영진-q7w
    @김영진-q7w Рік тому +1

    너무 유익하고 쉬운 설명.. 정말 잘봤습니다. 감사합니다!

  • @ss-ww6yh
    @ss-ww6yh 7 місяців тому +1

    교수님 좋은 영상 감사합니다!

  • @enlighten4400
    @enlighten4400 11 місяців тому +1

    교수님 혹시 채널 가입자 한정, 강의 노트를 오픈하실 계획은 있으실까요? 명강의라 따라가며 듣고 싶은 수요(저 포함)가 많을 것 같습니다 :)

  • @jin-pq8iv
    @jin-pq8iv Рік тому

    예시와 설명이 바로 이해가 되네요!! 계속 헷갈리던 부분이 있었는데 시원하게 해결되었네요. 정말 유익한 내용 감사드립니다.

  • @히힣-i3s
    @히힣-i3s Рік тому

    너무 좋은 강의 감사합니다. 댓글을 안 달 수가 없었습니다.

  • @namjungwon3656
    @namjungwon3656 8 місяців тому

    너무 쉽게 설명해주셔서 진짜 감사합니다. 정말 강추 입니다.

  • @365woo
    @365woo 2 місяці тому +1

    안녕하세요 강의 정말 감사합니다, 혹시 8분 가량에 각각 시점에 정보만을 이용한다고 하셨는데 시계열을 반영하지 않은거지 loss를 줄이는 과정에서 과거의 정보는 이용한거 아닌가요...? 조금 헷갈려서 질문드립니다,,

    • @김성범교수산업경영공
      @김성범교수산업경영공  Місяць тому

      일반 DNN은 과거 정보를 이용하지 않은 ht를 이용하여 예측하기 때문에 loss에서 과거정보를 이용했다고 볼 수 없을 것 같습니다.

  • @aaabbaaa1976
    @aaabbaaa1976 Рік тому

    타학교 학생인데 쏙쏙 들어오는 강의 해주셔서 감사합니다.

  • @이석찬-u7j
    @이석찬-u7j 4 місяці тому +1

    39:40 에서 체인룰로 계산해서 소거시키지 않고 곱하는 이유가 궁금합니다.

    • @김성범교수산업경영공
      @김성범교수산업경영공  Місяць тому

      소거한 식을 바로 미분하는 것이 어려워 체인룰을 이용하는 겁니다. 체인룰로 여러개 곱하는 것이 결국 우리가 하고 싶은 gradient 계산과 동일합니다.

  • @jammmm-mm
    @jammmm-mm Рік тому

    1:05:55 여기서 성분곱 첫번째 칸 -0.005가 0이 된건 단순 오타일까요? nonnegative 내용은 없어 보여서 질문드립니다.

  • @마이구매
    @마이구매 Рік тому

    ㅠㅠㅠ타학교학생인데 여기서 길을 찾았어요 감사합니다 교수님!! 특히 lstm 에서 ht을 기준으로 역순으로 설명해주셔서 더 이해가 잘된것같아요 다른 영상들은 순차적으로 가다보니 이해하면서 길을 잃었는데😢😢 도움이 많이되었습니다!

  • @user-zh7ok7vs1r
    @user-zh7ok7vs1r 9 місяців тому +1

    감사합니다

  • @son-ox4mo
    @son-ox4mo Рік тому +1

    정말 좋은 강의 잘 들었습니다!! 열심히 강의를 듣던 중에 한 가지 궁금한 점이 생겼는데, LSTM과 GRU 모두 최종 hidden state를 계산한 후에 에측값을 도출해내는 과정에서 가중치는 순환 신경망과 동일하게 W_hy로 표시하는게 맞는건가요? 아니면 강의에서 쓰신 것처럼 W_th 혹은 X_th가 맞는 것인가요? 궁금합니다.

  • @아스롱가
    @아스롱가 Рік тому +2

    x에 y의 과거 자기 자신값을 포함해도 문제없나요? 제가 가진 시계열의 경우 현재 시점의 y는 자기 자신의 과거값에도 영향을 받기 때문에 y의 과거값도 x로 포함하하는게 맞는것 같은데 이렇게 설계해도 될까요? 즉, 현재 시점의 y는 과거 시점의 x와 과거 시점의 y 모두에 영향을 받는거죠..

    • @김성범교수산업경영공
      @김성범교수산업경영공  Рік тому +2

      x를 이용해 y를 예측하는 궁극적인 목표는 추후에는 y를 이용하지 않으려고 하는 것에 있습니다. 보통 y값은 얻는데 시간과 비용이 많이 드는 경우가 많습니다.

  • @듀듑-o6l
    @듀듑-o6l 5 місяців тому +1

    궁금한게 있는데 이전 상태를 학습하는거라고 했는데 그러면 맨처음 시작되는 부분은 이전 상태를 반영할 수 없을텐데 그럴 경우에는 어떻게 상태가 초기화가 되는거죠?

  • @중TV-z3b
    @중TV-z3b Рік тому

    안녕하세요. 제어공학을 공부하고 있는 학생입니다. 혹시 수평 유지 창지에서 모터 각도에 따른 IMU센서가 얻는 Roll, Pitch각을 데이터화 하여 신경회로망 중 RNN을 적용시켜 3축 수평유지장치를 구현하려고하는데 올바른 모델일지 궁금하고 구현이 가능할지 궁금한데 의견 주실 수 있을까요?

  • @중-s1f
    @중-s1f Місяць тому

    46:28