딥러닝 자연어처리 LSTM , GRU 개념을 13분안에 정리해드립니다ㅣ서울대 AI 박사과정

Поділитися
Вставка
  • Опубліковано 25 січ 2025

КОМЕНТАРІ • 14

  • @mcodeM
    @mcodeM  2 роки тому +1

    ✅ [AI LLM 부트캠프 - 파트타입 환급형] 살펴보기 (25.2.17 시작)
    metacodes.co.kr/edu/read2.nx?EP_IDX=16132&EM_IDX=15955&M2_IDX=30103
    ⏰ AI LLM 부트캠프 과정소개서 받기
    docs.google.com/forms/u/1/d/1L9GU9ZxRsWv9NRbwFVI27QU-wiRRm2os5TkH43YAMUE/edit?usp=forms_home&ths=true

  • @peteryou741
    @peteryou741 3 місяці тому +1

    참 훌륭한 강의로 책에서는 도저히 이해안되는게 이제야 이해됩니다. 선생님의 지식나눔 진심 감사합니다.

    • @mcodeM
      @mcodeM  3 місяці тому

      감사합니다!
      풀버전 강의와 자료는 아래 링크통해서 다운 가능하세요~
      metacodes.co.kr/edu/read2.nx?M2_IDX=30656&page=1&sc_is_discount=&sc_is_new=&EP_IDX=8387&EM_IDX=8213

  • @aidenkim-t4v
    @aidenkim-t4v Рік тому +2

    많은 도움이 됐습니다. 감사합니다

  • @이동우-n8q
    @이동우-n8q Рік тому +2

    책으로만 공부할 때는 어려웠는데, 강의를 보니 이해가 쉬워졌습니다. 감사합니다!

    • @mcodeM
      @mcodeM  Рік тому

      감사합니다.^^

  • @세현육
    @세현육 Рік тому +2

    강의 너무 잘들었습니다.. 그런데 생략이 너무 많이 된것같아서 아쉽습니다. lstm에서 가장 기본이 되는 원리인 Constant Error Carousel 의 구조에 대해서 한번 찝어주시면서 vanishing problem을 해결하는 과정을 조금 더 자세하게 설명해주셨으면 하는 아쉬움이 남네요.. 그래도 강의 잘 들었습니다.

  • @hyeryeonkim9697
    @hyeryeonkim9697 2 роки тому +2

    좋은 강의 감사합니다

    • @mcodeM
      @mcodeM  2 роки тому

      감사합니다^^!

  • @날개달린_양
    @날개달린_양 Рік тому

    감사합니다

  • @kotube1
    @kotube1 Рік тому +1

    다음 강의도 너무 궁금해요 ㅠ 아무리 찾아도 안보이는데 링크 있을까요??

    • @mcodeM
      @mcodeM  Рік тому

      같은 선생님의 다른 자연어처리 강의에 함께 들어가있습니다.!

  • @hometownboy
    @hometownboy 9 місяців тому

    5:20

  • @Yacktalkun
    @Yacktalkun Рік тому

    활성화 함수는 소프트 맥스를 왜 그 뒤에 하이퍼 볼릭 탄젠트를 또 쓰는지 왜 그리고 비선형 변환을 두번하는지 궁금하오 단순히 익스플로딩과 베니싱을 잡기위함이오?
    소프트 맥스는 수많은 각 선형변환된 노드값에 0과1로 컨피던스를 주기 위함일테고
    하이퍼 볼릭 탄젠트가 베니싱과 익스플로딩을 막는데 큰 기여를 하는지..?