Attention과 Transformer 차이?

Поділитися
Вставка
  • Опубліковано 16 січ 2025

КОМЕНТАРІ • 10

  • @임커밋
    @임커밋  Рік тому +3

    [Powered by Vrew]
    이 영상의 자막은 Vrew를 통해 생성/편집되었습니다.
    *프로그래밍 학습 전 적성에 맞는지 확인하고 싶다면?* codingvillainkor.github.io/studying_python/
    영상 animation은 3Blue1Brown의 open source 라이브러리 manim을 사용하였습니다.
    본 영상 소스를 만든 코드는 github.com/CodingVillainKor/manim-kor 에서 확인할 수 있습니다.
    *실제론 Attention 중에서 내적을 쓰지 않는 방법도 있습니다. 즉, 모든 Attention 계산이 내적인 것은 아닙니다

  • @감자고구마오이
    @감자고구마오이 Рік тому +1

    진짜 제가 가장 이해 안됐던 부분이었던 내용을 동적 시각화랑 함께 설명을 들으니 직관적으로 정말 잘 이해됩니다…! 정말 깔끔한 설명이에요👍🏻👍🏻 3편 나올때까지 숨 참습니다😂

  • @꼼지락안과쌤
    @꼼지락안과쌤 11 місяців тому

    멋쟁이입니다!!

  • @jayasome199
    @jayasome199 Рік тому

    제가 본 것중에 진짜 제일 설명 잘하시네요!

  • @린가드러버
    @린가드러버 Рік тому

    와.. 미쳤다 감사합니다. 저같은 멍청이도 이해를 시키시다니..!!

  • @tkdlvk27
    @tkdlvk27 Рік тому

    흔한 영상인 줄 알았는데, 진짜 쉽게 설명 잘하시네요!

  • @양수영-k9b
    @양수영-k9b Рік тому +2

    query key value에서 value가 왜 필요한지 잘 모르겠어요...(또는 value의 의미가 아직 잘 와닿지 않는다고 해야하나??) query 랑 key를 내적한다는건 어떻게보면 key가 그 데이터를 대표하기에 중요시 본다는거고 그러면 그렇게 내적해서 나온 값들을 key들의 weighted sum 용으로 사용하는건 모를까, 왜 value들의 weighted sum으로 하는지 이해가 잘 안갑니다

  • @Juungmin_Sohn
    @Juungmin_Sohn Рік тому

    이름을 바꾸셨네요? ㅋㅋ 못 알아볼 뻔했습니다 오늘도 좋은 영상 감사합니다
    대학원생 같으신데(뇌피셜) 어떻게 이렇게 좋은 영상 계속 잘 만드시는지 궁금하네요

    • @임커밋
      @임커밋  Рік тому +1

      여유가 좀 있는 상황이라 즐겁게 만들고 있습니다. 좋게 봐주셔서 감사합니다!

  • @hbsp
    @hbsp Рік тому

    뉴진스 어텐션!