台大資訊 深度學習之應用 | ADL 2.5: Backpropagation 效率地計算大量參數

Поділитися
Вставка
  • Опубліковано 23 жов 2024

КОМЕНТАРІ • 11

  • @wanarecord
    @wanarecord 6 місяців тому +2

    謝謝老師,講得太仔細跟清楚了。
    看過很多影片跟文章真的沒有這麼一步一步講解的,謝謝老師回台灣教書!

  • @張勛凱-p9w
    @張勛凱-p9w Місяць тому

    看完李老師的影片再過來看陳老師的影片,內心相當澎拜……感謝兩位老師分享這麼棒的教學影片!!
    (陳老師對於符號定義寫得較詳細,乍看之下令人有些卻步,但其實有助於好好梳理每一層的各個細節)

  • @dysh-tyc-edu-tw
    @dysh-tyc-edu-tw 10 місяців тому

    back-propagation是不是有點像演算法的動態規劃,
    如果偏微分從前面算,每次都要從後面算一次,
    但如果先把數值都算出來,就減少重覆計算的過程

    • @廖景鑫
      @廖景鑫 Місяць тому

      我也覺得就是DP的精神!

  • @snowman6246
    @snowman6246 Рік тому

    34:33 請教一下最下面的notation,從k到i,為甚麼不是 W(l+1)(ik) ?

    • @VivianMiuLab
      @VivianMiuLab  Рік тому

      2:45 有說明 w_ij 就是 j 到 i 喔!從 4:26 的 z 也可以清楚知道 w 的定義喔!

    • @snowman6246
      @snowman6246 Рік тому

      ⁠​⁠​⁠​⁠​⁠@@VivianMiuLab謝謝教授回覆,是的,依前面定義看,k到i 應該是W(ik),但 34:33 最下面卻寫W(ki),我的疑問在此🤔️

    • @john-k8z3h
      @john-k8z3h Рік тому

      ​@@snowman6246 Σ( W_右左 * a_左 + b ) = z_右

    • @snowman6246
      @snowman6246 Рік тому

      @@john-k8z3h 呃…你這個是在算z,不是delta w,兩個的w方向不一樣啊

    • @john-k8z3h
      @john-k8z3h Рік тому +1

      ​@@snowman6246
      您說的是25頁 34:33 最後一個 "=" 後的 w^{l+1)_{k,i}這項的由來嗎?或是要請以您的理解再多說明一下問題。