絶対に理解させる誤差逆伝播法【深層学習】

Поділитися
Вставка
  • Опубліковано 27 гру 2024

КОМЕНТАРІ • 134

  • @J0hn_Srn1th
    @J0hn_Srn1th Рік тому +11

    0:00 導入
      8:47 更新量(誤差関数と勾配降下法の話)
    12:15 誤差逆伝播法の心
      14:39 多変数関数の偏微分について(連鎖律)
    25:54 本題。まずは問題設定
      27:56 出力層の重み更新
      39:19 中間層の重み更新
        47:00 誤差逆伝播法のミソ

  • @kobashinya
    @kobashinya 3 роки тому +57

    40:22 の編集が神すぎる

  • @skthelimit
    @skthelimit 3 роки тому +2

    Thanks!

  • @taaatsutube
    @taaatsutube 3 роки тому +18

    ほんとに1時間もせずに誤差伝播法が理解できるとは思いませんでした。すごく感謝です。ありがとう!

  • @2ohagi684
    @2ohagi684 3 роки тому +54

    原理を理解しなくてもライブラリでNNを使用できる今の世の中
    数式で理解させてくれるたくみさんの授業が素晴らしすぎる、、

  • @hs-xn3eo
    @hs-xn3eo Рік тому +1

    初めて理解できました。
    数学的帰納法(逆順ver)みたいな感じで計算されていくイメージをもちました。
    やりたいこと :
    全ての層の(全ての)重みの勾配を求めたい
    手順 :
    ①出力層の勾配を求める
    ②①の勾配の計算結果の一部を使って、出力層の1つ前の勾配を求める
    ③②の勾配の計算結果の一部を使って、出力層の2つ前の勾配を求める
    ④以下同様にして、全ての層の勾配を求める

  • @ガオフシュアイ
    @ガオフシュアイ 3 місяці тому +1

    学部一年でも理解しやすくてありがたい

  • @_4rN0
    @_4rN0 3 роки тому +15

    まじで待ってた!!!!!
    これからも深層学習の話して欲しい😊😊

  • @fobonu2ec
    @fobonu2ec Рік тому +1

    誤差逆伝播法、名前はよく聞くけど意味はわからず、という状態が続いていましたがようやくイメージ掴めました。
    連鎖率を使うだけで重みの更新が1つ先の層の誤差で決まるなんて、まさに多変数関数の“ネットワーク”だなと。
    まるで逆伝播の様子が、先の出力の反省をしているようで急に人間味が感じられてきて、
    学習と聞くと順伝播のイメージがありましたが、順伝播を演習問題を解く、逆伝播を出来なかった問題の復習と捉えると逆伝播こそ学習の本質だなと感じました。

  • @ペンギンクミマヌ
    @ペンギンクミマヌ Рік тому +1

    フレームワーク使ってなんとなく扱っていた部分がスッキリ理解できました。

  • @takau9266
    @takau9266 3 роки тому +2

    MRIの雑音除去の研究をやっている大学生です。
    前期に雑音除去やるのに、DnCNNなどのニューラルネットワークを勉強しました。
    が、マジでここ1週間悩んでようやく理解できました。

  • @くりーむぱん-n7p
    @くりーむぱん-n7p 3 роки тому +11

    たくみさんが言う「絶対に理解させる」が頼もしすぎます

  • @関皓介
    @関皓介 Рік тому +1

    リカレントニューラルネットワークと強化学習
    入力層、中間層、出力層、重み値、教師信号
    こうやって解説聞いてると
    普段、数学や科学の知識が基本になってるんだなあと改めて思う

  • @k_ggle
    @k_ggle 3 роки тому +8

    まじですか!誤差逆伝播法難しくて悩んでたのでめちゃくちゃ嬉しいです!!ありがとうございます!

  • @いっちー-c8q
    @いっちー-c8q 2 роки тому +5

    本で勉強していましたが、勾配の計算がきちんと理解できずにいました。
    ですが、この動画を見て、誤差deltaの考え方がわかり、
    また、ニューロンが変わったときに、計算式がどう変わるのかがよく理解できました。
    とても助かりました。ヨビノリさんありがとうございます!

  • @kahha_oeh
    @kahha_oeh Рік тому +1

    まだ途中までしか見てないですが、これが無料で見られるって凄すぎです。。。udemyよりもわかりやすくて面白い!!
    マジで感謝です〜〜〜〜〜〜

  • @小野賢一郎
    @小野賢一郎 3 роки тому +3

    ありがとうございます!

    • @小野賢一郎
      @小野賢一郎 3 роки тому +1

      連鎖律の復習までしてくれるのは本当にありがたい!ありがとうございます!

  • @lincoqie
    @lincoqie 2 роки тому +4

    情報系の知識が必要な論文読まなくちゃいけなくて、無理ゲーと思ってたけど、これ見てからなら理解しながら読めそう。大人になると自分の分野外を勉強するのはシンドイこと多いけど、ヨビノリ動画はパッと教えてくれて助かるな😄

  • @恵斗-p6c
    @恵斗-p6c 3 роки тому +5

    大学でニューラルネットワーク実装してこいって言われてたから本当に助かります

  • @sage_goes1504
    @sage_goes1504 3 роки тому +2

    誤差逆伝播法好き
    ディープラーニングの勉強してる時この考えに感心した

  • @江場さくら
    @江場さくら 3 роки тому +4

    ジェンガの例えがとても分かりやすくていいなと思いました!

  • @AkitoHirota
    @AkitoHirota Рік тому +1

    NWの勉強していて、詰まっていたところだったので、非常にありがたいです。これからも聴講させていただきます。無理せずにこれからも続けて欲しいです。

  • @mayogiraichairman3039
    @mayogiraichairman3039 2 роки тому +1

    今、誤差逆伝播法に関して勉強しているので、解説して頂いて助かりました!

  • @ボールペン-n4w
    @ボールペン-n4w 3 роки тому +14

    今は分からなくても、いつか理解できる日が来ると思って待ちながらこの動画見てる

  • @うさみみんらでぃんちゃん

    Stanford の coursera が英語厳しくてここに避難してきた。たすかる。

  • @abc0to1
    @abc0to1 3 роки тому +4

    この授業をのべ5万人近くが視聴してるのに感心した。日本も捨てたもんじゃないな。

  • @ah-xq7ht
    @ah-xq7ht 8 місяців тому +1

    神動画ありがとうございます!!理解できた気がしています!

  • @e45redr6tgty78uhu
    @e45redr6tgty78uhu 3 місяці тому

    仰る通り多変数関数の連鎖律(+添え字)が悪さをして理解しづらくしてるだけで、やりたいことと実際にやってることはそんなに難しくないんですね。よく分かりました!

  • @yutakanishiyama8429
    @yutakanishiyama8429 Рік тому +2

    「誤差逆伝播」の知識はありましたが、深い理解はまだ出来ていなかったところ、「そりゃ、そうやな」と納得出来ました。いつもありがとうございます!こんな素晴らしい動画を作って下さって、感謝しています。

  • @_4rN0
    @_4rN0 3 роки тому +5

    いつかRNNの動画があがることを期待して待ってます😊

  • @コンストラクタ
    @コンストラクタ 3 роки тому +2

    ありがとうございました。分かりやすかったです!

  • @-_-plm2232
    @-_-plm2232 3 роки тому +9

    GANとかやってほしい

  • @kenkenmath
    @kenkenmath 3 роки тому +2

    連続講義嬉しい❗️

  • @ControlEngineeringChannel
    @ControlEngineeringChannel 3 роки тому +61

    一見、黒板では限界のような内容にどんどん入っていますが、それでも黒板でわかりやすく誤差逆伝播法の話ができるのが凄いです。たくみさんがこのチャンネルの授業動画でパワポを使う日は来ないんでしょうか。

    • @RS-303
      @RS-303 2 роки тому

      パワポ?黒板と日本製チョークが世界の数学者のスタンダード。

    • @大村尚美-d7o
      @大村尚美-d7o 29 днів тому

      作業療法の機械見たことないけれどいとしい。ヘルパーに見てもらえるとありがたい。大学院の修士課程修了ですね!

  • @II-nu6uo
    @II-nu6uo 3 роки тому +2

    めっちゃわかりやすかったです!
    この考え方、他の何かにも使えそうだな〜って思いました

  • @ねこじゃらし-c7z
    @ねこじゃらし-c7z 3 роки тому +1

    ちょうど研究室の研究内容でした。まじで助かりますありがとうございます。

  • @user-wanwan-0920
    @user-wanwan-0920 3 роки тому +2

    昔々に卒論で取り組んだ話でしたので当時を思い出しつつ拝見しました。当時のWSによる計算は大変でした

  • @Catorce7
    @Catorce7 2 роки тому +2

    微分積分が全く分かってないからサッパリですわ…
    深層学習難しすぎ。

  • @たけ-t7q
    @たけ-t7q 3 роки тому +1

    これは素晴らしい

  • @yunovation_melodica
    @yunovation_melodica 3 роки тому +4

    ガウス過程の動画もみたいです🥺

  • @ph4746
    @ph4746 Рік тому +1

    26:00 自分用:連鎖率の話終わって本筋に戻る。

  • @まるぐぅ-b6n
    @まるぐぅ-b6n 3 роки тому +2

    これはありがたい!!!!

  • @レスポールカスタム-z2f
    @レスポールカスタム-z2f 10 місяців тому +1

    G検定で誤差逆伝播法ってワードは出てきたけど、ここまで奥が深いのか…

  • @lotus0509
    @lotus0509 3 роки тому +7

    式・記号に見てわかる解説があって非常にわかりやすい講義だと思いました!
    畳み込みニューラルネットワーク(CNN)になると、"共有の重み"を更新するので混乱しやすいと思います(というより私が混乱しています)。
    ぜひ、CNNの場合の誤差逆伝播法も解説して欲しいです。

  • @tungsten802
    @tungsten802 3 роки тому +12

    電磁気と波動の全解説の予定ってありますか?

  • @お掃除本舗-o4x
    @お掃除本舗-o4x 3 роки тому +5

    活性化関数に恒等関数ではなくシグモイド関数を使用した例を見てみたいです

  • @タンケッキー-n8f
    @タンケッキー-n8f 3 роки тому +2

    ヘスの法則を利用する問題を解くときに、エネルギー図を使ったやり方を教えて欲しいです!
    ピンチなんでお願いします🙇‍♀️

  • @なかむらひろし-e7g
    @なかむらひろし-e7g 3 роки тому +1

    待っていました〜

  • @山田航暉-f5r
    @山田航暉-f5r 7 місяців тому

    0:42 ニューラルネットワークの概要
    8:47 勾配降下法
    14:37 連鎖律
    25:55 誤差逆伝播法

  • @TV-pn5mg
    @TV-pn5mg 3 роки тому +1

    個人的には睡眠用bgmにいい(声が落ち着く)

  • @uy9664
    @uy9664 3 роки тому +8

    ブレークスルー賞を受賞した光格子時計と柏原予想についての噛み砕いた解説をお願いしたいです!

  • @やせ56にゃん
    @やせ56にゃん 4 місяці тому +1

    z=(u1 u2 u3...)
    u1=(x1 x2 x3..)
    という時に、xkはu1 u2 u3...の全てに関わっているというところなのですが、
    u2やu3も同様に
    u2=(x1 x2 x3...)
    というような関数として示せるということでしょうか、、?
    そうなると全部のuが同じ関数ということになってしまいますか?

  • @服部司-e9h
    @服部司-e9h 3 роки тому +1

    初めて誤差伝搬法がすっきり理解できました。ありがとうございます。

  • @絵音-i3f
    @絵音-i3f 29 днів тому

    文系だから微分のところでウッてなったけどヨビノリの過去動画見てから戻ってきた

  • @宇都宮餃子-f8g
    @宇都宮餃子-f8g 3 роки тому

    なるほどよくわからん
    結論の部分先出しでそれから計算して貰えれば多分一番わかりやすかったと自分は思いました。

  • @drtmmy2377
    @drtmmy2377 3 роки тому

    物理学科だけど、今年から深層学習の勉強はじめました!

  • @quwse1
    @quwse1 2 роки тому +1

    丸暗記した合成関数の微分公式がなぜそうなるのかを、今更ながらに知れた。

  • @milkman5966
    @milkman5966 3 роки тому +3

    23:11 メルエム戦終盤のネテロ会長

  • @user-lo7jf9bm9q
    @user-lo7jf9bm9q 3 роки тому

    ちょうど勉強したてだったので復習になりました。

  • @hiroh.8626
    @hiroh.8626 Рік тому

    楽しすぎてにやけちゃいました

  • @SammoHungGambou
    @SammoHungGambou 2 роки тому +1

    η(学習率)の話も入れて欲しかった

  • @ipu_dayoh
    @ipu_dayoh 3 роки тому +2

    共テぶりに見に来たけど円周率不変で草
    なんかありがとうございます。

  • @users_774
    @users_774 Рік тому

    有限要素法についての解説をお願いしたいです!有限要素法のコードをc++でかくという課題が出て、躓いてます。。

  • @ken39rai
    @ken39rai 3 роки тому +1

    やっぱ難しいな、誤差逆伝播法。
    何回か見直す必要ありそう。
    理解できなかったのは連鎖律知らんかったからかw
    でもこういう動画はありがたい

  • @石原正貴
    @石原正貴 3 роки тому

    神動画あらわる

  • @小さな夜-u1i
    @小さな夜-u1i 2 роки тому

    後ろから考えていくアイデアはなるほどと思って爽快感があったけど、重み付けがuおよびz に影響するから、z 所与の重み付け導出ってどこまで意味があるのかと不安になってしまう...学習させる=重み付けが不正確で導出したzを所与として重み付けだけ変える、これで問題なくなる前提条件ってなんだろうか。

  • @-_-plm2232
    @-_-plm2232 2 роки тому

    これ行列とベクトル使って凄いキレイにかけるよな。
    いろいろよくできてるなーってなった

  • @murasso2736
    @murasso2736 Рік тому +1

    なんでフリーハンドでそんな真っ直ぐな線が引けるんだ...

  • @affshima
    @affshima 3 роки тому

    ジャンガのたとえ分かりやすい。。。先に上から動かして、動かした位置で固定しながら、下の段を動かすことができるみたいな。。。

  • @naoyaohtaki2258
    @naoyaohtaki2258 3 роки тому

    ヘッブ則なんかとも関係してくるんでしょうかね?
    いつも勉強になります!

  • @user-ms8tk2n8
    @user-ms8tk2n8 3 роки тому

    Chainerも良いけど
    これも良いね

  • @抹茶-n8r
    @抹茶-n8r 3 роки тому

    なんか、よく分からない内容だったんですが見にきました

  • @imama7148
    @imama7148 3 роки тому +1

    難しかった
    数2Bまでの知識では理解できないでしょうか
    ヨビノリさんの動画で前提知識をつけるのにオススメの動画があれば教えて下さい

  • @no882323
    @no882323 3 роки тому +3

    30年程前 日経雑誌の記事の絵と数式をたよりにガリガリ計算したのを思い出しました。
    確か一層分だけガッツリ勉強してあとはこれに同じ!でゴマかした記憶があります。www
    次回は多分 活性化関数の微分の説明でせうか。

  • @usar-xx1uk4pp9h
    @usar-xx1uk4pp9h 3 роки тому +1

    今回のファボゼロ 8:50

  • @バンブ-u1r
    @バンブ-u1r 3 роки тому +1

    以前学んで知ってる内容ですが、たくみさんの授業が好きで深層学習と合わせて観ました^ ^
    個人的にはこの動画と深層学習との間に最急降下法を挟んでほしかったです。
    昔勉強がてらにランダムな2次関数の係数を特定の3点を通る係数に最急降下法を用いて最適化した事があります。
    動く2次関数も楽しいし真面目にいいネタでは?今からでも是非やってほしいです。
    長くてすいません💦

  • @KAMEUSAGIGAME
    @KAMEUSAGIGAME 3 роки тому

    これで復習します

  • @chaosshignahama9279
    @chaosshignahama9279 3 роки тому +2

    中間層のδ計算でfが微分のままでおわっているけれど、fが恒等関数なら、その部分は1ですよね。あえてそう書かないのはなにかこちらに勘違いがあるのだろうか。実際プログラムにのせようとした場合、微分のまま終わっては、説明として中途半端な感じが。

  • @るうー-u1i
    @るうー-u1i 3 роки тому

    枝刈りの説明が聞きたいです

  • @beekaru_4126
    @beekaru_4126 3 роки тому +2

    ヨビノリすげーーな。

  • @中原くんを囲ってそうで囲ってない

    更新量のグラフが下に凸というか、最適解の時のみ傾きが0になっているのはなんでですか?

  • @doyu_
    @doyu_ 3 роки тому

    今回の続きで実際に具体的なデータセットを使って簡単な勾配降下法の計算例を示してもらえるとうれしいです。特にバッチの処理の場合に、順伝播で記録した入出力データを転置行列でかけて計算量を削減していけるかなどです。

  • @kaj694
    @kaj694 Рік тому

    えぐい

  • @きるみーべいべー
    @きるみーべいべー 2 місяці тому

    テンソルの計算みたい

  • @user-Hiro0822
    @user-Hiro0822 3 роки тому +5

    深層学習…興味あるけど難しい(^^;
    でも図で示してわかりやすく解説してくださっていたおかげで、イメージが掴みやすく、こんな私でも「全くついていけなかった💦」という状況だけは避けられました。
    ありがとうございます!!

  • @ryozann
    @ryozann 3 роки тому

    ありがとうございます。ランダムにパラメーター調整してたらたぶん人生終わるところでした笑

  • @レジェンドケチャップ
    @レジェンドケチャップ 3 роки тому

    人工知能の本読んでたんやがこれイマイチわからんかったから助かる

  • @waiwai8572
    @waiwai8572 Рік тому

    私みたいなおバカは、訳分からんままに実装してから戻ってくると、何となく雰囲気で理論を理解出来る(つもりになる)ことが分かりました笑
    どうもありがとうございました。

  • @居林裕樹-t2b
    @居林裕樹-t2b 3 роки тому

    勉強させて頂きます🙏❗️(^人^)🌟

  • @highlight7966
    @highlight7966 10 місяців тому

    δ(l)_jがδ(l+1)_jで求められる部分がしっかり理解できなかった。。。なんでや

  • @yuikomiyakawa1713
    @yuikomiyakawa1713 3 роки тому

    ここでもとめた、dE/dwを、どう使うのでしょうか?

  • @pozodepetróleo
    @pozodepetróleo 3 роки тому

    だからアンパンマンは愛と勇気だけが友達なのか・・・

  • @komusasabi
    @komusasabi 3 роки тому +8

    誤差逆伝播法を解説したいなら、ゼロからシリーズにならってみかんとリンゴの購入、税込み価格のパラメトリックなモデルのパラメータ調整の話で具体例を見せた方が中学生でも理解できる状態にまで落とし込めそうです。
    計算グラフという言葉も定義していただけるといいな。

    • @kaj694
      @kaj694 Рік тому

      この動画のグラフは計算グラフとは違うと思います

  • @user-jj7hi6co4p
    @user-jj7hi6co4p 2 роки тому +28

    タクミさんに国民栄誉賞かなんかをあげて欲しい。日本のIT知識の向上にこれ程、貢献している人はいない。日本の宝!

  • @neo_0125
    @neo_0125 3 роки тому +1

    数学嫌いだけど面白そうだと感じた。でも、W111のところで、急にアンパンマンみたいだということを思いだし、笑いが止まらなくなった。はなでんおそろしや

  • @yutamatsui6890
    @yutamatsui6890 3 роки тому +1

    授業でやったあとだった...(単位あったけど)

  • @pamiamin
    @pamiamin 2 роки тому

    クリリンのぶん笑 (でも22分ぐらいからわからなくなった...)

  • @アカウント-n1h
    @アカウント-n1h Рік тому

    17:30

  • @gdgd_gd
    @gdgd_gd 2 роки тому

    中学数学でお願いします

  • @そう云えば何か忘れたかも

    関連動画
    ・【機械学習】深層学習(ディープラーニング)とは何か → ua-cam.com/video/s5_Pk3CjhNA/v-deo.html

    • @そう云えば何か忘れたかも
      @そう云えば何か忘れたかも 2 місяці тому

      追加
      ・【速報】ノーベル物理学賞2024を解説【機械学習の基礎】 → ua-cam.com/video/dNN9ZSWhE3k/v-deo.html