ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

Поділитися
Вставка
  • Опубліковано 15 лис 2024

КОМЕНТАРІ • 123

  • @広河長綺
    @広河長綺 Рік тому +232

    「チャンネル登録してね」ってありとあらゆるyoutubeチャンネルで聞いてきたけど、この動画が一番オシャレに言ってると思う

    • @whiterabbit5410
      @whiterabbit5410 Рік тому +22

      このコメントがオシャレすぎて動画を最後まで見る気になった。

    • @mizuchin36
      @mizuchin36 6 місяців тому

      確かにです🤣

  • @pascal_Boy
    @pascal_Boy Рік тому +77

    Japanをみてから、もとの動画みにいくと
    英語の勉強にもなる…素晴らしきかなこのチャンネル

    • @ano5041
      @ano5041 Рік тому +3

      どう?英語の勉強捗ってる?

  • @Ryon_P329
    @Ryon_P329 Рік тому +18

    とんでもねぇ複雑なもんをすげぇ簡単に教えて貰ってるのに、それでもすげぇ難しいからちゃんと理解するのはほんとに大変なんだろうなって思う
    ましてや開発した人はバケモンやろ

  • @jumnn
    @jumnn Рік тому +17

    5,6年前に深層学習の分野に携わっていたのですが、このチャンネルをその時に拝見したかったです。
    当時の私に届けることはできませんが、今の私はとても興味深く拝見させていただきました。

  • @wswsan
    @wswsan Рік тому +51

    ニューロンのあの関数そういう考えで作られていたのか
    非常にわかりやすく作られていて助かる

  • @Rhinecanthus
    @Rhinecanthus Рік тому +33

    めっちゃありがたり。ありがたすぎる、英語版見てる時からずっとこの音声付き日本語訳を待っていました、本当に嬉しい ありがとうございます

  • @siodrymenu
    @siodrymenu Місяць тому +1

    このチャンネルで東京大学が存在することに初めて感謝しました。有志の学生さんたち本当にありがとう!!

  • @nacuraion
    @nacuraion Рік тому +26

    常々表現の巧さに感嘆させられていたが
    今回は加えてカリキュラムの巧さに感動を覚えた
    「ニューラルネットワーク」大きな言葉のブラックボックスに隠された原理をわかりやすく説明しながら
    その莫大で不可能とも思える計算量を解決する発想は過去の線形代数の動画にあったという
    理系学生全員にこの動画の面白さが伝わってほしいという強い情動に突き動かされる

  • @mtaka84219
    @mtaka84219 Рік тому +4

    何これ、マジで死ぬほどおもしろい。この動画の構成を考えた人は天才。

  • @g5161431
    @g5161431 Рік тому +10

    過去みてきたどの動画よりもわかりやすい。
    ずっとイメージしづらかったことがすっと入りました。
    ありがとうございます!!!

  • @OMAE_OCHICHUKEYO
    @OMAE_OCHICHUKEYO Рік тому +5

    このチャンネル、中身も興味深いけど声とBGMがほんとに心地よくて好き

  • @wahaha-_-
    @wahaha-_- Рік тому +68

    これ丁度知りたかったからめっちゃ助かる

    • @Germogisan
      @Germogisan Рік тому +2

      俺も丁度この事を夢で考えてから目覚めたから助かる

    • @ano5041
      @ano5041 Рік тому +1

      俺は一年ほど前から知りたかったけど助かってる

    • @YS-rs4cp
      @YS-rs4cp Рік тому +2

      ちょうど切らしてた

    • @ラブカ-d7g
      @ラブカ-d7g Рік тому +5

      俺も大学院でニューラルネットワーク使ってるから助かる(マジで)

    • @志田ちゃん志田ちゃん
      @志田ちゃん志田ちゃん Рік тому +3

      大学院でやってるのに
      この動画で助かってるの
      修了できるか不安

  • @るんるん-u5e
    @るんるん-u5e 9 місяців тому +5

    Programing言語で数式を書けば数学に疎くても理解できる内容ではあるんですが、
    数式で脱落している人は多いでしょうね。
    あと、重みとは丸と丸をつなぐ線分のことなんですが、理解できてない人もいそうな気がします。
    実際0層目(入力)から1層目を出す式はこんなもので極めて簡単です。
    node // 動画上の◯
    weight // 動画上の線であり重みであり記憶
    node[1][0] = Sigmoid( bias + weight[0][0][0] * node[0][0] + weight[0][0][1] * node[0][1] + weight[0][0][2] * node[0][2] + ・・・ + weight[0][0][N] * node[0][N] )
    node[1][1] = Sigmoid( bias + weight[0][1][0] * node[0][0] + weight[0][1][1] * node[0][1] + weight[0][1][2] * node[0][2] + ・・・ + weight[0][1][N] * node[0][N] )


  • @人浪-t6q
    @人浪-t6q Рік тому +9

    オチがチャンネル登録への誘導になってるの感動した

  • @umi9217
    @umi9217 Рік тому +9

    めっちゃ良いタイミングで動画きた!!
    勉強しないといけなかったんで助かります

  • @フルスイング吉田-m2z
    @フルスイング吉田-m2z Рік тому +8

    マジでこの世界ってすげぇなぁ。。。

  • @訓練された鶏
    @訓練された鶏 Рік тому +18

    大学でほぼこれと同じ数字認識のAI学習(OCR)を、jupyter上でコード書いて学習させて試すって一連の講義をうけたけど
    正直言われた通りやるだけで、間に何が起こってるかわからなかったわ
    これは非常にわかりやすい

    • @ano5041
      @ano5041 Рік тому

      わからない状態でもとりあえず手を動かすという学習方法は、生徒が受け身の姿勢だとうまくいかないからね
      自分から学ぼうという姿勢が生徒自身にないとうまくいかない

    • @ussee-ussee-usseewa
      @ussee-ussee-usseewa Рік тому +4

      @@ano5041でもこの人は実際に興味を持ってここに来ているけど授業では分からなかったから教える側が悪いと思う

    • @ano5041
      @ano5041 Рік тому +5

      @@ussee-ussee-usseewa 「正直言われた通りやるだけで、間に何が起こってるかわからなかった」という経験が興味を持つきっかけになっている可能性もある

  • @ptptsoushu
    @ptptsoushu 11 місяців тому

    今まで見たニューラルネットワークの説明で一番わかりやすかったです。ありがとうございます

  • @Rhinecanthus
    @Rhinecanthus Рік тому +14

    終わり方がメタすぎて面白い

  • @wd.eclairgreen
    @wd.eclairgreen 11 місяців тому +3

    このチャンネルの線形代数のChapter1でベクトルはコンピュータサイエンスの視点では数のリストであるって言ってたのがこういうことね。伏線が回収されたみたいで嬉しい

  • @ta-fw6gx
    @ta-fw6gx Рік тому +2

    ちょうど今日の昼間にこれの英語版を字幕で観てたとこ! めっちゃタイムリー! 日本語版ありがたい!

  • @とっぽー
    @とっぽー 5 місяців тому +1

    これが日本語訳で観れるありがたさ……

  • @user-slashed-O
    @user-slashed-O Рік тому +1

    これの日本語版見たかったから助かる

  • @eggmanx100
    @eggmanx100 Рік тому

    何が凄いって、ニューラルネットワークの仕組みが自然に人間の脳の中に作られたということだな。

  • @ちゃんねる坊や
    @ちゃんねる坊や 7 місяців тому

    学生時代に出会いたかった…!
    素晴らしい動画!

  • @yu-qf8pq
    @yu-qf8pq Рік тому +5

    なめらかなシグモイドより閾があるReLUの方が上手くいくのちょっと意外性あって良い

  • @256yayo
    @256yayo Рік тому +2

    やはり説明が良い。
    あと声がいい。

  • @葵一
    @葵一 Рік тому +2

    次回動画がめちゃ楽しみです、ありがとうございます!!

  • @男団子-x5t
    @男団子-x5t Рік тому

    オライリーの本でがっつり勉強したけどこれ見てから取り掛かったらもっと理解早かっただろうな。まじで良い動画。

  • @sandvinyl
    @sandvinyl Рік тому +1

    細かく丁寧な解説で分かりやすくてありがとう😊🎉

  • @あき缶-j2o
    @あき缶-j2o Рік тому +1

    楽しみがひとつ増えた

  • @十分性の確認
    @十分性の確認 Рік тому +4

    ナレーションが心地よい

  • @shiro_teacher
    @shiro_teacher Рік тому

    説明が美しい、いつも勉強になります

  • @カメレオン-h9s
    @カメレオン-h9s Рік тому +2

    自分も独学で勉強してるのですが
    ものすごくわかりやすいです

  • @鎌田英明-c6f
    @鎌田英明-c6f Рік тому +1

    配信ありがとう👍

  • @mizuchin36
    @mizuchin36 6 місяців тому

    勉強していくと点と線が繋がって急に理解できることがあるけど、これはニューラルネットワークをイメージするとすごく納得いきました。
    そしてSigmoid関数ではなくてReLUの方が上手く行くのも、実際の脳の仕組みと近いからなんだろうなと感じました。

  • @kabo2767
    @kabo2767 Рік тому +2

    アニメが非常にシンプルで、非常に分かりやすい!
    GPUが売れるのも頷ける。

  • @wa-i
    @wa-i Рік тому

    この動画、日本語化待ってました!!

  • @torikkuru
    @torikkuru Рік тому

    プログラムに落とし込みたかったのでめちゃくちゃ勉強になりました。

  • @mk.248
    @mk.248 Рік тому +1

    最後のオチの説得力

  • @Chisataki-is-god
    @Chisataki-is-god Рік тому +1

    待ってました!

  • @alogarithm
    @alogarithm Рік тому +20

    深層学習はオライリーの書籍がすごくオススメ。
    実際にこの動画で扱っている手書き数字のデータセットを使ってモデル構築・予測するところまでTensorFlowを使って理論立てて実装できます!

    • @ano5041
      @ano5041 Рік тому

      TensorFlow 公式のチュートリアルで十分な気がするのだけど…
      そのほうが無料でできるし、Google Colabのノートブックも用意されていてコピーして容易に動かせたりする

  • @kiki-w2e1k
    @kiki-w2e1k Рік тому

    手書き数字の分類や平均顔の話は、初めて論文読んだ時驚きましたねえ…

  • @おこめ-q8e
    @おこめ-q8e Рік тому

    他の動画もだけど本当に分かりやすい

  • @sankaku813
    @sankaku813 Рік тому

    活性化関数が何をしているのか、よく分かりました。ありがとうございます。

  • @t.s.868
    @t.s.868 Рік тому

    これ気になってたので助かりました!

  • @みかさ-f1h
    @みかさ-f1h Рік тому

    これはマジで助かる

  • @スーパーパリピ陰キャコンプレックス丸

    なんてわかりやすさ、、、、、😮

  • @comtam3602
    @comtam3602 Рік тому +1

    線形代数のときもそうだけど、
    このチャンネル履修終わったあとに出るんだけどw
    一年生が羨ましい。

  • @犬-s6i
    @犬-s6i Рік тому

    こんなにも高度な「チャンネル登録おねがいします」初めて見た

  • @はぎのつき-q3j
    @はぎのつき-q3j Рік тому +1

    図形認識においては、ピクセル認識ではなく、ベクトル認識させる事は出来ない物か・・・
    そんな風に夢想する昨今でございます。

  • @tkma
    @tkma Рік тому +2

    このシリーズやってほしかった!!

  • @akatuki_me2
    @akatuki_me2 Рік тому

    ほんと助かる

  • @elinafurukawa224
    @elinafurukawa224 Рік тому

    この丸にかかるケイセンの重みづけだったかなが学習理論かなって思ったの覚えてます。

  • @ikatakomaguro534
    @ikatakomaguro534 Рік тому

    任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる

  • @IM-vu4gj
    @IM-vu4gj 10 місяців тому

    ゼロつく1から4まで読んだら大分理解できるぞ

  • @山中天然水
    @山中天然水 6 місяців тому +1

    めちゃんこ面白い

  • @妖刀
    @妖刀 Рік тому +3

    しかし
    v (ヴイ)アルファベット
    ν (ニュー)ギリシャ文字
    の見分けができる気がしない

  • @eeee4767
    @eeee4767 9 місяців тому

    これの逆ならなんとなく知ってたけどこっちのやつは初めてみました
    でもいま解説するなら逆が知りたい気もする

  • @daisuke3388
    @daisuke3388 Рік тому

    Quote ´When your brain is smarter than yourself´

  • @loop_construct
    @loop_construct 11 місяців тому

    つまりはアキネイターの魔人がいっぱい居るようなものなのかな

  • @Cthulhu-l_-n-_l-b
    @Cthulhu-l_-n-_l-b Рік тому +1

    計算とかめっちゃ苦手だけど、考えめっちゃ面白い

  • @yossansan4337
    @yossansan4337 Рік тому

    ここまでわかりやすいと、SIMDとか並列処理の話もしてほしくなりますね...

  • @のとこま
    @のとこま Рік тому

    続きが気になりすぎる

  • @houbeki
    @houbeki Рік тому

    次が待てない方はSONYがUA-camで出しているニューラルネットワークの動画がおすすめ

  • @tamotsustop
    @tamotsustop Рік тому

    12:21
    誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました

  • @草履蝉
    @草履蝉 Місяць тому

    ノーベル物理学賞にもなりましたね

  • @SS-xh3em
    @SS-xh3em Рік тому +1

    ディープラーニングがより進化したら、ロボットじゃないこと証明するぐにゃぐにゃ文字入力意味なくなっちゃうよな

  • @HEADJOCKAA
    @HEADJOCKAA Місяць тому

    17:00 えらく単純化したなぁ。これでいいのか。

  • @Danboorukun.
    @Danboorukun. Рік тому

    絶対に使う気がしない知識だけど、こういうのって知りたくなっちゃうよね

    • @ano5041
      @ano5041 Рік тому +1

      数年後は使ってるかもよ

  • @tomoyakamimura
    @tomoyakamimura Рік тому +1

    まだ、東京大学のコンビニで暗記パンって売っているの?本郷校舎の前にある黄色い海鮮丼屋さんもあるのかな?おいしいよね。いつも楽しい動画をありがとう。

    • @mariko6001
      @mariko6001 Рік тому

      銀はち!!!

    • @FoxInFlame
      @FoxInFlame Рік тому

      駒場キャンパス駅前のマックは残念ながらもう無いんですけどね…

  • @ymku-f3i
    @ymku-f3i 28 днів тому

    自分が書いた3は、人に3と認識されないことがあります

  • @竜平沢村-p7t
    @竜平沢村-p7t Рік тому

    動画一覧画面でスクロールすると、この動画のサムネだけ、スクロール止まった瞬間に動き出すように見える。なんかの錯視?

  • @usagioishikanoyama
    @usagioishikanoyama Рік тому +1

    ReLUではアクティベーションを0〜1に押し込めないように思えるのですが問題ないのでしょうか?
    また、ReLUの方が計算コストが低そうですが、シグモイド関数よりも後に使われ始めたのはなぜでしょうか?

    • @ano5041
      @ano5041 Рік тому +2

      実際に ReLU を使ってみると精度がいいので問題がないことがわかると思う。
      シグモイド関数よりも後に使われ始めた理由は、単に思いつかなかっただけかな。
      過去の人達も「なんとなく、活性化関数は0〜1に押し込めたほうがいいと思うからシグモイド!」と思い込んでいたのかもね。
      その思い込みによって、無限に大きくなる可能性のある ReLU を思いつかなかったとかかも。

    • @usagioishikanoyama
      @usagioishikanoyama Рік тому

      @@ano5041 ありがとうございます

    • @comtam3602
      @comtam3602 Рік тому +3

      シグモイド関数は滑らか! 微分できる。
      ReLUは滑らかじゃない! 微分できない! 場合分けがいる。= めんどい
      補足…ニューラルネットワーク(NN)は学習するごとに毎回ウエイト(バイアス含む)を変えます。そして誤差を少なくしていきます。次回のNNでは今回よりも誤差を少なくするために、ウエイトを大きくするか、小さくするか、の選択をしなければいけません。この選択肢は、誤差の傾きを見ることによって、決定できます。このとき微分が必要になります。

    • @n4tua763
      @n4tua763 Рік тому +2

      出力層では0~1に押し込んだほうが都合がいいので、出力層だけシグモイド関数を使ったりします。他にも-1~1に押し込むtanh関数もよく使われます。

  • @まめし-y2w
    @まめし-y2w Рік тому +1

    次の人生ではこういうのがわかりたい

  • @Rasptin-d3b
    @Rasptin-d3b Місяць тому

    この方向性ではやはりドラえもんやアトムは生まれませんね。

  • @taitai1222
    @taitai1222 Рік тому

    研究室時代に出して欲しかった笑笑

  • @tts-th3mc
    @tts-th3mc Рік тому +4

    30年以上前から研究開発されていたバックプロパゲーションだな、いつの間にかディープラーニングと呼び名が変わったが😪
    当時はハードウェアがショボくて処理速度が遅く、中間層1層だけの3層で、それでも画像処理なんかに応用した特注品を作ってた会社もいくつかあったが🤭
    ここ数年は処理速度も当時とは比較にならんほど上がり扱えるデータ量も飛躍的に増えて、中間層を増やしてもそこそこの時間で学習させられるようになり、応用実用の目途が立ってきたということだな、やれやれ😮‍💨
    しかし、どうやって入力に対する回答を導き出しているのかが分からん不気味さは無くならんし、突拍子もない頓珍漢な回答を出してくることもある、それは良いが有得そうで間違った答えを出されるのがかなわんな、例えば医療AIで間違った診断を出したりなど、まだまだ最終判断には(専門の)人間が必要だな😩

  • @なつかしベリー
    @なつかしベリー Рік тому

    書き順を想像できるプログラムができたら簡単な話なのですがね

  • @cooper7003
    @cooper7003 Рік тому

    ニューラルネットワーク…
    昔、LONってあったよね

  • @wswsan
    @wswsan Рік тому

    14:16 ここ b0...bn だとW*aの計算後に出る列と合わなくないですか?

  • @根歩
    @根歩 Рік тому

    オススメに出てくるようにチャンネル登録してねだってさ!
    キザだわ〜〜〜!!

  • @マルセルスワン
    @マルセルスワン Рік тому

    チャンネル登録のくだりメタすぎて草

  • @takek9215
    @takek9215 10 місяців тому

    未来の教科書

  • @文彦斉藤-d4i
    @文彦斉藤-d4i Рік тому

    35年ほど前にバックプロパゲーションが話題になりました。パーセプトロンが線形のパタン認識しかできなかったものが非線形でも認識できるようになりました。画像認識では、パタン認識以前の前処理が最も困難です。例えば数字認識でしたら、20桁の数字を1数字づつ分割するような処理です。明瞭な画像でしたら古典的なセグメンテーションで可能ですが、コントラストが悪く数字同士が接触しているような場合です。ディープラーニングは最適化手法の一種ですが、やはりGAの方が能力は上だと思います。特徴抽出をNNに行わせるのは邪道と考えます。画像認識研究歴45年、査読付原著論文250編を発行している科学者の戯言です。

  • @ももパイン部
    @ももパイン部 Рік тому +1

    やっぱり日本語訳あるとわかりやすい

  • @みどり-t3d
    @みどり-t3d 7 місяців тому

    11:08 難しくなってきた

  • @npsum-tm8ly
    @npsum-tm8ly Рік тому +1

    MNISTだ!!!

    • @npsum-tm8ly
      @npsum-tm8ly Рік тому

      二値分類の損失関数を二乗和誤差で解いてた二年前の自分に見せたいw

  • @user-bo5zv6ug9j
    @user-bo5zv6ug9j Рік тому

    おもしろい

  • @coffeemilk6347
    @coffeemilk6347 Рік тому

    メモ 7:30

  • @タケ-g4g
    @タケ-g4g Місяць тому

    正直すごくまわりくどく説明してるように感じる。

    • @takegone6500
      @takegone6500 Місяць тому

      英語を日本語に翻訳しているからではなかろうか

  • @どどどどどど-f4t
    @どどどどどど-f4t 2 місяці тому

    EDITが非常にSEXY

  • @KiraYoshikageKillerQueen
    @KiraYoshikageKillerQueen 3 місяці тому

    ニューラルネットワークについて勉強しようと思ったけど、冒頭でマウント取ってきて見るのやめた

  • @熊澤典子-h2v
    @熊澤典子-h2v Рік тому

    oh😊

  • @user-bl2zf2mh3g
    @user-bl2zf2mh3g Рік тому

    いいねーさいけう

  • @user-fn2xd6vu5q
    @user-fn2xd6vu5q Рік тому

    待ってました!!

  • @ikatakomaguro534
    @ikatakomaguro534 Рік тому

    任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる

    • @ano5041
      @ano5041 Рік тому

      この動画によって、線形関数の線形結合で近似できるということが間違いだと理解した、ということ?