【深層学習】 CNN 紹介 "ResNet" 言わずとしれた CNN の標準技術が登場!【ディープラーニングの世界 vol. 17】

Поділитися
Вставка

КОМЕНТАРІ • 55

  • @のんの-n2p
    @のんの-n2p 3 роки тому +7

    初コメです☺️
    ゼミでこの分野ちょっと触れたことがあって,
    「F(x)+x にすれば0にならなくて便利らしい...」くらいのふわふわした理解でしたが,
    この動画を見て,なぜそうするのかっていうのが「恒等写像」の説明で,すごく理解できました✨

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +2

      わーい!
      のんのさんのお役に立てて光栄です!😍🎉🎉
      いつも丁寧に見て理解していただいて私もうれしいです(^^)

  • @NISHI000d
    @NISHI000d 3 роки тому +2

    今回も動画乙。ResNetって、残差学習で勾配消失って、ぼんやり覚えていたけど、スキップコネクションのところでサイズを同じにする必要があるのか・・・。元論文は読んでなかったから、勉強になった

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +5

      驚くべきことに、原論文には勾配消失のことは一切描いていません😇
      その効果も大きいのでしょうが、 degradation 対策として作られたもののようです(^^)

  • @310ksk6
    @310ksk6 2 роки тому +2

    いつも超わかりやすい解説ありがとうございます!
    Resnetについては発表当時から知ってはいましたが、スキップコネクション使うという事実だけ知っていてその深い理由とかは知らなかったのでめっちゃ勉強になりました!
    少しわからなかったことがあったので質問です。
    18layerと34layerの比較のところで34layerのほうが劣っているのは単に学習効率の問題で、34layerでも時間をめっっっっちゃかければ18layerを凌駕しうるという解釈でよろしいのでしょうか?
    また34layer = 18layer + 16layer(恒等写像)というのは(もし完全にこのようなlayer構造になったとして)
    1. 特徴量の抽出は18layerでだいたい十分
    2. 16layer(恒等写像)の部分は恒等写像が正解に近くなるように微調整している
    といった解釈になるのでしょうか?

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому +1

      お役に立ててよかったです!(^o^)
      めちゃ学習に時間をかければ 34-layer の方が 18-layer より強くなるかは、、、わかりません、、、。
      机上で結論が付く問題ではないので、実際に試してみるしかないと思い。
      34-layer = 18-layre + 16-layer というのは、
      そういう構造が正解であるという話をしていたのではなく、
      仮にこうすることができれば少なくとも性能が悪化することはないはず、、、
      という仮の議論でした。
      なので、実際の学習や調整の話はよくわかりません、、!

    • @310ksk6
      @310ksk6 2 роки тому

      ありがとうございます!
      DL界隈は側から見るととりあえずやってみたらうまくいった、みたいに見えますけど、きちんと原論文読んだら理論がしっかり書いてあるもんですね。
      最近だと細かい技術が沢山あってついていくのが大変です笑

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому +2

      その側面もあると思いますよ!
      やったらうまくいったがかなり先行してるので、理論もやらねばという揺り戻しが来ている時代のような気がしています😊

  • @shogo8660
    @shogo8660 3 роки тому +2

    画像認識系の研究室にいるので、わかりやすくとても参考になりました!
    Faster-r-cnnやmask-r-cnn等についてもぜひ聞いてみたいです!

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +2

      R-CNN ですね!
      YOLO とかそこらへんもやりたいと思っています!
      このシリーズは、一旦 NLP にいく予定なので、すこし先になってしまいますが、のんびりお待ち下さい😊

  • @sylk5366
    @sylk5366 3 роки тому +1

    こんばんは!歴史含めて学べるので楽しめて見れています!
    良かったらtransformerについて知りたいです(bertも)
    自力で調べてもなかなか難しい...orz

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +3

      おまかせあれ!
      Transformer や BERT は年内くらいに登場予定です😋

  • @numu-e5c
    @numu-e5c 2 роки тому +1

    恒等写像が必要になる場合はshortcutコネクションが有効に働くのは分かったのですが、恒等写像ではなく通常の特徴抽出が必要でshortcutコネクションによる情報が全く必要ない場合は、邪魔になって学習がうまく進まなさそう(shortcutコネクションの足し合わせを打ち消すために層への入力を全て最終層まで保持するとかも難しそう?)に思えるのですが、どうしてうまく学習できるのでしょうか?🤔

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому +1

      よい質問ですね!!!
      よい質問過ぎてわかりません!/(^o^)\
      この辺りは、理論で攻めるより、実践でどっちがよいかを確かめる領域な気がします。
      skip connection があろうとなかろうと普遍近似定理は成り立つので、最終的にはどっちでも精度が出るとおもいます。
      ただ、動画でも話した通り、degradation への対処には恒等写像の学習の容易性が重要なので、結局 ResNet 優位は変わらないと思います。
      また、 skip conn. には、勾配消失の抑制の効果もあるので、それも加味すると skip conn. がある方が優勢だと考えていいと思います👀

    • @numu-e5c
      @numu-e5c 2 роки тому

      @@AIcia_Solid
      まずdegradationを防ぐためにskipconnectionが考えられて(理論上普遍性定理も成り立つので)、実際に実験してみたら精度が出たので、内部的な動きは詳しくは分からないけど通常の特徴抽出も上手く機能してる(っぽい)ということでしょうか?🤔
      足し合わせではなくてconcatだったら学習しやすそう(出力に余分な0が付いてしまう?)ですが、少し不思議だなとおもいました。
      勾配消失対策になるのも大きいんですね👀

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому +1

      大体そんな感じだと思います👀
      勾配消失の抑制は極めて本質的です!
      これのお陰で実務的に深いネットワークが実現されるようになったので!

    • @numu-e5c
      @numu-e5c 2 роки тому

      @@AIcia_Solid
      層が多くても、勾配消失抑制と恒等写像によって総合的に高い精度が出ているんですね👀
      ありがとうございます!🍀

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому +1

      こちらこそ、興味深い質問をいただきましてありがとうございました!
      わたしも勉強になりました!🎉

  • @kotai2003
    @kotai2003 3 роки тому

    どうもありがとうございました。やっとResNetの仕組みが理解できました。ついでにお願いしても宜しいですか?異常検知の界隈でEfficientNetが話題ですが、それについても解説していただけますでしょうか。

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +2

      ご視聴コメントありがとうございます😍
      活用いただけて良かったです!(^o^)
      EfficientNet 話題ですよねー!
      いつか扱いたいのですが、いつになるかは未定です🙇‍♀️🙇‍♀️🙇‍♀️

  • @johnlennon2009nyc
    @johnlennon2009nyc 2 роки тому

    原文はチラ見
    これがMicrosoft Research北京つーのが悲しいですね
    科研費どうなってンスか?

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому

      良い研究ですよね!
      (何が悲しいかは私にはよくわかりませんが、、)

  • @ckenhilla5154
    @ckenhilla5154 3 місяці тому

    「恒等写像を基準に調整」で、びよーんの矢印の意味が、ばっちしスパーンと理解出来ました!

    • @AIcia_Solid
      @AIcia_Solid  3 місяці тому

      それは良かったです!(^o^)
      たくさんご視聴いただきありがとうございます😊✌️

  • @ライチ猫
    @ライチ猫 2 роки тому

    最近CNNをかじり始めてちょっと詰まりかけてたので、分かりやすいしありがたすぎて泣いちゃいました😭

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому

      ご視聴コメントありがとうございます!🎉🎉
      それはよかったです!
      真面目に勉強されている方のお役に立てて私も光栄です😊

  • @zentaxnetwork1198
    @zentaxnetwork1198 2 роки тому

    A friend sended me this are you a vtuber who does computer science content :D? I do wish something like this exist in english...

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому

      Thank you for your watching and a comment!🎉
      Now, this is your turn to start some DS VTuber 😋 I think 😋

  • @nire-hj9pe
    @nire-hj9pe 3 роки тому

    原著論文読んでみました。
    comprehensive researchって感じでHeさんのファンになりました(*'▽')
    うまくいってない原因の切り分け(過学習/勾配消失/収束が遅い)を議論するところが熱いですね。
    質問なのですが、学習のグラフ(Fig.4)でガクンとerror rateが落ちているところがありますが、これはなぜなんでしょうか?
    学習のパラメータの何かをいじってるのかなと思いましたが、学習率については
    p.776の右の段落の1パラ目に、「iteration 32k目と48k目で1/10変えた」とあり、学習率を変えたことが原因ではなさそうなのかなと考えました。

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +1

      おおー!いいですね!😍🎉🎉
      原著論文熱いからホント色んな人に読んでほしいですよね!😍
      質問の部分です。
      これは、たぶん学習率の調整だと思います。
      学習サチって来たら学習率落とすのはよくあることなので!
      p776 右は CIFAR-10 のときの話ですので、たぶん別のタイミングでやったのだと思います。

    • @nire-hj9pe
      @nire-hj9pe 3 роки тому

      @@AIcia_Solid ありがとうございます!
      もう一度読み返してみます💦

  • @shachah_svaahaa
    @shachah_svaahaa 2 роки тому

    『分析モデル入門』から戻ってきました。動画の補足コンテンツがあるのってとても助かります。

    • @AIcia_Solid
      @AIcia_Solid  2 роки тому

      おかえりなさい!🎉
      両メディアを活用いただいてとっても嬉しいです🤩🎉🎉🎉
      ぜひ色々吸収していってくださーい😋

  • @s.t6238
    @s.t6238 3 роки тому

    12:55 skipとshortcutって別物なんですか?

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +2

      大体一緒だと思います。
      動画では shortcut で統一するために言い直しました😋

  • @設楽歌仙
    @設楽歌仙 3 роки тому

    論文で、しかも本論文じゃなくて引用の方でしか知らなかったから、ずっと”レスネット”だと思ってた....。

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому

      あ、、、たしかに、、、、、(笑)
      レジデュアルの Res なので、レズが正しいと思います、、、たぶん!

    • @manbodama
      @manbodama 3 роки тому

      Google先生によるとだいたいレズネットと出てきますね

  • @えだ-b3x
    @えだ-b3x 3 роки тому

    どの動画も楽しく拝見しております。
    層が長いほうが性能が悪いという結果から、恒等写像の学習は難しいと考えられ、「試しに」0写像を学習するようにしてみたら「結果的に」うまくいった、という認識なのですがあっていますでしょうか?
    (0写像のほうが学習しやすいというのがよくわからなかったです…理論的にわかっているのでしょうか?)

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому

      大体そんな解釈で良いと思います😊
      ゼロ写像は、パラメタ全部0にしたら実現できるので、学習は比較的容易なのではないかと思います!

    • @manbodama
      @manbodama 3 роки тому

      恒等写像の学習が難しいって不思議よな。来たのそのまま返すだけって簡単そうだけど、、活性化関数とかのせいで情報が勝手にガタガタにされてくとかなのかな。

    • @manbodama
      @manbodama 3 роки тому

      0写像の方が学習しやすいのは、個々の重みを調整する際、前の層や同じ層の他の重みに影響されることなく、それぞれが0の方向に近づければ良いことが明確だから偏微分と相性が良いってことじゃないかな。

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +3

      活性化関数にシグモイドとかうにょーんってしたやつを使うと恒等写像を有限個のパラメタで表現することは不可能です。
      また、活性化関数の値域が有限だと、やはり有限個のパラメタでは、NNの値粋も有限になるので、大きな値での近似は厳しくなります。
      ReLUを使う場合、 ReLU(x) - ReLU(-x) = x なので、これで恒等写像になっていそうですが、1変数の恒等写像を表現するのにReLUを2個使っているので、中間層の個数が入出力の個数の倍必要になります。(通常そんなネットワークは作りません)
      なので、恒等写像の学習は難しいのです。
      一方、ゼロ写像はパラメーターぜんぶ0にしたらなるので、すごく簡単なのです👀

    • @manbodama
      @manbodama 3 роки тому +1

      @@AIcia_Solid なるほど、活性化関数が入力値と同じ出力値を表現することが困難な点に恒等写像が難しい理由があったということですか。たしかに言われてみれば当たり前ですね。

  • @deepcartv
    @deepcartv Рік тому

    흥미롭게 잘 들었습니다. 감사합니다.

    • @AIcia_Solid
      @AIcia_Solid  Рік тому +1

      다시 한번 시청해 주시고 댓글을 남겨주셔서 감사합니다!
      얻은 이해를 잘 활용하세요!🎉
      This is translation by ChatGPT. The original is:
      Thank you for your watching and your comment again here!
      Please utilize your understanding!

  • @shinkamo5170
    @shinkamo5170 3 роки тому

    DenseNetの動画もあげてほしいです🙇‍♂️

    • @AIcia_Solid
      @AIcia_Solid  3 роки тому +3

      DenseNet は ResNet に毛が生えた程度のものなので、 ResNet をしっかり理解したあと、ネットで調べてみていただければある程度つかめるのではないかと思います!
      いつか扱いたいですが、 Transformer や GAN や RL など紹介したいものがたくさんあるので、かなり先になってしまう気がします😇

    • @shinkamo5170
      @shinkamo5170 3 роки тому

      @@AIcia_Solid 分かりました!頑張って調べます!主さんも動画投稿頑張ってください!

  • @Kt-ok2ie
    @Kt-ok2ie Рік тому

    Heさんすごい...

    • @AIcia_Solid
      @AIcia_Solid  Рік тому

      でしょ😎
      ほんとすごいですよね🤩

  • @user-wu9nc1hq7o
    @user-wu9nc1hq7o Рік тому

    Thank you!!