【深層学習】損失関数/勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

Поділитися
Вставка
  • Опубліковано 3 жов 2024
  • ← 第2回 活性化関数
    • 【深層学習】活性化関数|ReLU、シグモイド...
    →第4回 誤差逆伝播法
    • 【深層学習】誤差逆伝播法|バックプロパゲーション
    「機械学習をはじめよう」
    • 機械学習

КОМЕНТАРІ • 16

  • @yudaitonoyama7277
    @yudaitonoyama7277 5 років тому +5

    1から飛ばさず説明してくださるので、めっちゃわかりやすいです。

  • @j-phoenixresearchinc.5618
    @j-phoenixresearchinc.5618 5 років тому +11

    ようやく初めて交差エントロピーがよくわかりました!

  • @syalpon
    @syalpon 5 років тому +11

    素晴らしい。わかりやすい。

  • @ひげにゃんこ
    @ひげにゃんこ 5 років тому +6

    高校で習った二項分布がここまで発展するんだな。感慨深い。

  • @大川在日本
    @大川在日本 5 років тому +3

    勉強になりました

  • @アルフォート-i6e
    @アルフォート-i6e 4 роки тому +1

    説明が一々神です!
    神の祭壇でable神を呼び出したい。。

  • @takumih7276
    @takumih7276 4 роки тому

    尤度関数分かりやすかったです。

  • @lnoool
    @lnoool 5 років тому +2

    すごいいい!

  • @maxmumtheginchan
    @maxmumtheginchan 5 років тому +2

    非常にわかりやすいです!
    しかし一つ疑問なんですが、そもそもモデルを作るにはどうしたら良いのでしょうか?

  • @怒りの矛先を失った魔理沙

    LeLU関数みたいなの使うと数式じゃなくなる気がします。
    そうなったら微分できなくないですか

  • @norichanfutonya7787
    @norichanfutonya7787 5 років тому

    錦糸町のホストみたいな、もふもふ不動産でdeep learning について勉強した。直感的には、行列や微分が出てくるところが雰囲気掴めた。(錦糸町のホストも、直感的説明とコメ)でも、ここでその部分を掘り下げてくれて、わかりやすい。偏微分のところまでわかった。プログラミングまで、頑張りたい。

  • @こーら-e3q
    @こーら-e3q 4 роки тому +1

    15:36 1、2のデータの出力のかっこの右上のTって何ですか??

  • @yone1998
    @yone1998 3 роки тому +1

    30:10 wが重み、yが各ニューロンにおける値とすると、zが活性化関数でしょうか?
    あと、本質的な問いではないかと思いますが、y_1^2を通る経路だけ考えているようにみえるのですが、y_2^2を通る経路も考える必要があるのではないでしょうか?つまりは全微分

  • @yone1998
    @yone1998 3 роки тому

    具体例
    nはデータの個数: 人のID(1,2,3,4)
    kはクラス: 服のサイズ(SML)
    t_{nk}=
    [0 1 0
    0 0 1
    0 0 1
    1 0 0]
    y_{nk}=
    [0.1 0.8 0.1
    0.3 0.1 0.6
    0.2 0.3 0.5
    0.4 0.3 0.3]

  • @食用お味噌汁
    @食用お味噌汁 3 роки тому

    あれだ、神経伝達物質を分泌させてシナプスの重み付けをシーン毎に変化させてA10神経系をダイナミックに活動させよう(何