Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
「チャンネル登録してね」ってありとあらゆるyoutubeチャンネルで聞いてきたけど、この動画が一番オシャレに言ってると思う
このコメントがオシャレすぎて動画を最後まで見る気になった。
確かにです🤣
Japanをみてから、もとの動画みにいくと英語の勉強にもなる…素晴らしきかなこのチャンネル
どう?英語の勉強捗ってる?
とんでもねぇ複雑なもんをすげぇ簡単に教えて貰ってるのに、それでもすげぇ難しいからちゃんと理解するのはほんとに大変なんだろうなって思うましてや開発した人はバケモンやろ
5,6年前に深層学習の分野に携わっていたのですが、このチャンネルをその時に拝見したかったです。当時の私に届けることはできませんが、今の私はとても興味深く拝見させていただきました。
ニューロンのあの関数そういう考えで作られていたのか非常にわかりやすく作られていて助かる
めっちゃありがたり。ありがたすぎる、英語版見てる時からずっとこの音声付き日本語訳を待っていました、本当に嬉しい ありがとうございます
このチャンネルで東京大学が存在することに初めて感謝しました。有志の学生さんたち本当にありがとう!!
常々表現の巧さに感嘆させられていたが今回は加えてカリキュラムの巧さに感動を覚えた「ニューラルネットワーク」大きな言葉のブラックボックスに隠された原理をわかりやすく説明しながらその莫大で不可能とも思える計算量を解決する発想は過去の線形代数の動画にあったという理系学生全員にこの動画の面白さが伝わってほしいという強い情動に突き動かされる
何これ、マジで死ぬほどおもしろい。この動画の構成を考えた人は天才。
過去みてきたどの動画よりもわかりやすい。ずっとイメージしづらかったことがすっと入りました。ありがとうございます!!!
このチャンネル、中身も興味深いけど声とBGMがほんとに心地よくて好き
これ丁度知りたかったからめっちゃ助かる
俺も丁度この事を夢で考えてから目覚めたから助かる
俺は一年ほど前から知りたかったけど助かってる
ちょうど切らしてた
俺も大学院でニューラルネットワーク使ってるから助かる(マジで)
大学院でやってるのにこの動画で助かってるの修了できるか不安
Programing言語で数式を書けば数学に疎くても理解できる内容ではあるんですが、数式で脱落している人は多いでしょうね。あと、重みとは丸と丸をつなぐ線分のことなんですが、理解できてない人もいそうな気がします。実際0層目(入力)から1層目を出す式はこんなもので極めて簡単です。node // 動画上の◯weight // 動画上の線であり重みであり記憶node[1][0] = Sigmoid( bias + weight[0][0][0] * node[0][0] + weight[0][0][1] * node[0][1] + weight[0][0][2] * node[0][2] + ・・・ + weight[0][0][N] * node[0][N] )node[1][1] = Sigmoid( bias + weight[0][1][0] * node[0][0] + weight[0][1][1] * node[0][1] + weight[0][1][2] * node[0][2] + ・・・ + weight[0][1][N] * node[0][N] )・・・
オチがチャンネル登録への誘導になってるの感動した
めっちゃ良いタイミングで動画きた!!勉強しないといけなかったんで助かります
マジでこの世界ってすげぇなぁ。。。
大学でほぼこれと同じ数字認識のAI学習(OCR)を、jupyter上でコード書いて学習させて試すって一連の講義をうけたけど正直言われた通りやるだけで、間に何が起こってるかわからなかったわこれは非常にわかりやすい
わからない状態でもとりあえず手を動かすという学習方法は、生徒が受け身の姿勢だとうまくいかないからね自分から学ぼうという姿勢が生徒自身にないとうまくいかない
@@ano5041でもこの人は実際に興味を持ってここに来ているけど授業では分からなかったから教える側が悪いと思う
@@ussee-ussee-usseewa 「正直言われた通りやるだけで、間に何が起こってるかわからなかった」という経験が興味を持つきっかけになっている可能性もある
今まで見たニューラルネットワークの説明で一番わかりやすかったです。ありがとうございます
終わり方がメタすぎて面白い
このチャンネルの線形代数のChapter1でベクトルはコンピュータサイエンスの視点では数のリストであるって言ってたのがこういうことね。伏線が回収されたみたいで嬉しい
ちょうど今日の昼間にこれの英語版を字幕で観てたとこ! めっちゃタイムリー! 日本語版ありがたい!
これが日本語訳で観れるありがたさ……
これの日本語版見たかったから助かる
何が凄いって、ニューラルネットワークの仕組みが自然に人間の脳の中に作られたということだな。
学生時代に出会いたかった…!素晴らしい動画!
なめらかなシグモイドより閾があるReLUの方が上手くいくのちょっと意外性あって良い
やはり説明が良い。あと声がいい。
次回動画がめちゃ楽しみです、ありがとうございます!!
オライリーの本でがっつり勉強したけどこれ見てから取り掛かったらもっと理解早かっただろうな。まじで良い動画。
細かく丁寧な解説で分かりやすくてありがとう😊🎉
楽しみがひとつ増えた
ナレーションが心地よい
説明が美しい、いつも勉強になります
自分も独学で勉強してるのですがものすごくわかりやすいです
配信ありがとう👍
勉強していくと点と線が繋がって急に理解できることがあるけど、これはニューラルネットワークをイメージするとすごく納得いきました。そしてSigmoid関数ではなくてReLUの方が上手く行くのも、実際の脳の仕組みと近いからなんだろうなと感じました。
アニメが非常にシンプルで、非常に分かりやすい!GPUが売れるのも頷ける。
この動画、日本語化待ってました!!
プログラムに落とし込みたかったのでめちゃくちゃ勉強になりました。
最後のオチの説得力
待ってました!
深層学習はオライリーの書籍がすごくオススメ。実際にこの動画で扱っている手書き数字のデータセットを使ってモデル構築・予測するところまでTensorFlowを使って理論立てて実装できます!
TensorFlow 公式のチュートリアルで十分な気がするのだけど…そのほうが無料でできるし、Google Colabのノートブックも用意されていてコピーして容易に動かせたりする
手書き数字の分類や平均顔の話は、初めて論文読んだ時驚きましたねえ…
他の動画もだけど本当に分かりやすい
活性化関数が何をしているのか、よく分かりました。ありがとうございます。
これ気になってたので助かりました!
これはマジで助かる
なんてわかりやすさ、、、、、😮
線形代数のときもそうだけど、このチャンネル履修終わったあとに出るんだけどw一年生が羨ましい。
こんなにも高度な「チャンネル登録おねがいします」初めて見た
図形認識においては、ピクセル認識ではなく、ベクトル認識させる事は出来ない物か・・・そんな風に夢想する昨今でございます。
このシリーズやってほしかった!!
ほんと助かる
この丸にかかるケイセンの重みづけだったかなが学習理論かなって思ったの覚えてます。
任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる
ゼロつく1から4まで読んだら大分理解できるぞ
めちゃんこ面白い
しかしv (ヴイ)アルファベットν (ニュー)ギリシャ文字の見分けができる気がしない
これの逆ならなんとなく知ってたけどこっちのやつは初めてみましたでもいま解説するなら逆が知りたい気もする
Quote ´When your brain is smarter than yourself´
つまりはアキネイターの魔人がいっぱい居るようなものなのかな
計算とかめっちゃ苦手だけど、考えめっちゃ面白い
ここまでわかりやすいと、SIMDとか並列処理の話もしてほしくなりますね...
続きが気になりすぎる
次が待てない方はSONYがUA-camで出しているニューラルネットワークの動画がおすすめ
12:21誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました
ノーベル物理学賞にもなりましたね
ディープラーニングがより進化したら、ロボットじゃないこと証明するぐにゃぐにゃ文字入力意味なくなっちゃうよな
17:00 えらく単純化したなぁ。これでいいのか。
絶対に使う気がしない知識だけど、こういうのって知りたくなっちゃうよね
数年後は使ってるかもよ
まだ、東京大学のコンビニで暗記パンって売っているの?本郷校舎の前にある黄色い海鮮丼屋さんもあるのかな?おいしいよね。いつも楽しい動画をありがとう。
銀はち!!!
駒場キャンパス駅前のマックは残念ながらもう無いんですけどね…
自分が書いた3は、人に3と認識されないことがあります
動画一覧画面でスクロールすると、この動画のサムネだけ、スクロール止まった瞬間に動き出すように見える。なんかの錯視?
ReLUではアクティベーションを0〜1に押し込めないように思えるのですが問題ないのでしょうか?また、ReLUの方が計算コストが低そうですが、シグモイド関数よりも後に使われ始めたのはなぜでしょうか?
実際に ReLU を使ってみると精度がいいので問題がないことがわかると思う。シグモイド関数よりも後に使われ始めた理由は、単に思いつかなかっただけかな。過去の人達も「なんとなく、活性化関数は0〜1に押し込めたほうがいいと思うからシグモイド!」と思い込んでいたのかもね。その思い込みによって、無限に大きくなる可能性のある ReLU を思いつかなかったとかかも。
@@ano5041 ありがとうございます
シグモイド関数は滑らか! 微分できる。ReLUは滑らかじゃない! 微分できない! 場合分けがいる。= めんどい補足…ニューラルネットワーク(NN)は学習するごとに毎回ウエイト(バイアス含む)を変えます。そして誤差を少なくしていきます。次回のNNでは今回よりも誤差を少なくするために、ウエイトを大きくするか、小さくするか、の選択をしなければいけません。この選択肢は、誤差の傾きを見ることによって、決定できます。このとき微分が必要になります。
出力層では0~1に押し込んだほうが都合がいいので、出力層だけシグモイド関数を使ったりします。他にも-1~1に押し込むtanh関数もよく使われます。
次の人生ではこういうのがわかりたい
今何歳?
この方向性ではやはりドラえもんやアトムは生まれませんね。
研究室時代に出して欲しかった笑笑
30年以上前から研究開発されていたバックプロパゲーションだな、いつの間にかディープラーニングと呼び名が変わったが😪当時はハードウェアがショボくて処理速度が遅く、中間層1層だけの3層で、それでも画像処理なんかに応用した特注品を作ってた会社もいくつかあったが🤭ここ数年は処理速度も当時とは比較にならんほど上がり扱えるデータ量も飛躍的に増えて、中間層を増やしてもそこそこの時間で学習させられるようになり、応用実用の目途が立ってきたということだな、やれやれ😮💨しかし、どうやって入力に対する回答を導き出しているのかが分からん不気味さは無くならんし、突拍子もない頓珍漢な回答を出してくることもある、それは良いが有得そうで間違った答えを出されるのがかなわんな、例えば医療AIで間違った診断を出したりなど、まだまだ最終判断には(専門の)人間が必要だな😩
書き順を想像できるプログラムができたら簡単な話なのですがね
ニューラルネットワーク…昔、LONってあったよね
14:16 ここ b0...bn だとW*aの計算後に出る列と合わなくないですか?
kだね
オススメに出てくるようにチャンネル登録してねだってさ!キザだわ〜〜〜!!
チャンネル登録のくだりメタすぎて草
未来の教科書
35年ほど前にバックプロパゲーションが話題になりました。パーセプトロンが線形のパタン認識しかできなかったものが非線形でも認識できるようになりました。画像認識では、パタン認識以前の前処理が最も困難です。例えば数字認識でしたら、20桁の数字を1数字づつ分割するような処理です。明瞭な画像でしたら古典的なセグメンテーションで可能ですが、コントラストが悪く数字同士が接触しているような場合です。ディープラーニングは最適化手法の一種ですが、やはりGAの方が能力は上だと思います。特徴抽出をNNに行わせるのは邪道と考えます。画像認識研究歴45年、査読付原著論文250編を発行している科学者の戯言です。
やっぱり日本語訳あるとわかりやすい
11:08 難しくなってきた
MNISTだ!!!
二値分類の損失関数を二乗和誤差で解いてた二年前の自分に見せたいw
おもしろい
メモ 7:30
正直すごくまわりくどく説明してるように感じる。
英語を日本語に翻訳しているからではなかろうか
EDITが非常にSEXY
ニューラルネットワークについて勉強しようと思ったけど、冒頭でマウント取ってきて見るのやめた
oh😊
いいねーさいけう
待ってました!!
この動画によって、線形関数の線形結合で近似できるということが間違いだと理解した、ということ?
「チャンネル登録してね」ってありとあらゆるyoutubeチャンネルで聞いてきたけど、この動画が一番オシャレに言ってると思う
このコメントがオシャレすぎて動画を最後まで見る気になった。
確かにです🤣
Japanをみてから、もとの動画みにいくと
英語の勉強にもなる…素晴らしきかなこのチャンネル
どう?英語の勉強捗ってる?
とんでもねぇ複雑なもんをすげぇ簡単に教えて貰ってるのに、それでもすげぇ難しいからちゃんと理解するのはほんとに大変なんだろうなって思う
ましてや開発した人はバケモンやろ
5,6年前に深層学習の分野に携わっていたのですが、このチャンネルをその時に拝見したかったです。
当時の私に届けることはできませんが、今の私はとても興味深く拝見させていただきました。
ニューロンのあの関数そういう考えで作られていたのか
非常にわかりやすく作られていて助かる
めっちゃありがたり。ありがたすぎる、英語版見てる時からずっとこの音声付き日本語訳を待っていました、本当に嬉しい ありがとうございます
このチャンネルで東京大学が存在することに初めて感謝しました。有志の学生さんたち本当にありがとう!!
常々表現の巧さに感嘆させられていたが
今回は加えてカリキュラムの巧さに感動を覚えた
「ニューラルネットワーク」大きな言葉のブラックボックスに隠された原理をわかりやすく説明しながら
その莫大で不可能とも思える計算量を解決する発想は過去の線形代数の動画にあったという
理系学生全員にこの動画の面白さが伝わってほしいという強い情動に突き動かされる
何これ、マジで死ぬほどおもしろい。この動画の構成を考えた人は天才。
過去みてきたどの動画よりもわかりやすい。
ずっとイメージしづらかったことがすっと入りました。
ありがとうございます!!!
このチャンネル、中身も興味深いけど声とBGMがほんとに心地よくて好き
これ丁度知りたかったからめっちゃ助かる
俺も丁度この事を夢で考えてから目覚めたから助かる
俺は一年ほど前から知りたかったけど助かってる
ちょうど切らしてた
俺も大学院でニューラルネットワーク使ってるから助かる(マジで)
大学院でやってるのに
この動画で助かってるの
修了できるか不安
Programing言語で数式を書けば数学に疎くても理解できる内容ではあるんですが、
数式で脱落している人は多いでしょうね。
あと、重みとは丸と丸をつなぐ線分のことなんですが、理解できてない人もいそうな気がします。
実際0層目(入力)から1層目を出す式はこんなもので極めて簡単です。
node // 動画上の◯
weight // 動画上の線であり重みであり記憶
node[1][0] = Sigmoid( bias + weight[0][0][0] * node[0][0] + weight[0][0][1] * node[0][1] + weight[0][0][2] * node[0][2] + ・・・ + weight[0][0][N] * node[0][N] )
node[1][1] = Sigmoid( bias + weight[0][1][0] * node[0][0] + weight[0][1][1] * node[0][1] + weight[0][1][2] * node[0][2] + ・・・ + weight[0][1][N] * node[0][N] )
・
・
・
オチがチャンネル登録への誘導になってるの感動した
めっちゃ良いタイミングで動画きた!!
勉強しないといけなかったんで助かります
マジでこの世界ってすげぇなぁ。。。
大学でほぼこれと同じ数字認識のAI学習(OCR)を、jupyter上でコード書いて学習させて試すって一連の講義をうけたけど
正直言われた通りやるだけで、間に何が起こってるかわからなかったわ
これは非常にわかりやすい
わからない状態でもとりあえず手を動かすという学習方法は、生徒が受け身の姿勢だとうまくいかないからね
自分から学ぼうという姿勢が生徒自身にないとうまくいかない
@@ano5041でもこの人は実際に興味を持ってここに来ているけど授業では分からなかったから教える側が悪いと思う
@@ussee-ussee-usseewa 「正直言われた通りやるだけで、間に何が起こってるかわからなかった」という経験が興味を持つきっかけになっている可能性もある
今まで見たニューラルネットワークの説明で一番わかりやすかったです。ありがとうございます
終わり方がメタすぎて面白い
このチャンネルの線形代数のChapter1でベクトルはコンピュータサイエンスの視点では数のリストであるって言ってたのがこういうことね。伏線が回収されたみたいで嬉しい
ちょうど今日の昼間にこれの英語版を字幕で観てたとこ! めっちゃタイムリー! 日本語版ありがたい!
これが日本語訳で観れるありがたさ……
これの日本語版見たかったから助かる
何が凄いって、ニューラルネットワークの仕組みが自然に人間の脳の中に作られたということだな。
学生時代に出会いたかった…!
素晴らしい動画!
なめらかなシグモイドより閾があるReLUの方が上手くいくのちょっと意外性あって良い
やはり説明が良い。
あと声がいい。
次回動画がめちゃ楽しみです、ありがとうございます!!
オライリーの本でがっつり勉強したけどこれ見てから取り掛かったらもっと理解早かっただろうな。まじで良い動画。
細かく丁寧な解説で分かりやすくてありがとう😊🎉
楽しみがひとつ増えた
ナレーションが心地よい
説明が美しい、いつも勉強になります
自分も独学で勉強してるのですが
ものすごくわかりやすいです
配信ありがとう👍
勉強していくと点と線が繋がって急に理解できることがあるけど、これはニューラルネットワークをイメージするとすごく納得いきました。
そしてSigmoid関数ではなくてReLUの方が上手く行くのも、実際の脳の仕組みと近いからなんだろうなと感じました。
アニメが非常にシンプルで、非常に分かりやすい!
GPUが売れるのも頷ける。
この動画、日本語化待ってました!!
プログラムに落とし込みたかったのでめちゃくちゃ勉強になりました。
最後のオチの説得力
待ってました!
深層学習はオライリーの書籍がすごくオススメ。
実際にこの動画で扱っている手書き数字のデータセットを使ってモデル構築・予測するところまでTensorFlowを使って理論立てて実装できます!
TensorFlow 公式のチュートリアルで十分な気がするのだけど…
そのほうが無料でできるし、Google Colabのノートブックも用意されていてコピーして容易に動かせたりする
手書き数字の分類や平均顔の話は、初めて論文読んだ時驚きましたねえ…
他の動画もだけど本当に分かりやすい
活性化関数が何をしているのか、よく分かりました。ありがとうございます。
これ気になってたので助かりました!
これはマジで助かる
なんてわかりやすさ、、、、、😮
線形代数のときもそうだけど、
このチャンネル履修終わったあとに出るんだけどw
一年生が羨ましい。
こんなにも高度な「チャンネル登録おねがいします」初めて見た
図形認識においては、ピクセル認識ではなく、ベクトル認識させる事は出来ない物か・・・
そんな風に夢想する昨今でございます。
このシリーズやってほしかった!!
ほんと助かる
この丸にかかるケイセンの重みづけだったかなが学習理論かなって思ったの覚えてます。
任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる
ゼロつく1から4まで読んだら大分理解できるぞ
めちゃんこ面白い
しかし
v (ヴイ)アルファベット
ν (ニュー)ギリシャ文字
の見分けができる気がしない
これの逆ならなんとなく知ってたけどこっちのやつは初めてみました
でもいま解説するなら逆が知りたい気もする
Quote ´When your brain is smarter than yourself´
つまりはアキネイターの魔人がいっぱい居るようなものなのかな
計算とかめっちゃ苦手だけど、考えめっちゃ面白い
ここまでわかりやすいと、SIMDとか並列処理の話もしてほしくなりますね...
続きが気になりすぎる
次が待てない方はSONYがUA-camで出しているニューラルネットワークの動画がおすすめ
12:21
誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました
ノーベル物理学賞にもなりましたね
ディープラーニングがより進化したら、ロボットじゃないこと証明するぐにゃぐにゃ文字入力意味なくなっちゃうよな
17:00 えらく単純化したなぁ。これでいいのか。
絶対に使う気がしない知識だけど、こういうのって知りたくなっちゃうよね
数年後は使ってるかもよ
まだ、東京大学のコンビニで暗記パンって売っているの?本郷校舎の前にある黄色い海鮮丼屋さんもあるのかな?おいしいよね。いつも楽しい動画をありがとう。
銀はち!!!
駒場キャンパス駅前のマックは残念ながらもう無いんですけどね…
自分が書いた3は、人に3と認識されないことがあります
動画一覧画面でスクロールすると、この動画のサムネだけ、スクロール止まった瞬間に動き出すように見える。なんかの錯視?
ReLUではアクティベーションを0〜1に押し込めないように思えるのですが問題ないのでしょうか?
また、ReLUの方が計算コストが低そうですが、シグモイド関数よりも後に使われ始めたのはなぜでしょうか?
実際に ReLU を使ってみると精度がいいので問題がないことがわかると思う。
シグモイド関数よりも後に使われ始めた理由は、単に思いつかなかっただけかな。
過去の人達も「なんとなく、活性化関数は0〜1に押し込めたほうがいいと思うからシグモイド!」と思い込んでいたのかもね。
その思い込みによって、無限に大きくなる可能性のある ReLU を思いつかなかったとかかも。
@@ano5041 ありがとうございます
シグモイド関数は滑らか! 微分できる。
ReLUは滑らかじゃない! 微分できない! 場合分けがいる。= めんどい
補足…ニューラルネットワーク(NN)は学習するごとに毎回ウエイト(バイアス含む)を変えます。そして誤差を少なくしていきます。次回のNNでは今回よりも誤差を少なくするために、ウエイトを大きくするか、小さくするか、の選択をしなければいけません。この選択肢は、誤差の傾きを見ることによって、決定できます。このとき微分が必要になります。
出力層では0~1に押し込んだほうが都合がいいので、出力層だけシグモイド関数を使ったりします。他にも-1~1に押し込むtanh関数もよく使われます。
次の人生ではこういうのがわかりたい
今何歳?
この方向性ではやはりドラえもんやアトムは生まれませんね。
研究室時代に出して欲しかった笑笑
30年以上前から研究開発されていたバックプロパゲーションだな、いつの間にかディープラーニングと呼び名が変わったが😪
当時はハードウェアがショボくて処理速度が遅く、中間層1層だけの3層で、それでも画像処理なんかに応用した特注品を作ってた会社もいくつかあったが🤭
ここ数年は処理速度も当時とは比較にならんほど上がり扱えるデータ量も飛躍的に増えて、中間層を増やしてもそこそこの時間で学習させられるようになり、応用実用の目途が立ってきたということだな、やれやれ😮💨
しかし、どうやって入力に対する回答を導き出しているのかが分からん不気味さは無くならんし、突拍子もない頓珍漢な回答を出してくることもある、それは良いが有得そうで間違った答えを出されるのがかなわんな、例えば医療AIで間違った診断を出したりなど、まだまだ最終判断には(専門の)人間が必要だな😩
書き順を想像できるプログラムができたら簡単な話なのですがね
ニューラルネットワーク…
昔、LONってあったよね
14:16 ここ b0...bn だとW*aの計算後に出る列と合わなくないですか?
kだね
オススメに出てくるようにチャンネル登録してねだってさ!
キザだわ〜〜〜!!
チャンネル登録のくだりメタすぎて草
未来の教科書
35年ほど前にバックプロパゲーションが話題になりました。パーセプトロンが線形のパタン認識しかできなかったものが非線形でも認識できるようになりました。画像認識では、パタン認識以前の前処理が最も困難です。例えば数字認識でしたら、20桁の数字を1数字づつ分割するような処理です。明瞭な画像でしたら古典的なセグメンテーションで可能ですが、コントラストが悪く数字同士が接触しているような場合です。ディープラーニングは最適化手法の一種ですが、やはりGAの方が能力は上だと思います。特徴抽出をNNに行わせるのは邪道と考えます。画像認識研究歴45年、査読付原著論文250編を発行している科学者の戯言です。
やっぱり日本語訳あるとわかりやすい
11:08 難しくなってきた
MNISTだ!!!
二値分類の損失関数を二乗和誤差で解いてた二年前の自分に見せたいw
おもしろい
メモ 7:30
正直すごくまわりくどく説明してるように感じる。
英語を日本語に翻訳しているからではなかろうか
EDITが非常にSEXY
ニューラルネットワークについて勉強しようと思ったけど、冒頭でマウント取ってきて見るのやめた
oh😊
いいねーさいけう
待ってました!!
任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる
この動画によって、線形関数の線形結合で近似できるということが間違いだと理解した、ということ?