【AIがちょっとわかる】AIの中身、超ざっくり解説してみた

Поділитися
Вставка
  • Опубліковано 27 січ 2025

КОМЕНТАРІ • 59

  • @まさし-f2p
    @まさし-f2p 5 місяців тому +18

    リチャードさん大好き!!
    いつもこっちが知らない知識をありがとう!!!!

  • @mn2907
    @mn2907 5 місяців тому +14

    新しい時代の入り口の第一歩を踏み込んだような感じがしてワクワクしますね。

  • @ちさねこ-0
    @ちさねこ-0 4 місяці тому +3

    なるほどー!わかった気分になるのが大切!

  • @FIRE-lp8fl
    @FIRE-lp8fl 4 місяці тому +2

    100回動画を見返しても
    理解できない自信だけは付きました
    ありがとうございました

  • @shrimp8383
    @shrimp8383 5 місяців тому +9

    優しい話し方🫰🏻

  • @beruo1
    @beruo1 5 місяців тому +2

    たいへんわかりやすい解説で感心しました。なんとなーくわかった気でいましたが、ちゃんと説明しろと言われるとなかなか、という感じだったので。

  • @ririco26
    @ririco26 5 місяців тому +9

    やった!最新のリチャードや!

  • @Kai-gg9jv
    @Kai-gg9jv 5 місяців тому +15

    ざっくりでも難しい...

  • @SONSHIHEIHO
    @SONSHIHEIHO 5 місяців тому +7

    もう脳じゃん!😂
    はやく外付けしたい!

  • @おじいちゃん-z5h
    @おじいちゃん-z5h 5 місяців тому +26

    いつか、亡くなっても脳だけいかされてこれから先の未来もみたいな、

    • @マット0
      @マット0 5 місяців тому +2

      眼球など感覚器官は取り除かれAIとして計算し続けるんやで
      アニメ「PSYCHOPATH」のシビュラシステムみたいになるんやで

    • @nyanco-sensei
      @nyanco-sensei 5 місяців тому +1

      意識を脳とは別のところに移した時点で、それはもう自分とは別物じゃね。
      電脳科の不老不死も、結局元の俺は死んどるやんっていう

    • @トモ-d5o
      @トモ-d5o 5 місяців тому

      @@nyanco-sensei
      わかるんだけど何もせずに死ぬより良くない??

    • @nyanco-sensei
      @nyanco-sensei 4 місяці тому

      @@トモ-d5o だから自分の遺伝子を持った子孫を残すんやろ…?
      人類君、何がしたいんやw

    • @川口けいとの妹
      @川口けいとの妹 4 місяці тому

      @@nyanco-sensei話の趣旨から逸れていますよ😂

  • @nyanco-sensei
    @nyanco-sensei 5 місяців тому +2

    宇宙人「仮想世界にニューラルネットワーク生物作ったら、なんか別のニューラルネットワーク作ってて草。これにもそのうち意識が目覚めるんとちゃう?」

  • @なつまる-r1k
    @なつまる-r1k 5 місяців тому +3

    猫かわいい

  • @渡部正-o2l
    @渡部正-o2l 3 місяці тому

    青汁のコマーシャルと同じやり方で面白かった

  • @gazer4729
    @gazer4729 5 місяців тому

    AI完全に理解した

  • @firefight100
    @firefight100 5 місяців тому +1

    ニューロンのしくみを参考にしていることはわかったけど、それがなぜ認識力や知性らしきものになるのかがわからん...

  • @柳澤沙織-q1j
    @柳澤沙織-q1j 4 місяці тому

    人間の脳もAIもすごい仕組み!よくわからないけど。人間の感情の脳の動きを真似するプログラムもそのうちできるのかな

  • @hiroyasoccer030664
    @hiroyasoccer030664 4 місяці тому

    さすがはリチャードさん。
    重み行列wや、誤差逆伝播法、最小二乗法なんかを上手く分かりやすいように言い換えて説明されてますね!
    私なんか、説明下手なんである程度単語の説明を入れますが、あるがまま話してしまうので今回の動画参考になりました! 🎉

  • @他人に罪を擦り付けるジョーダン

    わかんないけど凄いことだけは分かった

  • @EikichiGames
    @EikichiGames 4 місяці тому

    Intelligence説明の時にちょっと使ってみよう

  • @デューク西郷-s1r
    @デューク西郷-s1r 4 місяці тому

    すごいと思うけど、まだ力技なんですね。そう考えるとわずかなカロリーで動く生物の脳ってすごいな。

  • @JP.SolitaryJourne
    @JP.SolitaryJourne 5 місяців тому

    単純な原理を組み合わせ複雑な構造にすることで、高度な処理ができる。
     単純な知育玩具を繰り返し遊ぶことで、ちょっと複雑な判断もできるようになる。
      生き物やん😁

  • @たーぼう-h9b
    @たーぼう-h9b 4 місяці тому

    さぁ…AI が人類を制圧する時が来るぞ…ワクワク…

  • @れろらりる-u4p
    @れろらりる-u4p 5 місяців тому

    ChatGPTはトランスフォーマー型よね

  • @cat_fish
    @cat_fish 5 місяців тому +1

    面白い^_^

  • @ろじゃーていらー
    @ろじゃーていらー 4 місяці тому

    動画編集するのによいパソコンを教えて欲しいです

  • @sulong3586
    @sulong3586 5 місяців тому +1

    こういうのみるとAIの原理的にAIバブルってありえないと思える。ITバブルみたいにインターネットの爆発的普及に伴って市場が沈静化する段階はあっても、インターネット自体が消し飛んだりはしない。泡は弾けても空気は消えないみたいに

  • @もちもちおじさん-u9w
    @もちもちおじさん-u9w 5 місяців тому +1

    はっ、充電されていたネコチヤン

  • @satoge626
    @satoge626 5 місяців тому +4

    なんとなくわかったようなわからんような・・・

    • @AA-lz7iv
      @AA-lz7iv 5 місяців тому

      なぜ1層だけではダメで何層も必要なのかという1番根幹の部分の説明がないから子供騙しだよ😅

    • @mdd-ni2dr
      @mdd-ni2dr 5 місяців тому +3

      ⁠@@AA-lz7ivいやそもそもそんなちゃんと数学的に説明しても、視聴者の方が分かるはずないので、動画内の説明はNNの雰囲気を掴むには十分なはずです。あと、多層NNにする事自体が根幹ではなくて、多層にするかつ非線形写像を行う事で、複雑な非線形識別境界を作れる事がNNの根幹な気がしますが、いかがでしょうか?

    • @AA-lz7iv
      @AA-lz7iv 4 місяці тому

      @@mdd-ni2dr 誰も数学的に説明しろとは言ってないけど、日本語大丈夫?w
      それこそ非線形写像は本質的な論点ではないからw1層の非線形写像でNNのような自由度の高いモデルが得られるんですかって話。作ろうと思えば線型写像でも多層にすればそれなりのモデルは作れるわけでNNの本質は多層構造にあるから。多層の説明しないんだったらそれはAIではなく既存の回帰モデルを説明してるに過ぎないわけで視聴者的にはAI??って感じだと思うよ。

    • @山田太郎-s4r
      @山田太郎-s4r 4 місяці тому

      ​@@mdd-ni2dr写像ってなんですか?

    • @clockwise787
      @clockwise787 4 місяці тому +1

      簡単な説明は往々にして不正確、正確さと分かりやすさはほとんどの場合トレードオフなんだよ
      あと非線形関数挟まないと多層にしても多分意味ないぞ
      MLPは1層の行列に等価交換できるし、Convolutionも多層にすると受容野広がるけど最初からそのサイズのカーネルを使えば同じ結果が得られると思う
      ただこれは理論上の話で、実際は学習って難しいので一部線形的に多層にしても若干意味あったりする (XceptionNetとか)

  • @inopp1971
    @inopp1971 5 місяців тому

    リチャードがオレのAI!笑

  • @naiwanaidaroG
    @naiwanaidaroG 5 місяців тому +1

    複数無数のAIをリンクさせてコンピューター・ネットのだけの国を作れそうですね
    労働力ゼロでGDP最高とか・・

  • @珀美咲
    @珀美咲 5 місяців тому

    そもそも画像を数字にする時点で凄いと思う
    優しく説明してくれてるけど深くしろうとすればするほど難しい
    まず画像を数字にする仕組みが分からない
    画像を数字にしたとして全てのコンピューターがその数字を猫ですって認識どんどんさせて行くのも凄いと思う
    意味が分からない
    例えば言語が異なる人間達が初めて見る生物を同じく認識するために共通認識するだけでも難しいのにさ
    新種とかまさにそうでしょ

  • @II-ot6gm
    @II-ot6gm 5 місяців тому +1

    いいね押したいのに今444でキリがいいから押せない

  • @takapii3
    @takapii3 5 місяців тому +2

    いつも出だし何言ってんのかワカンナイんだけど私だけ?w

    • @takapii3
      @takapii3 5 місяців тому

      「いぇーい!◯☓◯☓◯☓◯☓◯☓リチャードです」wwww

    • @takapii3
      @takapii3 5 місяців тому

      教えて頼むからwwww

    • @vincentcd318
      @vincentcd318 5 місяців тому +1

      @@takapii3 たぶん
      『Eyyy,Richard for Gizmodo here!どうも。リチャードです。』だと思います。(もはや自分には聞き取れないですが。)
      リチャードさんのファンですが、自分も分からなかった(気にしてなかった)ので古い動画見返したらキャプションついているのがありました。

    • @takapii3
      @takapii3 5 місяців тому

      「古い動画見返したらキャプションついているのがあった」→ありがとうございます!

  • @sammytype
    @sammytype 3 місяці тому

    宇宙の構造って脳の構造にそっくり。
    ってことはこの世界は誰かの脳の中!?

  • @てんあまアルファポリス
    @てんあまアルファポリス 5 місяців тому

    自分の意識が電子化されても物理的な脳は生きてるわけで、二人になるだけだから怖い

  • @フラッド-u7c
    @フラッド-u7c 7 днів тому

    EyyyyyyAyyyyyy

  • @mikeneko6928
    @mikeneko6928 5 місяців тому +1

    最初何て言ってるんだ?

  • @yu-gr7ko
    @yu-gr7ko 4 місяці тому

    そういや2年くらい前に、AIをローカルで使えるAIPC作ってみたら?ってオレ言ったわ。。どう?使い道ありそう?

    • @yu-gr7ko
      @yu-gr7ko 4 місяці тому

      ニューラルネットワークって増殖するの?
      ネコ画像→
      ・カワイイ
      ・モフモフ
      ・耳がピン!
      でも、コレだけだとネコって判断できないから、画像を見たAIが受け取る印象の複雑さは増すことが出来ないと、サンマを見ても売れない芸人見ても印象が同じになってしまいそう。

    • @yu-gr7ko
      @yu-gr7ko 4 місяці тому

      でも、仮に元画像がネコを表して居るとしても、コンピュータには0と1の羅列にしか見えない訳で、じゃあ、モフモフ感を表す画像を10000回くらい見せて、まずはモフモフを表す0と1の羅列にある特徴を見出す必要があるな。
      それって、オレ適任だわ。。化学実験と似てる。膨大な結果データから傾向を見出す・・みたいな。。

    • @yu-gr7ko
      @yu-gr7ko 4 місяці тому

      ただ、それって、結果データの域を出ないから、ネコを見せても、毛布を見せてもモフモフって答える。
      例えば、ネコとイヌの区別が可能になったり、三毛猫とサーバルキャットの区別が可能になるのは高等教育か。。
      自動車教習所でよく見る、忍者に見える人影みたいなモノを見せたら、AIには、何と答えたら正解だと教えるの?
      ああ、それを残像と教えるか人影だと教えるかは教育者次第なのか。。
      じゃあ、教育者の素質が出るな。。カエルの子はカエル。教育者がカエルだったら子供(AI)もカエルだわ。。

    • @yu-gr7ko
      @yu-gr7ko 4 місяці тому

      ニューラルネットワークとその生成ロジックって、C#とかJavaとかで書いて居るの?

    • @yu-gr7ko
      @yu-gr7ko 4 місяці тому

      ニューラルネットワーク内を飛んでるシナプス(01羅列パターン)を全部データベースに保存するんだろうな。AIは一度覚えた事は忘れない。ただ、追加の情報で補正して結果の修正は可能・・・みたいな。。AIも間違えたら反省するんだろう。

  • @Bismuth-Crystal
    @Bismuth-Crystal 4 місяці тому

    自然言語処理が全然わからない