КОМЕНТАРІ •

  • @underscoress
    @underscoress День тому +25

    youtube普段はほとんど倍速で観てるけど、このチャンネルのこのシリーズは等倍で観ても理解が追いつかなくなる

  • @MK_AGI
    @MK_AGI День тому +7

    素晴らしい、私も疑問に思っていた。

  • @ka-vb3we
    @ka-vb3we День тому +1

    待ってました!
    ありがとうございます!

  • @食用お味噌汁
    @食用お味噌汁 Годину тому

    神経回路を模倣した計算っていうアイデアは昔からあるけど、ようやく現実的に応用ができるレベルまで発展しましたね
    既存のアーキテクチャの計算資源で十分成果が出ているのでコンセプトとしては本当に正しいものだったと思います

  • @machida5114
    @machida5114 День тому +2

    非線形述語層が意味的知識を保持しているということですね。😎

    • @machida5114
      @machida5114 23 години тому

      非線形述語が意味的判断基準を獲得していると思われます。
      ここで、「意味」とは、行動(/発語)する論理的根拠、つまり 行動(/発語)因果力を指します。

  • @sibain_wuw
    @sibain_wuw День тому +2

    待ってました

  • @non-mtg
    @non-mtg День тому +3

    自分がこの分野を勉強した数年前よりもLLMの中身が分かってきてるの科学の進歩を感じられてとても良い
    活性化関数はGPT-3のレベルでもReLU使ってるんだ

    • @Mos-u4r
      @Mos-u4r 21 годину тому +2

      GPTシリーズはすべてGELUを使用していたと思います

  • @まさぽこP
    @まさぽこP День тому +2

    保存できる次元数が多いので、同じトークンでも周りのトークンによる影響を細かく学習できるってことかな。例えば、「村」ってことばでも現実世界なのか、日本の村なのか、海外の村なのか、異世界の村なのかって感じで影響に対するフラグや記憶次元を確保できる。だから人間の脳と同じように正確に推論ができると

  • @merdekaataumati1949
    @merdekaataumati1949 День тому +2

    17:10 ここからのジョンソン-リンデンシュトラウスのレンマの流れは、目からうろこだった。
    N次元空間では、N個の概念しか思考できないと思ってた。
    実際は、e^(ε N)もの概念を思考できるのか。

  • @徳川慶喜-u6o
    @徳川慶喜-u6o 14 годин тому

    使えてるけど説明できない部分があるのが驚きだった
    過去の麻酔のメカニズムのような

  • @ああ-k5z1r
    @ああ-k5z1r 52 хвилини тому

    コウメ太夫ってすごいんだなー

  • @MultiYUUHI
    @MultiYUUHI 9 годин тому

    全然分からなかった

  • @うぅろん茶
    @うぅろん茶 День тому

    数式がたくさんあって難しく感じるけど、はい〜いいえの質問を何万項目もしてるって考えれば分かった気になれそうな…

    • @goc-2611
      @goc-2611 21 годину тому +6

      分かった気になってるだけってことを頭に留めておいてね……(遠い目)