GPT-4o × LangChain|理解して使うための徹底解説

Поділитися
Вставка
  • Опубліковано 15 лис 2024

КОМЕНТАРІ • 6

  • @TT-tg9yj
    @TT-tg9yj 5 місяців тому

    面白かったです。次の動画も楽しみにしています。

    • @mathbullet
      @mathbullet  5 місяців тому

      ありがとうございます!🙌

  • @hiroyukifuruta2725
    @hiroyukifuruta2725 5 місяців тому

    つまりLLMは多変数関数でできた近似関数ってことですね。既存のトークンから違和感の無い次のトークンを確率的に選択するだけの単純な仕組みなのに、使い方をいろいろ工夫すると記憶を持たせたり判断が出来たりと出力を指定出来たり、汎用性が非常に高いのが面白い。トークンに変換さえできれば何でも入出力できるので、まるで神経と脳のようですね

    • @mathbullet
      @mathbullet  5 місяців тому

      コメントありがとうございます!
      おっしゃる通り、巨大な近似関数ですね。
      ひとつ前の動画の後半で話したのですが、言語・視覚・聴覚を共有のニューラルネットワークで処理できるのは謎深いというか、脳の機構とまた別の学習をしている気がして面白いと思っています。

  • @takaborn
    @takaborn 5 місяців тому

    19:50 2023年頃?だったかなAIが教えていないペルシャ語か中東の言葉を知らない間に学習してただからAIには知性があるのかもしれないということが話題になってたそうですがもともとテキストが有れば勝手に学習する設計なんですね😊

    • @mathbullet
      @mathbullet  5 місяців тому +1

      素敵なアウトプットありがとうございます!少し近い話で、言語モデルに人工言語を学習させるなどのアプローチによって「LLMは言語知識を学習しているのか、パターンを認識しているだけか」を問う研究もあったりしていて、今後どういった議論になるかが気になりますね