Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
指数関数的進展が起きないという根拠として問題も指数関数的に複雑化し高度になるからというのは理屈が通っていません。指数関数的に高度化する問題をリニアな、つまり多項式時間で解き続けることを指数関数的進歩というのですから。指数関数的に解決困難になる問題があるとしましょう。それに対して問題解決能力がリニアにしか発展しなければその解決は多項式時間つまり現実的な時間では不可能になりますが、問題解決能力が指数関数的に進歩すれば、それに要する時間は線形的にしか増えないことになります。指数関数的に複雑化する問題を解くために指数関数的に多くの計算資源が必要になる問題をフランシス・ショレーは指摘しているようですが、チップの演算回数当たりの価格は一貫して指数関数的に低下していて、結果として価格当たりの演算能力は指数関数的に上昇しています。このことによって問題の指数関数的複雑化は、線形的な費用に収まることになります。初期のスーパーコンピュータであるエニアックは現在の価格で10億円で作られましたが、その性能は5000フロップスに過ぎませんでした。現代の最新のスーパーコンピュータはエニアックの数京倍の性能を持っていますが価格は数十倍にしかなっていません。フランシス・ショレーはコンピュータはプログラムに従っているだけだから真の理解をしていないとどこまでも主張し続けると思います。しかし、それはo3のようなAIがすでに存在する世界では意味がありません。ショレーは人間の方が数学の本質を理解していると言いたいのでしょうが、正解できないのに理解しているという言い方は矛盾していると思います。数学については正解している者がより深く理解しているのであって、正答できなければ浅い理解しかしていないという事実を覆すことは不可能です。もし、o4やo5が大方の専門家よりも優れた数学的能力を示すようになったら、ショレーのような人物は数学に正答するAIはプログラムにしたがっているだけだから数学の本質を理解しておらず、正答できない専門家の方がプログラムに従っていないから数学本質をとらえているという意味のないことを主張すると思います。しかもこの主張は人間のニューロンも脳神経もプログラムにしたがっているだけだということを忘れています。ショレーの論法だと数学の問題に正答できない者が正答できる者よりも数学を理解しているというわけの分からない主張をしていることになるのです。
素晴らしい指摘。人間中心主義で理解の定義を考えているから間違えるだと思う。つまり、理解できるのが人間しかいないという傲慢な前提に立っている。
難癖つける人間は結果が何であれ難癖つけます。ひたすら事実を突きつけることを続けるだけです。
コストがどうだというのは時が解決するのがセオリーなのに愚問かなとどうせなら別の角度から攻めて欲しいですね。
o1の文章が凄いという話の数々が今Xで回っています実際自分も4oとは比較できないくらいクオリティが高いと思う文章が好まれないというのはpreviewの話であって、それでも下手というより好まれないという話であって、実際o1の文章能力は極めて高いと思う逆に4oの方が勝っているところを見つけられない
分かる、o1はなんか凄い頭いい人と喋ってるみたいな感覚に陥る最初は微妙だなって思ってたけど、「深く考えて答えてください」ってプロンプトを挿入しただけでマジでめちゃくちゃ頭良くなった
Intelligenceについて、古来からの論議が今も混乱したまま進んでいる気がしてならないですが、どうなのでしょうか? ラテン語ではintelligentiaとintellectusとの区別で、前者は知的様態、後者は知的能力(またそれを有する存在者)を表現したと思います。これを前提にアリストテレスの『霊魂論De Anima』の解釈からカトリック神学とアラビア神学との議論が生じ、アヴェロエスが「知性単一説」を示したのに対して、トマスは「個霊の救済」の立場から、普遍的な単一の知性に対する個的な個々人の知性の存在保守を説きました。 このアヴェロエス的観点がブラフマン‐アートマン・モデルと言ってもよいと思っていますが、結局、これは現実の人間知性(様態)の表象と思います。一人の人間が人類の叡智を保持できるわけもなく、集合集積知は、人類のコミュニケーションネットワークで構築され、メディアがその作用と情報保持を担ってきたと思います。 人類の多数の脳による並列情報処理は、充分処理速度も速く、記録・保存メディアも、情報量を充分保持してきたと思います。 ここに「人工的に知的様態」を表す「機械―道具」が開発され、AI人工知能と言われて、それが示す知的能力から、実態的存在者の様に、人間の意識がpersonificationして眺め出したのが、現在なのではないかという気がしてなりません。以前にもサムアルトマンがブラフマンの様な、という表象を用いたとしましたが、古来から続く知的作用の様態を人類全体で、あるいは少なくとも地球上全体で眺めた時の表象に思います。H.モラベクも同様の様態を、Mind Childrenと表現していました。 こうした観方からは、「知能爆発」は、これまでの集合集積知を構築するコミュニケーションネットワークが、拡張することであるというのが、一番、理解しやすく思えてなりません。要は、このサロンの先生方も2023年OpenAI Devdayで相互エージェント化する特化型AIがネットワーク上で作用する様になる事態、つまりは「何にでもなれるAI」が学習して専門家になり、それが社会的相互エージェントになることが、AGIの到来であるとされた、そこに正しい理解があるように思えてなりません。
四則演算が解けるだけで電子頭脳といっていたので、Arc bench の様な高度な数学が解ける事が、人間を越える基準に最初からなってないと思います。四則演算でも既に越えてますから。結局、人間の様なものを作りたいのかどうか、にどんな意味があるのか、という所には戻るのでしょう。この辺はカーツワイルも同様に見えます。
ARC-AGIベンチはIQテストのようなパズルですね。高度な数学のベンチマークはEpoch AI ResearchのFrontier Mathです。
寿命脱出速度に達したら、老後資金ならぬ、永久資金が必要になると思い、新nisa満額1800万を早く埋めようと思いました。sp500は過去20年で年利10%のパフォーマンスを出しています。満額1800万円を100年寝かせた場合2480億円になります。不老不死とインデックス投資は相性良いと思いました。アインシュタインの言葉通り複利は恐ろしいです。
僕はASIがナノマシンを無線でコントロールして何でも作り出すようになって物が只になると思うので現在の貧乏は気にしてません。
リニアであることを証明するためにAGIが無能であることを証明する方向性はちょっと筋が悪そうですね。解決すべき問題が急速に複雑化するということを証明したほうがよさそうです。ヴィルトの法則、ペイジの法則、ゲイツの法則、メイの法則と言われるものは「ソフトウェアはハードウェアが高速化するより急速に低速化する」というやつですが、あれらを思い出しました。
ショレさん(フランソワ・ショレさん?)は深層学習モデルを簡単に構築・実行できるPythonライブラリkerasの開発者としても著名な方と思っています。
昔シンギュラリティの説明で言われていた知能爆発「自己改良が加速度的に進み、数分~数時間で人類を置き去りにする」は、起こらないと思いますね。数か月かかる学習時間がネックになり、ハードウェアの制約も大きいと思われます。(もちろん現在のアーキテクチャと全く異なるプログラムが登場して、爆発的な自己改良が起きる可能性はありますが)しかし、短時間での”爆発”は無いとしても、AGIもASIも時間の問題だと思います。
白黒つかない問題が気になります。(過激ですが)数学なんかどうでもいいです。先日のサロンライブでAGIの定義の話でポロッと出たのですが、「人間に寄り添うのがAGI、寄り添わないのがASI」と私のゴールポストを変更します。近い未来、AGIが人間のためにASIと戦う、映画にあったような世界になるかも。
指数関数的進展が起きないという根拠として問題も指数関数的に複雑化し高度になるからというのは理屈が通っていません。
指数関数的に高度化する問題をリニアな、つまり多項式時間で解き続けることを指数関数的進歩というのですから。
指数関数的に解決困難になる問題があるとしましょう。
それに対して問題解決能力がリニアにしか発展しなければその解決は多項式時間つまり現実的な時間では不可能になりますが、問題解決能力が指数関数的に進歩すれば、それに要する時間は線形的にしか増えないことになります。
指数関数的に複雑化する問題を解くために指数関数的に多くの計算資源が必要になる問題をフランシス・ショレーは指摘しているようですが、チップの演算回数当たりの価格は一貫して指数関数的に低下していて、結果として価格当たりの演算能力は指数関数的に上昇しています。
このことによって問題の指数関数的複雑化は、線形的な費用に収まることになります。
初期のスーパーコンピュータであるエニアックは現在の価格で10億円で作られましたが、その性能は5000フロップスに過ぎませんでした。
現代の最新のスーパーコンピュータはエニアックの数京倍の性能を持っていますが価格は数十倍にしかなっていません。
フランシス・ショレーはコンピュータはプログラムに従っているだけだから真の理解をしていないとどこまでも主張し続けると思います。
しかし、それはo3のようなAIがすでに存在する世界では意味がありません。
ショレーは人間の方が数学の本質を理解していると言いたいのでしょうが、正解できないのに理解しているという言い方は矛盾していると思います。
数学については正解している者がより深く理解しているのであって、正答できなければ浅い理解しかしていないという事実を覆すことは不可能です。
もし、o4やo5が大方の専門家よりも優れた数学的能力を示すようになったら、ショレーのような人物は数学に正答するAIはプログラムにしたがっているだけだから数学の本質を理解しておらず、正答できない専門家の方がプログラムに従っていないから数学本質をとらえているという意味のないことを主張すると思います。
しかもこの主張は人間のニューロンも脳神経もプログラムにしたがっているだけだということを忘れています。
ショレーの論法だと数学の問題に正答できない者が正答できる者よりも数学を理解しているというわけの分からない主張をしていることになるのです。
素晴らしい指摘。人間中心主義で理解の定義を考えているから間違えるだと思う。つまり、理解できるのが人間しかいないという傲慢な前提に立っている。
難癖つける人間は結果が何であれ難癖つけます。ひたすら事実を突きつけることを続けるだけです。
コストがどうだというのは時が解決するのがセオリーなのに愚問かなと
どうせなら別の角度から攻めて欲しいですね。
o1の文章が凄いという話の数々が今Xで回っています
実際自分も4oとは比較できないくらいクオリティが高いと思う
文章が好まれないというのはpreviewの話であって、
それでも下手というより好まれないという話であって、
実際o1の文章能力は極めて高いと思う
逆に4oの方が勝っているところを見つけられない
分かる、o1はなんか凄い頭いい人と喋ってるみたいな感覚に陥る
最初は微妙だなって思ってたけど、「深く考えて答えてください」ってプロンプトを挿入しただけでマジでめちゃくちゃ頭良くなった
Intelligenceについて、古来からの論議が今も混乱したまま進んでいる気がしてならないですが、どうなのでしょうか?
ラテン語ではintelligentiaとintellectusとの区別で、前者は知的様態、後者は知的能力(またそれを有する存在者)を表現したと思います。これを前提にアリストテレスの『霊魂論De Anima』の解釈からカトリック神学とアラビア神学との議論が生じ、アヴェロエスが「知性単一説」を示したのに対して、トマスは「個霊の救済」の立場から、普遍的な単一の知性に対する個的な個々人の知性の存在保守を説きました。
このアヴェロエス的観点がブラフマン‐アートマン・モデルと言ってもよいと思っていますが、結局、これは現実の人間知性(様態)の表象と思います。一人の人間が人類の叡智を保持できるわけもなく、集合集積知は、人類のコミュニケーションネットワークで構築され、メディアがその作用と情報保持を担ってきたと思います。
人類の多数の脳による並列情報処理は、充分処理速度も速く、記録・保存メディアも、情報量を充分保持してきたと思います。
ここに「人工的に知的様態」を表す「機械―道具」が開発され、AI人工知能と言われて、それが示す知的能力から、実態的存在者の様に、人間の意識がpersonificationして眺め出したのが、現在なのではないかという気がしてなりません。以前にもサムアルトマンがブラフマンの様な、という表象を用いたとしましたが、古来から続く知的作用の様態を人類全体で、あるいは少なくとも地球上全体で眺めた時の表象に思います。H.モラベクも同様の様態を、Mind Childrenと表現していました。
こうした観方からは、「知能爆発」は、これまでの集合集積知を構築するコミュニケーションネットワークが、拡張することであるというのが、一番、理解しやすく思えてなりません。要は、このサロンの先生方も2023年OpenAI Devdayで相互エージェント化する特化型AIがネットワーク上で作用する様になる事態、つまりは「何にでもなれるAI」が学習して専門家になり、それが社会的相互エージェントになることが、AGIの到来であるとされた、そこに正しい理解があるように思えてなりません。
四則演算が解けるだけで電子頭脳といっていたので、Arc bench の様な高度な数学が解ける事が、人間を越える基準に最初からなってないと思います。四則演算でも既に越えてますから。結局、人間の様なものを作りたいのかどうか、にどんな意味があるのか、という所には戻るのでしょう。この辺はカーツワイルも同様に見えます。
ARC-AGIベンチはIQテストのようなパズルですね。高度な数学のベンチマークはEpoch AI ResearchのFrontier Mathです。
寿命脱出速度に達したら、老後資金ならぬ、永久資金が必要になると思い、新nisa満額1800万を早く埋めようと思いました。sp500は過去20年で年利10%のパフォーマンスを出しています。満額1800万円を100年寝かせた場合2480億円になります。
不老不死とインデックス投資は相性良いと思いました。
アインシュタインの言葉通り複利は恐ろしいです。
僕はASIがナノマシンを無線でコントロールして何でも作り出すようになって物が只になると思うので現在の貧乏は気にしてません。
リニアであることを証明するためにAGIが無能であることを証明する方向性はちょっと筋が悪そうですね。
解決すべき問題が急速に複雑化するということを証明したほうがよさそうです。
ヴィルトの法則、ペイジの法則、ゲイツの法則、メイの法則と言われるものは「ソフトウェアはハードウェアが高速化するより急速に低速化する」というやつですが、あれらを思い出しました。
ショレさん(フランソワ・ショレさん?)は深層学習モデルを簡単に構築・実行できるPythonライブラリkerasの開発者としても著名な方と思っています。
昔シンギュラリティの説明で言われていた知能爆発「自己改良が加速度的に進み、数分~数時間で人類を置き去りにする」は、起こらないと思いますね。
数か月かかる学習時間がネックになり、ハードウェアの制約も大きいと思われます。
(もちろん現在のアーキテクチャと全く異なるプログラムが登場して、爆発的な自己改良が起きる可能性はありますが)
しかし、短時間での”爆発”は無いとしても、AGIもASIも時間の問題だと思います。
白黒つかない問題が気になります。(過激ですが)数学なんかどうでもいいです。先日のサロンライブでAGIの定義の話でポロッと出たのですが、「人間に寄り添うのがAGI、寄り添わないのがASI」と私のゴールポストを変更します。近い未来、AGIが人間のためにASIと戦う、映画にあったような世界になるかも。