Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
◆動画のもくじ0:00 動画について0:43 動画のもくじ1:08 動画のはじめに1:52 長文処理の法則4:01 AIのウソ回避法6:44 分析能力向上術8:39 強化版思考の連鎖11:04 思考の連鎖の逆効果例13:40 エンディングムービー
わかったこと(自分の勉強用)・LLMは真ん中の情報を見落としやすい(ミドルロス)・精華大学が「LLMに長い文章を読み込ませる際に、文章内に含まれる情報の位置について」研究した・研究方法はLongPiBench(新)・情報がどこにあるか(絶対的)、どのぐらい離れているか(相対的)・GPT-4oやLlama 3.1 70B(Instruct)はあまりミドルロスしないが、重要な情報同士が離れるほどLLMモデルの性能が低下する・質問の配置は、先頭が良い・結論、重要な情報は先頭に配置すると良い、関連性の情報は密集させるべき
勉強になります、いつもありがとうございます!
AIは、優秀になってきているが、まだまだのところも多い。例えば、ある処理をするプログラムを作ってもらおうとしたら何度もエラーを繰り返しうまくできない。これは、どのAIでも同じだった。今後のバージョンアップに期待したい。
一周回ってプロンプトハックは興味深いです!
AI音声が不快ですね。
◆動画のもくじ
0:00 動画について
0:43 動画のもくじ
1:08 動画のはじめに
1:52 長文処理の法則
4:01 AIのウソ回避法
6:44 分析能力向上術
8:39 強化版思考の連鎖
11:04 思考の連鎖の逆効果例
13:40 エンディングムービー
わかったこと(自分の勉強用)
・LLMは真ん中の情報を見落としやすい(ミドルロス)
・精華大学が「LLMに長い文章を読み込ませる際に、文章内に含まれる情報の位置について」研究した
・研究方法はLongPiBench(新)
・情報がどこにあるか(絶対的)、どのぐらい離れているか(相対的)
・GPT-4oやLlama 3.1 70B(Instruct)はあまりミドルロスしないが、重要な情報同士が離れるほどLLMモデルの性能が低下する
・質問の配置は、先頭が良い
・結論、重要な情報は先頭に配置すると良い、関連性の情報は密集させるべき
勉強になります、いつもありがとうございます!
AIは、優秀になってきているが、まだまだのところも多い。
例えば、ある処理をするプログラムを作ってもらおうとしたら
何度もエラーを繰り返しうまくできない。これは、どのAIでも
同じだった。今後のバージョンアップに期待したい。
一周回ってプロンプトハックは興味深いです!
AI音声が不快ですね。