回帰分析のアウトプットでなぜ分散分析表が出てくるのか?理由とその必要性を解説します!

Поділитися
Вставка
  • Опубліковано 28 гру 2024

КОМЕНТАРІ • 20

  • @西嶌徹
    @西嶌徹 Рік тому +2

    ずっとモヤモヤしていたこの課題をクリアに説明いただき、たいへん参考になりました。ありがとうございました。

  • @hisaporon9418
    @hisaporon9418 2 роки тому +4

    やっぱり神チャンネルで神

  • @まっちゃ-i4i
    @まっちゃ-i4i 2 роки тому +2

    ありがとうございます。回帰分析での分散分析表の解説のあるものがなかなかないので、非常に参考になりました。

  • @Massivehonorrrrrrrrr
    @Massivehonorrrrrrrrr 2 роки тому +1

    とても分かりやすいです!
    ありがとうございます!

  • @kyofull629
    @kyofull629 2 роки тому +2

    本当分かりやすい!

  • @aj81_81
    @aj81_81 Рік тому +1

    8:01 メモ
    それぞれの式を二乗した場合、一つ一つの式は成り立たないこともあるが、合計したものは684=•••のように成り立つんですね。
    平方和の分解の動画で分散分析の方はわかったのですが、なぜこちらも成り立つのですか?

    • @DataScienceLab.
      @DataScienceLab.  Рік тому +1

      最小二乗法で求めた予測モデルによる予測値と残差がは無相関になるためです。

  • @ええいああ-u4e
    @ええいああ-u4e Рік тому +1

    丁寧な動画、ありがとうございます。ご質問させていただきたいのですが、9:03の辺りで、そもそもこのように計算した分散比がF分布に従うのは何故でしょうか。SRとSEがともにカイ2乗分布に従う、ということなのでしょうが、具体的にイメージできません...。

    • @DataScienceLab.
      @DataScienceLab.  Рік тому +1

      回帰に意味がない場合は、E[回帰の平均平方]=E[残差の平均平方]となるので、等分散の検定(F検定)によって回帰に意味があるかどうかを統計的に判断できます。
      こちらの動画が参考になるかと思います。
      よろしければチェックしてみてください。
      ua-cam.com/video/UH2W8usbniA/v-deo.html

    • @ええいああ-u4e
      @ええいああ-u4e Рік тому +1

      @@DataScienceLab.
      早速ありがとうございます!
      ご案内いただいた動画を拝見し、もう一度考えてみます。

  • @ph4746
    @ph4746 2 роки тому +3

    ここでのF値って機械学習の分類モデルの評価指標として出てくるのはF値(適合率と再現率の調和平均)とは別物ですかね?

    • @DataScienceLab.
      @DataScienceLab.  2 роки тому +2

      別物です。
      同じ名前なのでややこしいですよね(>-

  • @saorin8321
    @saorin8321 11 місяців тому +1

    いつも大変わかりやすい動画、ありがとうございます!
    エクセルで計算すると、分散分析表の下にある表(動画50秒付近)のt検定の表が出てくるのが疑問すぎて……。仕事で使った時にこの95%信頼区間の値も使ったのですが、t検定で求めているのですか???
    今回の動画では分散分析表の解説のみでしたが、他の動画にt検定の表の解説はありますでしょうか?

    • @DataScienceLab.
      @DataScienceLab.  10 місяців тому

      95%信頼区間は、母分散が未知の場合の区間推定です。
      ▼母平均の区間推定(母分散未知)。未知なら推定して置き換える!
      ua-cam.com/video/bACA8FqP8y8/v-deo.html
      回帰係数の検定についての動画は以下です。
      ▼その説明変数をモデルに組み込むことに意味があるか?回帰係数の検定の必要性と方法。
      ua-cam.com/video/o6Hw9GY_nak/v-deo.html

    • @saorin8321
      @saorin8321 10 місяців тому +1

      @@DataScienceLab.ありがとうございます😭

  • @nikkori-j1k
    @nikkori-j1k 2 роки тому +3

    分かりやすい動画で、大変勉強になったのですが、「説明変数の数が増えると、残差が小さくなり、残差の自由度が小さくなる」がよくわからなかったです。

    • @DataScienceLab.
      @DataScienceLab.  2 роки тому +6

      コメントありがとうございます(^-^)
      『説明変数の数が増えると残差が小さくなる』のは、説明変数を増やすと回帰モデルが自由に動ける次元が広がるので、残差平方和が小さくなる回帰モデルをみつけやすくなるからです。
      ↓この動画の1:22-4:03で解説していますので、よろしければ参考にしてください。
      ua-cam.com/video/XP7sUfyILdk/v-deo.html
      『説明変数の数が増えると残差の自由度が小さくなる』のは、(全体の自由度)=(回帰の自由度)+(残差の自由度)であり、回帰の自由度は上述の理由で説明変数の数が増えると大きくなるので、結果として、説明変数の数が増えると残差の自由度が小さくなるということです。