“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”

Поділитися
Вставка
  • Опубліковано 10 гру 2024

КОМЕНТАРІ • 39

  • @张艺城-g4i
    @张艺城-g4i 9 місяців тому +7

    说得太好了,把最自然的思路用准确通俗的语言展现出来❤

  • @张艺城-g4i
    @张艺城-g4i 9 місяців тому +3

    真实世界和理念世界的解释真的太棒了!

  • @wkaing
    @wkaing  3 роки тому +5

    修正:极大似然法在求二项分布的概率时,少了系数C(10,3),因为抛硬币,正面和反面出现的次序不重要,C(10,3)代表了不同次序的数量。不过,不影响视频最后结论,因为训练数据集确定后,这个系数是一个常数。

  • @leiyang2176
    @leiyang2176 Рік тому +3

    最小二乘法和交叉墒都其实可以通过极大似然法得到:
    - 在线性回归模型中,每一个对应的标签y可以假设是线性函数再叠加上一个服从期望为0的正态分布,假定每一个例子中噪声都是独立同分布的话,则通过极大似然估计,可以证明通过最小二乘法得到的模型参数,可以使估计值y最大可能的服从假定的正态分布
    - 在二元分类问题中,用似然估计,可以证明通过让交叉墒最小,获得的模型参数可以使得每个给定的特征向量(X), 估计的分类值尽可能等于标签值(Y)。当然也需要假设 每个例子是独立同分布的.

  • @dechaowu4967
    @dechaowu4967 3 роки тому +2

    以前似懂非懂,看完顿时清晰了,讲的太棒了!!!

  • @dongmingli9546
    @dongmingli9546 3 роки тому +1

    王木头讲的真好!非常清楚!我反正看完是通透了!快点更新吧我还等着看呢,是不是因为看的人太少了不更新了啊。。。

  • @yuhangli-vd8zp
    @yuhangli-vd8zp Рік тому

    讲得很好,很多地方的思想很有帮助

  • @zhangbd2010
    @zhangbd2010 11 місяців тому

    19:33处条件慨率P(Xi|Yi)转变为贝努力概率时候有一些费解。因为条件概率的直接计算是P(Xi n Yi)/P(Yi), 我只能理解为在Xi已知的情况下P(Yi|Xi)的概率计算可以用贝努力公式。

    • @zhangbd2010
      @zhangbd2010 11 місяців тому

      我明白了,这里计算的是P(Xi|Yi) ,Yi已知情况下P(Xi)的概率,毕竟是一种P(Xi), 而不是某种情况下的 P(Yi), 因为X只有两种情况 所以可以用贝努力公式,神经网络求出的概率Yi 可以理解为硬币为正面的理论概率,Xi是实际观察到的概率。 P(X) = Y 的X方 乘以 (1-Y)的(1-X)方

  • @user-TweetyBird
    @user-TweetyBird 9 місяців тому

    你说得太对了,每一个 大问题别人都不在意

  • @frankzhang6009
    @frankzhang6009 Рік тому

    讲的真的很好。

  • @woodywan4010
    @woodywan4010 2 роки тому +1

    講得太好了!

  • @joenoci7452
    @joenoci7452 Рік тому

    讲的真好

  • @冇人知我名
    @冇人知我名 7 місяців тому

    UP主讲得太好了。不喜欢直接列公式,我也是想了解这个公式怎么来的,背后的道理是什么,如果我记不住这个公式,能不能根据学习过的理解方式重新推导出来。

  • @seekingthewholetruth
    @seekingthewholetruth 2 роки тому

    好频道。粉了!

  • @nikkilin4396
    @nikkilin4396 2 роки тому

    讲得太好了。

  • @howardyin
    @howardyin 2 роки тому

    必须要给个手动点赞!😁

  • @eve2533
    @eve2533 Місяць тому

    牛逼 常看常新

  • @waynebrown719
    @waynebrown719 Рік тому

    沐神的损失函数 只有 ylogy_hat ,没有+后面那项 (1-y)log(1-y_hat)

  • @dcy3223
    @dcy3223 12 днів тому

    12.03 段 0.9的概率怎么算出来得?

  • @lancezhang892
    @lancezhang892 11 місяців тому

    损失函数是一堆samples的数值吗?

  • @stevexiao1488
    @stevexiao1488 2 місяці тому

    喜欢你的思考方式,你是当教授的料,可以考虑变换一下职业。

  • @chenli741
    @chenli741 2 роки тому

    感谢上传,全是干货。不过有一点,似然函数取最大的目的并不是让其接近0.5的概率分布(换成其他分布,解释可能不成立)。而是让样本数据发生的概率最大。

  • @KeevnWang
    @KeevnWang 2 роки тому +1

    损失函数远不止三种,重点在在于你的最小化目标是什么

  • @pengxu8542
    @pengxu8542 2 роки тому

    Target 是数量值就用最小二乘,targrt是分类标签就用最大似然估计

    • @taotaotan5671
      @taotaotan5671 2 роки тому

      极大似然应该都可以吧,至少解线性回归和logistic 回归都没问题。

  • @victorli3829
    @victorli3829 2 роки тому

    粉了粉了!!

  • @allanwakes6301
    @allanwakes6301 3 роки тому +1

    不知道是不是我的理解有问题,是不是极大似然估计“包裹”了最小二乘法以及交叉熵,最根本的是maximum likelihood estimation

    • @taotaotan5671
      @taotaotan5671 2 роки тому

      至少在求线性模型的时候,极大似然和最小二乘所估计出的斜率和截距会是一样的。不过神经网络我就不确定了。

  • @poloola7569
    @poloola7569 3 роки тому

    通透!

  • @yeelignyee3767
    @yeelignyee3767 3 роки тому

    赞赞赞!!!

  • @sunksun
    @sunksun 8 місяців тому

    针不戳

  • @黄海-q6h
    @黄海-q6h 2 роки тому

    讲得简直不要再好了!!! 赞

  • @benny81305
    @benny81305 4 місяці тому

    我是不是太晚遇到這個頻道

  • @user-TweetyBird
    @user-TweetyBird 9 місяців тому

    一键三连什么意思啊?

    • @韩超-v8w
      @韩超-v8w 3 місяці тому +1

      国内b站的说法,三连就是点赞+收藏+投币(打赏)

  • @hudsonvan4322
    @hudsonvan4322 2 роки тому

    最小平方法就是用來算估計誤差的 可以從回歸方程解析解的證明方法中得知

  • @shunjiwei2514
    @shunjiwei2514 2 роки тому +2

    正在学机器学习,就是死活搞不清楚,最小二乘法正规方程,极大似然值,逻辑回归这之间的关系,貌似懂,又貌似啥都不懂,反正Python也能得出结果,但就是无法从抽象到具象化进行理解

  • @moorehan3506
    @moorehan3506 6 місяців тому

    是,弄不懂,不通透,难受