Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
说得太好了,把最自然的思路用准确通俗的语言展现出来❤
真实世界和理念世界的解释真的太棒了!
修正:极大似然法在求二项分布的概率时,少了系数C(10,3),因为抛硬币,正面和反面出现的次序不重要,C(10,3)代表了不同次序的数量。不过,不影响视频最后结论,因为训练数据集确定后,这个系数是一个常数。
最小二乘法和交叉墒都其实可以通过极大似然法得到:- 在线性回归模型中,每一个对应的标签y可以假设是线性函数再叠加上一个服从期望为0的正态分布,假定每一个例子中噪声都是独立同分布的话,则通过极大似然估计,可以证明通过最小二乘法得到的模型参数,可以使估计值y最大可能的服从假定的正态分布- 在二元分类问题中,用似然估计,可以证明通过让交叉墒最小,获得的模型参数可以使得每个给定的特征向量(X), 估计的分类值尽可能等于标签值(Y)。当然也需要假设 每个例子是独立同分布的.
以前似懂非懂,看完顿时清晰了,讲的太棒了!!!
王木头讲的真好!非常清楚!我反正看完是通透了!快点更新吧我还等着看呢,是不是因为看的人太少了不更新了啊。。。
讲得很好,很多地方的思想很有帮助
19:33处条件慨率P(Xi|Yi)转变为贝努力概率时候有一些费解。因为条件概率的直接计算是P(Xi n Yi)/P(Yi), 我只能理解为在Xi已知的情况下P(Yi|Xi)的概率计算可以用贝努力公式。
我明白了,这里计算的是P(Xi|Yi) ,Yi已知情况下P(Xi)的概率,毕竟是一种P(Xi), 而不是某种情况下的 P(Yi), 因为X只有两种情况 所以可以用贝努力公式,神经网络求出的概率Yi 可以理解为硬币为正面的理论概率,Xi是实际观察到的概率。 P(X) = Y 的X方 乘以 (1-Y)的(1-X)方
你说得太对了,每一个 大问题别人都不在意
讲的真的很好。
講得太好了!
讲的真好
UP主讲得太好了。不喜欢直接列公式,我也是想了解这个公式怎么来的,背后的道理是什么,如果我记不住这个公式,能不能根据学习过的理解方式重新推导出来。
好频道。粉了!
讲得太好了。
必须要给个手动点赞!😁
牛逼 常看常新
沐神的损失函数 只有 ylogy_hat ,没有+后面那项 (1-y)log(1-y_hat)
12.03 段 0.9的概率怎么算出来得?
损失函数是一堆samples的数值吗?
喜欢你的思考方式,你是当教授的料,可以考虑变换一下职业。
感谢上传,全是干货。不过有一点,似然函数取最大的目的并不是让其接近0.5的概率分布(换成其他分布,解释可能不成立)。而是让样本数据发生的概率最大。
损失函数远不止三种,重点在在于你的最小化目标是什么
Target 是数量值就用最小二乘,targrt是分类标签就用最大似然估计
极大似然应该都可以吧,至少解线性回归和logistic 回归都没问题。
粉了粉了!!
不知道是不是我的理解有问题,是不是极大似然估计“包裹”了最小二乘法以及交叉熵,最根本的是maximum likelihood estimation
至少在求线性模型的时候,极大似然和最小二乘所估计出的斜率和截距会是一样的。不过神经网络我就不确定了。
通透!
赞赞赞!!!
针不戳
讲得简直不要再好了!!! 赞
我是不是太晚遇到這個頻道
一键三连什么意思啊?
国内b站的说法,三连就是点赞+收藏+投币(打赏)
最小平方法就是用來算估計誤差的 可以從回歸方程解析解的證明方法中得知
正在学机器学习,就是死活搞不清楚,最小二乘法正规方程,极大似然值,逻辑回归这之间的关系,貌似懂,又貌似啥都不懂,反正Python也能得出结果,但就是无法从抽象到具象化进行理解
是,弄不懂,不通透,难受
说得太好了,把最自然的思路用准确通俗的语言展现出来❤
真实世界和理念世界的解释真的太棒了!
修正:极大似然法在求二项分布的概率时,少了系数C(10,3),因为抛硬币,正面和反面出现的次序不重要,C(10,3)代表了不同次序的数量。不过,不影响视频最后结论,因为训练数据集确定后,这个系数是一个常数。
最小二乘法和交叉墒都其实可以通过极大似然法得到:
- 在线性回归模型中,每一个对应的标签y可以假设是线性函数再叠加上一个服从期望为0的正态分布,假定每一个例子中噪声都是独立同分布的话,则通过极大似然估计,可以证明通过最小二乘法得到的模型参数,可以使估计值y最大可能的服从假定的正态分布
- 在二元分类问题中,用似然估计,可以证明通过让交叉墒最小,获得的模型参数可以使得每个给定的特征向量(X), 估计的分类值尽可能等于标签值(Y)。当然也需要假设 每个例子是独立同分布的.
以前似懂非懂,看完顿时清晰了,讲的太棒了!!!
王木头讲的真好!非常清楚!我反正看完是通透了!快点更新吧我还等着看呢,是不是因为看的人太少了不更新了啊。。。
讲得很好,很多地方的思想很有帮助
19:33处条件慨率P(Xi|Yi)转变为贝努力概率时候有一些费解。因为条件概率的直接计算是P(Xi n Yi)/P(Yi), 我只能理解为在Xi已知的情况下P(Yi|Xi)的概率计算可以用贝努力公式。
我明白了,这里计算的是P(Xi|Yi) ,Yi已知情况下P(Xi)的概率,毕竟是一种P(Xi), 而不是某种情况下的 P(Yi), 因为X只有两种情况 所以可以用贝努力公式,神经网络求出的概率Yi 可以理解为硬币为正面的理论概率,Xi是实际观察到的概率。 P(X) = Y 的X方 乘以 (1-Y)的(1-X)方
你说得太对了,每一个 大问题别人都不在意
讲的真的很好。
講得太好了!
讲的真好
UP主讲得太好了。不喜欢直接列公式,我也是想了解这个公式怎么来的,背后的道理是什么,如果我记不住这个公式,能不能根据学习过的理解方式重新推导出来。
好频道。粉了!
讲得太好了。
必须要给个手动点赞!😁
牛逼 常看常新
沐神的损失函数 只有 ylogy_hat ,没有+后面那项 (1-y)log(1-y_hat)
12.03 段 0.9的概率怎么算出来得?
损失函数是一堆samples的数值吗?
喜欢你的思考方式,你是当教授的料,可以考虑变换一下职业。
感谢上传,全是干货。不过有一点,似然函数取最大的目的并不是让其接近0.5的概率分布(换成其他分布,解释可能不成立)。而是让样本数据发生的概率最大。
损失函数远不止三种,重点在在于你的最小化目标是什么
Target 是数量值就用最小二乘,targrt是分类标签就用最大似然估计
极大似然应该都可以吧,至少解线性回归和logistic 回归都没问题。
粉了粉了!!
不知道是不是我的理解有问题,是不是极大似然估计“包裹”了最小二乘法以及交叉熵,最根本的是maximum likelihood estimation
至少在求线性模型的时候,极大似然和最小二乘所估计出的斜率和截距会是一样的。不过神经网络我就不确定了。
通透!
赞赞赞!!!
针不戳
讲得简直不要再好了!!! 赞
我是不是太晚遇到這個頻道
一键三连什么意思啊?
国内b站的说法,三连就是点赞+收藏+投币(打赏)
最小平方法就是用來算估計誤差的 可以從回歸方程解析解的證明方法中得知
正在学机器学习,就是死活搞不清楚,最小二乘法正规方程,极大似然值,逻辑回归这之间的关系,貌似懂,又貌似啥都不懂,反正Python也能得出结果,但就是无法从抽象到具象化进行理解
是,弄不懂,不通透,难受