Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
神经网络结构那部分讲的太精彩了。从简单的线性回归开始,到用几个简单线性函数去逼近一个分段线性函数,然后提出用sigmooid和线性逼近曲线,然后自然而然引出神经网络的基本结构。输入特征,参数,激活函数..等等概念自然而然都出来了
以前在念資工的時候還沒有deep learning,現在就業十年多了回來上課,有Internet可以學習的現代人真幸福,願意分享知識貢獻全人類,都有福報
老師真的太厲害了,居然可以講得那麼精煉
真的是大神,希望以後有機會可以現場聽老師的課,也感謝老師願意把這門課變成公開課。
遇到一个好教授真的是很幸运的事情。
很多書都無法簡單的講清出sigmoid,今天看一遍就懂了,讚初等的數學擬合曲線,沒記錯的話都是提高X的次數,f(x)=c(x-a)(x-b)(x-d).... [ 提高次數事情就變得複雜]電子學或工程數學則是用U(t)={1 as t>a ; 0 as t
淺顯易懂,上課風趣,沒有故弄玄虛,真的是太了不起了
老师,我是你的铁粉!你的所有的录影我都至少看过了两遍,也把你的频道推给了我所有学习人工智慧的同学和同事!非常期待课程新的内容!
厲害了老鐵
一年就看完老師以前的機器學習課程影片現在在看一次新的影片雞皮疙瘩都起來了....沒想到神經元能用這種方式理解太神啦~~~~
優質課程,我決定當每周新番來追了
老师讲得十分生动!我之前看书学习时,真的是对DL的概念和流程都很困惑,看了这两个视频,突然感觉清晰起来了。真是听君一席话,胜读十年书啊。
老師講話言之有物,言簡意賅、用字精確又淺顯易懂,這部課程後半段又講得十分有趣、最後又埋下觀看下一集的伏筆,真的超級讚的學習影片!
老師太厲害了,講得超級讓人能懂,以前對深度學習結構霧煞煞終於搞懂了😆感謝老師優質的講解,受益良多🙏🙏
虽然仅仅是introduction但已经解决了两个困扰我很久的问题!老师太厉害了
Dr. Lee 课程讲得非常棒!深入浅出,还利用UA-cam观看数作为例子,方便理解。良心课程!
我看了 MIT 和 Stanford 的 ML 課、一直是霧煞煞、只有看到李老師的說明、才豁然大解👍!
有一位台灣軟體上市公司的老闆說,他自學看了很多課程,一直到看到了李老師的課程才通了,然後回公司招集工程師開幹 AI project ~~
刚看了两节,目前认为是机器学习最好的中文课程
李老师讲得太好了!!!听了这多个版本的教程,李老师这个听得最醍醐灌顶
太厲害了!搞統計的第一個反應會用多項式迴歸去fit,現在看來,搞統計的人會在這裡 "中毒"。還有20年前學了一種叫如找線性分割點的方式,它不就淹沒在窮舉裡了,相較之下sigmoid更厲害了!
太神啦~~ 豁然開朗!
感谢李宏毅老师的精彩讲解,很有效率,真的一遍就能搞懂!
老師深入淺出的教學方法跟引導,實在是太精彩也太棒了! 非常感謝老師帶領入門!
看过3b1b的 neuron network 系列,他是上来就弄了个 network,sigmoid 出现的比较生硬,李老师 compose sigmoid来逼近的做法是更好理解的,当然人家3b1b也不赖,但我还是支持咱李老师😄
老师讲的很生动,很有趣,尤其是对深度学习有一些了解但不精通的时候听完课有一种豁然开朗的感觉
自學中,真的是很幸運能看到!謝謝老師太優質了!
老師講特真的是太好了,這真的就是聽君一席話勝讀十年書吧!!
老师的课讲的太好了,深入浅出,看2020版的没看完,又追来这里了,强烈支持!
太神了!!!看过的最好的ai课程!
学完老师的线性代数,又过来看机器学习了。老师讲得好本质,继续认真学下去!机器学习这边就手动切片视频了哈哈哈~
老師講得淺顯易懂 太讚了
感謝老師循序漸進的教學!
感谢老师,三年后重看,依然受益匪浅!
後悔大三的時候沒被YT推薦李老師的課,希望碩班能變成正統AI仔
我太喜欢老师耐心的解答问题
感觉讲得比andrew还透彻很多 没想到华语也有这么优秀的内容
太喜欢您的课程啦,深入浅出,期待周五更新的课程ps: 我觉得观看量可能会超出预测值
老師教得很好,謝謝分享,喜歡從數學切入的講法
学校里老师讲解的时候没听懂,在这里终于听懂了!
感謝老師上傳影片,本來一知半解的概念忽然都懂了,piecewise linear curve解答了我上課聽不懂deep有什麼好處的疑問
终于联系上为什么NN可以逼近各种复杂模型。感谢大师级讲解!
老师讲的真的很好啊,醍醐灌顶
讲得实在是太好了!点赞!
sigmoid那里真的是醍醐灌顶,感谢老师
老师您讲的真的太好了!!!好后悔没有早点看您的视频55555!希望it's never too late too learn TAT
每次听都有一次收获,对初学者太友好了
真的讲的很通俗易懂 对于小白非常友好~~~~ 感谢老师
好喜欢老师的讲课方式。知其然 知其所以然。发现问题 解决问题。我第一次知道全连接神经网络还可以这样解释。
老師您講的好精彩 淺顯易懂 真是太厲害了 ,期待新系列的每堂課
淺顯易懂,深入淺出。太猛了! XD
受益匪浅,非常利于理解,老师大才
講得太好了,還有字幕,太用心了
原來我之前一直誤會,我真的以為參數 bias 跟 Model Bias 是有關連的東西,其實是不同的東西。還有這是我第一次聽到 Activation Function 有這樣的解釋方式,難怪 ReLU 更好用,之前聽過的說法都是「仿生物函數」、「把數值映射至0、1區間」
老师是不是说下周讲ReLU为啥好,这周只是展示了用ReLU模型的结果更好?我又回头看了一遍也没找着
這個 model bias 聽起來蠻像 inductive bias 的欸?
@@jeffkevin3 這裡的 model bias 就是指 inductive bias
@@xinxinwang3700 之後會講到為什麼今日相較於 Sigmoid 大家比較喜歡用 ReLU
重新理解了激活函数的作用,精彩
超级棒的讲解
best lecture ever!!! Thank you so much for open sourcing this!
太精彩了。。。。意犹未尽
老師,元宵節快樂!!
派大好 😊
哈哈,织席贩履之徒看乐了,感谢Lee的讲解!
老師你太棒了!學生覺得收穫良多>
老师讲的太清楚了
best machine learning course on youtube!
终于形象化地了解了sigmoid function是怎么应用到DL的,piecewise linear curve之前学的都没有提到过
老师对DL的理解高屋建瓴, 才能把复杂的东西描述的这么清晰. 感谢李老师
53:02 这个地方讲的真好
真正的大师
老师有趣,有用,有才,有爱
謝謝老師無私的分享
我覺得會遠大於0.38k,這學期修課人數是之前的數倍,這是機器所不知道的,所以模型很也可能不準
我的看法倒是,可能因為我比較皮我可以刻意揪大家刷觀看量,讓預測失準XD
謝謝老師,真的聼懂了!
sigmoid function解释的好棒!之前看其他神经网络课程都没有这么形象的解释过!
A linear model doesn't have to be a straight line. The limitations of it are the assumptions of regression, not "too simple".
教授教的太精彩了 真幽默 呵呵
16:29 這裡一時間沒有領略到意圖,已經組好 Sigma 的 sigmoid 了,形狀上已經可以無限接近 curve 了,為什麼還要把裡面的 b+wx 擴充? 回到前面想了一下,恍然大悟,哦 對~ 如果要把時間,往前幾天考慮進來的話。自然是要增加一個 維度,投影片以 j 表示。所以 i 維度是要用到多少個 sigmoid, j 維度則是考慮要橫跨多少資料點(例如這裡是表示向前多少時間點)而實際上 j 維度這個部分應該是 feature 的數量,而在這邊我們覺得 往前一定天數的 data 都是有貢獻的,所以往前天數的 data ,在這裡就成為 feature。
一個是增加該Xi變數的解釋力(讓該xi可以在不同位置更符合model,也就是Loss變小)一個是增加變數的個數 ( j維度 )你的回答也助我更釐清此一細節,謝謝
非常感謝老師的講解,不過有個好奇的點。如果對x1來說可以用y=b+Σ_i ci*sigmoid(bi+wi*x1)來逼近,那對另一個輸入x2也是用同樣的方法逼近y=b+Σ_i ci*sigmoid(bi+wi*x2),這樣一來最直覺不就是把兩者相加嗎?變成double summation,如y=b+Σ_j { Σ_i cij*sigmoid(bij+wij*xj) },好奇這樣結果會如何
「準確」是重點 🌎
李老师太帅了,讲的真不错
非常棒!谢谢老师!
老师讲得太好了
老师讲的太好了吧
太牛了,关注了...
老师,挺你,比我本科老师教授的机器学习课程好太多
听了这么多机器学习的课程,现在才知道sigmoid函数是怎么来的
讲的真挺好
太精采了,32:55 的 cc 字幕有錯字哦 θ start → star
爱你老师,来自宁波市
讲的真棒
老師謝謝你~~~~~~~~~
謝謝老師~
本來在想那個sigmoid function是用步階函數寫出來的哈哈
感謝老師
您好,想請教一個問題,在影片中,您提到1個epoch 裡面會有與batch 數量相等的update,我想請教如果我改變batch大小,也相對變動epoch 數字,使其update 數一樣,那兩個model 會有什麼優缺點呢?
我用1.5倍观看速非常适应。。
請問為什麼reLU要設成c*max(0,b+wx)而不是直接max(0,c*b+c*wx)=max(0,b'+w'x)把c提出來不是會每一個activation function多一個參數要訓練嗎?
請問j 是不是feature x的序列個數?若j代表 no. of features 則意思是有好多不同的feature variable?
与林轩田老师的课结合起来,就是深入浅出
谢谢老师
除夕没有人学机器学习,哈哈哈
我终于知道什么是sigmoid 为什么要用他
02:59 好像是 threshold >
很有意思
神经网络结构那部分讲的太精彩了。从简单的线性回归开始,到用几个简单线性函数去逼近一个分段线性函数,然后提出用sigmooid和线性逼近曲线,然后自然而然引出神经网络的基本结构。输入特征,参数,激活函数..等等概念自然而然都出来了
以前在念資工的時候還沒有deep learning,現在就業十年多了回來上課,有Internet可以學習的現代人真幸福,願意分享知識貢獻全人類,都有福報
老師真的太厲害了,居然可以講得那麼精煉
真的是大神,希望以後有機會可以現場聽老師的課,也感謝老師願意把這門課變成公開課。
遇到一个好教授真的是很幸运的事情。
很多書都無法簡單的講清出sigmoid,今天看一遍就懂了,讚
初等的數學擬合曲線,沒記錯的話都是提高X的次數,f(x)=c(x-a)(x-b)(x-d).... [ 提高次數事情就變得複雜]
電子學或工程數學則是用U(t)={1 as t>a ; 0 as t
淺顯易懂,上課風趣,沒有故弄玄虛,真的是太了不起了
老师,我是你的铁粉!你的所有的录影我都至少看过了两遍,也把你的频道推给了我所有学习人工智慧的同学和同事!非常期待课程新的内容!
厲害了老鐵
一年就看完老師以前的機器學習課程影片
現在在看一次新的影片
雞皮疙瘩都起來了....
沒想到神經元能用這種方式理解
太神啦~~~~
優質課程,我決定當每周新番來追了
老师讲得十分生动!我之前看书学习时,真的是对DL的概念和流程都很困惑,看了这两个视频,突然感觉清晰起来了。真是听君一席话,胜读十年书啊。
老師講話言之有物,言簡意賅、用字精確又淺顯易懂,這部課程後半段又講得十分有趣、最後又埋下觀看下一集的伏筆,真的超級讚的學習影片!
老師太厲害了,講得超級讓人能懂,以前對深度學習結構霧煞煞終於搞懂了😆
感謝老師優質的講解,受益良多🙏🙏
虽然仅仅是introduction但已经解决了两个困扰我很久的问题!老师太厉害了
Dr. Lee 课程讲得非常棒!深入浅出,还利用UA-cam观看数作为例子,方便理解。良心课程!
我看了 MIT 和 Stanford 的 ML 課、一直是霧煞煞、只有看到李老師的說明、才豁然大解👍!
有一位台灣軟體上市公司的老闆說,他自學看了很多課程,一直到看到了李老師的課程才通了,然後回公司招集工程師開幹 AI project ~~
刚看了两节,目前认为是机器学习最好的中文课程
李老师讲得太好了!!!听了这多个版本的教程,李老师这个听得最醍醐灌顶
太厲害了!搞統計的第一個反應會用多項式迴歸去fit,現在看來,搞統計的人會在這裡 "中毒"。還有20年前學了一種叫如找線性分割點的方式,它不就淹沒在窮舉裡了,相較之下sigmoid更厲害了!
太神啦~~ 豁然開朗!
感谢李宏毅老师的精彩讲解,很有效率,真的一遍就能搞懂!
老師深入淺出的教學方法跟引導,實在是太精彩也太棒了! 非常感謝老師帶領入門!
看过3b1b的 neuron network 系列,他是上来就弄了个 network,sigmoid 出现的比较生硬,李老师 compose sigmoid来逼近的做法是更好理解的,当然人家3b1b也不赖,但我还是支持咱李老师😄
老师讲的很生动,很有趣,尤其是对深度学习有一些了解但不精通的时候听完课有一种豁然开朗的感觉
自學中,真的是很幸運能看到!謝謝老師太優質了!
老師講特真的是太好了,這真的就是聽君一席話勝讀十年書吧!!
老师的课讲的太好了,深入浅出,看2020版的没看完,又追来这里了,强烈支持!
太神了!!!看过的最好的ai课程!
学完老师的线性代数,又过来看机器学习了。老师讲得好本质,继续认真学下去!机器学习这边就手动切片视频了哈哈哈~
老師講得淺顯易懂 太讚了
感謝老師循序漸進的教學!
感谢老师,三年后重看,依然受益匪浅!
後悔大三的時候沒被YT推薦李老師的課,希望碩班能變成正統AI仔
我太喜欢老师耐心的解答问题
感觉讲得比andrew还透彻很多 没想到华语也有这么优秀的内容
太喜欢您的课程啦,深入浅出,期待周五更新的课程
ps: 我觉得观看量可能会超出预测值
老師教得很好,謝謝分享,喜歡從數學切入的講法
学校里老师讲解的时候没听懂,在这里终于听懂了!
感謝老師上傳影片,本來一知半解的概念忽然都懂了,piecewise linear curve解答了我上課聽不懂deep有什麼好處的疑問
终于联系上为什么NN可以逼近各种复杂模型。感谢大师级讲解!
老师讲的真的很好啊,醍醐灌顶
讲得实在是太好了!点赞!
sigmoid那里真的是醍醐灌顶,感谢老师
老师您讲的真的太好了!!!好后悔没有早点看您的视频55555!希望it's never too late too learn TAT
每次听都有一次收获,对初学者太友好了
真的讲的很通俗易懂 对于小白非常友好~~~~ 感谢老师
好喜欢老师的讲课方式。知其然 知其所以然。发现问题 解决问题。我第一次知道全连接神经网络还可以这样解释。
老師您講的好精彩 淺顯易懂 真是太厲害了 ,期待新系列的每堂課
淺顯易懂,深入淺出。
太猛了! XD
受益匪浅,非常利于理解,老师大才
講得太好了,還有字幕,太用心了
原來我之前一直誤會,我真的以為參數 bias 跟 Model Bias 是有關連的東西,其實是不同的東西。還有這是我第一次聽到 Activation Function 有這樣的解釋方式,難怪 ReLU 更好用,之前聽過的說法都是「仿生物函數」、「把數值映射至0、1區間」
老师是不是说下周讲ReLU为啥好,这周只是展示了用ReLU模型的结果更好?我又回头看了一遍也没找着
這個 model bias 聽起來蠻像 inductive bias 的欸?
@@jeffkevin3 這裡的 model bias 就是指 inductive bias
@@xinxinwang3700 之後會講到為什麼今日相較於 Sigmoid 大家比較喜歡用 ReLU
重新理解了激活函数的作用,精彩
超级棒的讲解
best lecture ever!!! Thank you so much for open sourcing this!
太精彩了。。。。意犹未尽
老師,元宵節快樂!!
派大好 😊
哈哈,织席贩履之徒看乐了,感谢Lee的讲解!
老師你太棒了!學生覺得收穫良多>
老师讲的太清楚了
best machine learning course on youtube!
终于形象化地了解了sigmoid function是怎么应用到DL的,piecewise linear curve之前学的都没有提到过
老师对DL的理解高屋建瓴, 才能把复杂的东西描述的这么清晰. 感谢李老师
53:02 这个地方讲的真好
真正的大师
老师有趣,有用,有才,有爱
謝謝老師無私的分享
我覺得會遠大於0.38k,這學期修課人數是之前的數倍,這是機器所不知道的,所以模型很也可能不準
我的看法倒是,可能因為我比較皮
我可以刻意揪大家刷觀看量,讓預測失準XD
謝謝老師,真的聼懂了!
sigmoid function解释的好棒!之前看其他神经网络课程都没有这么形象的解释过!
A linear model doesn't have to be a straight line. The limitations of it are the assumptions of regression, not "too simple".
教授教的太精彩了 真幽默 呵呵
16:29 這裡一時間沒有領略到意圖,已經組好 Sigma 的 sigmoid 了,形狀上已經可以無限接近 curve 了,為什麼還要把裡面的 b+wx 擴充? 回到前面想了一下,恍然大悟,哦 對~ 如果要把時間,往前幾天考慮進來的話。自然是要增加一個 維度,投影片以 j 表示。
所以 i 維度是要用到多少個 sigmoid, j 維度則是考慮要橫跨多少資料點(例如這裡是表示向前多少時間點)
而實際上 j 維度這個部分應該是 feature 的數量,而在這邊我們覺得 往前一定天數的 data 都是有貢獻的,所以往前天數的 data ,在這裡就成為 feature。
一個是增加該Xi變數的解釋力(讓該xi可以在不同位置更符合model,也就是Loss變小)
一個是增加變數的個數 ( j維度 )
你的回答也助我更釐清此一細節,謝謝
非常感謝老師的講解,不過有個好奇的點。如果對x1來說可以用y=b+Σ_i ci*sigmoid(bi+wi*x1)來逼近,那對另一個輸入x2也是用同樣的方法逼近y=b+Σ_i ci*sigmoid(bi+wi*x2),這樣一來最直覺不就是把兩者相加嗎?變成double summation,如y=b+Σ_j { Σ_i cij*sigmoid(bij+wij*xj) },好奇這樣結果會如何
「準確」是重點 🌎
李老师太帅了,讲的真不错
非常棒!谢谢老师!
老师讲得太好了
老师讲的太好了吧
太牛了,关注了...
老师,挺你,比我本科老师教授的机器学习课程好太多
听了这么多机器学习的课程,现在才知道sigmoid函数是怎么来的
讲的真挺好
太精采了,32:55 的 cc 字幕有錯字哦 θ start → star
爱你老师,来自宁波市
讲的真棒
老師謝謝你~~~~~~~~~
謝謝老師~
本來在想那個sigmoid function是用步階函數寫出來的哈哈
感謝老師
您好,想請教一個問題,在影片中,您提到1個epoch 裡面會有與batch 數量相等的update,我想請教如果我改變batch大小,也相對變動epoch 數字,使其update 數一樣,那兩個model 會有什麼優缺點呢?
我用1.5倍观看速非常适应。。
請問為什麼reLU要設成c*max(0,b+wx)而不是直接max(0,c*b+c*wx)=max(0,b'+w'x)
把c提出來不是會每一個activation function多一個參數要訓練嗎?
請問j 是不是feature x的序列個數?若j代表 no. of features 則意思是有好多不同的feature variable?
与林轩田老师的课结合起来,就是深入浅出
谢谢老师
除夕没有人学机器学习,哈哈哈
我终于知道什么是sigmoid 为什么要用他
02:59 好像是 threshold >
很有意思