【機器學習2021】預測本頻道觀看人數 (下) - 深度學習基本概念簡介

Поділитися
Вставка
  • Опубліковано 3 жов 2024
  • slides: speech.ee.ntu....

КОМЕНТАРІ • 179

  • @kevinnan2078
    @kevinnan2078 3 роки тому +196

    神经网络结构那部分讲的太精彩了。从简单的线性回归开始,到用几个简单线性函数去逼近一个分段线性函数,然后提出用sigmooid和线性逼近曲线,然后自然而然引出神经网络的基本结构。输入特征,参数,激活函数..等等概念自然而然都出来了

  • @cayman1021
    @cayman1021 Рік тому +54

    以前在念資工的時候還沒有deep learning,現在就業十年多了回來上課,有Internet可以學習的現代人真幸福,願意分享知識貢獻全人類,都有福報

  • @張詠辰
    @張詠辰 3 роки тому +89

    老師真的太厲害了,居然可以講得那麼精煉

  • @梁凱捷-g1n
    @梁凱捷-g1n 2 роки тому +78

    真的是大神,希望以後有機會可以現場聽老師的課,也感謝老師願意把這門課變成公開課。

  • @baobaolong423
    @baobaolong423 3 роки тому +18

    遇到一个好教授真的是很幸运的事情。

  • @陳中信-y5w
    @陳中信-y5w Рік тому +6

    很多書都無法簡單的講清出sigmoid,今天看一遍就懂了,讚
    初等的數學擬合曲線,沒記錯的話都是提高X的次數,f(x)=c(x-a)(x-b)(x-d).... [ 提高次數事情就變得複雜]
    電子學或工程數學則是用U(t)={1 as t>a ; 0 as t

  • @yuanchintsai3355
    @yuanchintsai3355 2 роки тому +11

    淺顯易懂,上課風趣,沒有故弄玄虛,真的是太了不起了

  • @xiaoranchen5363
    @xiaoranchen5363 3 роки тому +33

    老师,我是你的铁粉!你的所有的录影我都至少看过了两遍,也把你的频道推给了我所有学习人工智慧的同学和同事!非常期待课程新的内容!

  • @hhjoy222
    @hhjoy222 2 роки тому +10

    一年就看完老師以前的機器學習課程影片
    現在在看一次新的影片
    雞皮疙瘩都起來了....
    沒想到神經元能用這種方式理解
    太神啦~~~~

  • @ohyeah8836
    @ohyeah8836 3 роки тому +14

    優質課程,我決定當每周新番來追了

  • @telegin_w
    @telegin_w 3 роки тому +9

    老师讲得十分生动!我之前看书学习时,真的是对DL的概念和流程都很困惑,看了这两个视频,突然感觉清晰起来了。真是听君一席话,胜读十年书啊。

  • @andywang945
    @andywang945 Рік тому +1

    老師講話言之有物,言簡意賅、用字精確又淺顯易懂,這部課程後半段又講得十分有趣、最後又埋下觀看下一集的伏筆,真的超級讚的學習影片!

  • @weikao2963
    @weikao2963 3 роки тому +11

    老師太厲害了,講得超級讓人能懂,以前對深度學習結構霧煞煞終於搞懂了😆
    感謝老師優質的講解,受益良多🙏🙏

  • @canaan4684
    @canaan4684 3 роки тому +7

    虽然仅仅是introduction但已经解决了两个困扰我很久的问题!老师太厉害了

  • @billpan1868
    @billpan1868 3 роки тому +3

    Dr. Lee 课程讲得非常棒!深入浅出,还利用UA-cam观看数作为例子,方便理解。良心课程!

  • @shadowchaser19816
    @shadowchaser19816 3 роки тому +4

    我看了 MIT 和 Stanford 的 ML 課、一直是霧煞煞、只有看到李老師的說明、才豁然大解👍!

    • @patrickruan2290
      @patrickruan2290 2 роки тому +1

      有一位台灣軟體上市公司的老闆說,他自學看了很多課程,一直到看到了李老師的課程才通了,然後回公司招集工程師開幹 AI project ~~

  • @spidey0o0zheng40
    @spidey0o0zheng40 5 місяців тому +1

    刚看了两节,目前认为是机器学习最好的中文课程

  • @shihaoxiao2188
    @shihaoxiao2188 Рік тому +1

    李老师讲得太好了!!!听了这多个版本的教程,李老师这个听得最醍醐灌顶

  • @kuo-hunglo8379
    @kuo-hunglo8379 Рік тому +3

    太厲害了!搞統計的第一個反應會用多項式迴歸去fit,現在看來,搞統計的人會在這裡 "中毒"。還有20年前學了一種叫如找線性分割點的方式,它不就淹沒在窮舉裡了,相較之下sigmoid更厲害了!

  • @胡震岳
    @胡震岳 4 місяці тому +2

    太神啦~~ 豁然開朗!

  • @ld-gggg3248
    @ld-gggg3248 2 роки тому +1

    感谢李宏毅老师的精彩讲解,很有效率,真的一遍就能搞懂!

  • @peterpopopan
    @peterpopopan 2 роки тому +2

    老師深入淺出的教學方法跟引導,實在是太精彩也太棒了! 非常感謝老師帶領入門!

  • @nwxxzchen3105
    @nwxxzchen3105 2 роки тому +3

    看过3b1b的 neuron network 系列,他是上来就弄了个 network,sigmoid 出现的比较生硬,李老师 compose sigmoid来逼近的做法是更好理解的,当然人家3b1b也不赖,但我还是支持咱李老师😄

  • @tsukimijuicejuly2496
    @tsukimijuicejuly2496 3 роки тому +2

    老师讲的很生动,很有趣,尤其是对深度学习有一些了解但不精通的时候听完课有一种豁然开朗的感觉

  • @howardchu7674
    @howardchu7674 3 роки тому +2

    自學中,真的是很幸運能看到!謝謝老師太優質了!

  • @lynnejayce1854
    @lynnejayce1854 3 роки тому +3

    老師講特真的是太好了,這真的就是聽君一席話勝讀十年書吧!!

  • @阳光树林
    @阳光树林 3 роки тому +1

    老师的课讲的太好了,深入浅出,看2020版的没看完,又追来这里了,强烈支持!

  • @Fat_Cat_Fly
    @Fat_Cat_Fly Рік тому +1

    太神了!!!看过的最好的ai课程!

  • @hwz8834
    @hwz8834 Рік тому +1

    学完老师的线性代数,又过来看机器学习了。老师讲得好本质,继续认真学下去!机器学习这边就手动切片视频了哈哈哈~

  • @RobertLin-gj3jd
    @RobertLin-gj3jd 3 роки тому +2

    老師講得淺顯易懂 太讚了

  • @hankwang4580
    @hankwang4580 Рік тому +1

    感謝老師循序漸進的教學!

  • @骆志坤
    @骆志坤 Рік тому

    感谢老师,三年后重看,依然受益匪浅!

  • @ariasminato8280
    @ariasminato8280 2 роки тому +4

    後悔大三的時候沒被YT推薦李老師的課,希望碩班能變成正統AI仔

  • @blessedwang7380
    @blessedwang7380 3 роки тому +2

    我太喜欢老师耐心的解答问题

  • @ShuyaoXu-i9h
    @ShuyaoXu-i9h Рік тому +4

    感觉讲得比andrew还透彻很多 没想到华语也有这么优秀的内容

  • @xinxinwang3700
    @xinxinwang3700 3 роки тому +2

    太喜欢您的课程啦,深入浅出,期待周五更新的课程
    ps: 我觉得观看量可能会超出预测值

  • @robertnull6653
    @robertnull6653 3 роки тому +2

    老師教得很好,謝謝分享,喜歡從數學切入的講法

  • @delinqu396
    @delinqu396 2 роки тому +1

    学校里老师讲解的时候没听懂,在这里终于听懂了!

  • @carol8099
    @carol8099 3 роки тому +5

    感謝老師上傳影片,本來一知半解的概念忽然都懂了,piecewise linear curve解答了我上課聽不懂deep有什麼好處的疑問

  • @xiaolianyuan6660
    @xiaolianyuan6660 Рік тому

    终于联系上为什么NN可以逼近各种复杂模型。感谢大师级讲解!

  • @daneng110
    @daneng110 2 роки тому +1

    老师讲的真的很好啊,醍醐灌顶

  • @VolkanChen
    @VolkanChen 2 роки тому +1

    讲得实在是太好了!点赞!

  • @user-shihmin
    @user-shihmin 2 роки тому +1

    sigmoid那里真的是醍醐灌顶,感谢老师

  • @zhengrarachel5490
    @zhengrarachel5490 3 роки тому +1

    老师您讲的真的太好了!!!好后悔没有早点看您的视频55555!希望it's never too late too learn TAT

  • @wenlongwang-f5x
    @wenlongwang-f5x Рік тому

    每次听都有一次收获,对初学者太友好了

  • @wenzhengzhao7225
    @wenzhengzhao7225 3 роки тому

    真的讲的很通俗易懂 对于小白非常友好~~~~ 感谢老师

  • @朱占仕
    @朱占仕 3 роки тому +1

    好喜欢老师的讲课方式。知其然 知其所以然。发现问题 解决问题。我第一次知道全连接神经网络还可以这样解释。

  • @jameschen1498
    @jameschen1498 3 роки тому +3

    老師您講的好精彩 淺顯易懂 真是太厲害了 ,期待新系列的每堂課

  • @alexlin8936
    @alexlin8936 3 роки тому +1

    淺顯易懂,深入淺出。
    太猛了! XD

  • @cchokohin3051
    @cchokohin3051 Рік тому

    受益匪浅,非常利于理解,老师大才

  • @高國倫-o1n
    @高國倫-o1n 2 роки тому

    講得太好了,還有字幕,太用心了

  • @hudsonvan4322
    @hudsonvan4322 3 роки тому +2

    原來我之前一直誤會,我真的以為參數 bias 跟 Model Bias 是有關連的東西,其實是不同的東西。還有這是我第一次聽到 Activation Function 有這樣的解釋方式,難怪 ReLU 更好用,之前聽過的說法都是「仿生物函數」、「把數值映射至0、1區間」

    • @xinxinwang3700
      @xinxinwang3700 3 роки тому

      老师是不是说下周讲ReLU为啥好,这周只是展示了用ReLU模型的结果更好?我又回头看了一遍也没找着

    • @jeffkevin3
      @jeffkevin3 3 роки тому

      這個 model bias 聽起來蠻像 inductive bias 的欸?

    • @HungyiLeeNTU
      @HungyiLeeNTU  3 роки тому +4

      @@jeffkevin3 這裡的 model bias 就是指 inductive bias

    • @HungyiLeeNTU
      @HungyiLeeNTU  3 роки тому

      @@xinxinwang3700 之後會講到為什麼今日相較於 Sigmoid 大家比較喜歡用 ReLU

  • @jimmybai-p7i
    @jimmybai-p7i 2 місяці тому

    重新理解了激活函数的作用,精彩

  • @pelosi7897
    @pelosi7897 6 місяців тому +1

    超级棒的讲解

  • @zoeyhu6878
    @zoeyhu6878 2 роки тому +2

    best lecture ever!!! Thank you so much for open sourcing this!

  • @fenneka1410
    @fenneka1410 2 роки тому +1

    太精彩了。。。。意犹未尽

  • @patrickruan2290
    @patrickruan2290 3 роки тому +1

    老師,元宵節快樂!!

  • @efj1774
    @efj1774 Місяць тому

    哈哈,织席贩履之徒看乐了,感谢Lee的讲解!

  • @i-fanlin568
    @i-fanlin568 3 роки тому +2

    老師你太棒了!學生覺得收穫良多>

  • @海阔天空-s8v
    @海阔天空-s8v 6 місяців тому +1

    老师讲的太清楚了

  • @qihongpan2795
    @qihongpan2795 3 роки тому

    best machine learning course on youtube!

  • @noahzhoushen
    @noahzhoushen 3 роки тому

    终于形象化地了解了sigmoid function是怎么应用到DL的,piecewise linear curve之前学的都没有提到过

  • @HY-dj3zk
    @HY-dj3zk 2 роки тому

    老师对DL的理解高屋建瓴, 才能把复杂的东西描述的这么清晰. 感谢李老师

  • @tiger8938
    @tiger8938 3 роки тому +1

    53:02 这个地方讲的真好

  • @AiHan-f2t
    @AiHan-f2t 6 місяців тому +1

    真正的大师

  • @aemm8315
    @aemm8315 2 роки тому

    老师有趣,有用,有才,有爱

  • @FreddytheMEDmissile
    @FreddytheMEDmissile Рік тому

    謝謝老師無私的分享

  • @zanbinhong314
    @zanbinhong314 3 роки тому +5

    我覺得會遠大於0.38k,這學期修課人數是之前的數倍,這是機器所不知道的,所以模型很也可能不準

    • @yayoru
      @yayoru 2 роки тому

      我的看法倒是,可能因為我比較皮
      我可以刻意揪大家刷觀看量,讓預測失準XD

  • @不太慌
    @不太慌 2 роки тому

    謝謝老師,真的聼懂了!

  • @yangjunyi5258
    @yangjunyi5258 3 роки тому

    sigmoid function解释的好棒!之前看其他神经网络课程都没有这么形象的解释过!

  • @陳劭晏
    @陳劭晏 Рік тому

    A linear model doesn't have to be a straight line. The limitations of it are the assumptions of regression, not "too simple".

  • @edwina06066
    @edwina06066 Рік тому

    教授教的太精彩了 真幽默 呵呵

  • @hankwang4580
    @hankwang4580 Рік тому +2

    16:29 這裡一時間沒有領略到意圖,已經組好 Sigma 的 sigmoid 了,形狀上已經可以無限接近 curve 了,為什麼還要把裡面的 b+wx 擴充? 回到前面想了一下,恍然大悟,哦 對~ 如果要把時間,往前幾天考慮進來的話。自然是要增加一個 維度,投影片以 j 表示。
    所以 i 維度是要用到多少個 sigmoid, j 維度則是考慮要橫跨多少資料點(例如這裡是表示向前多少時間點)
    而實際上 j 維度這個部分應該是 feature 的數量,而在這邊我們覺得 往前一定天數的 data 都是有貢獻的,所以往前天數的 data ,在這裡就成為 feature。

    • @陳中信-y5w
      @陳中信-y5w Рік тому +2

      一個是增加該Xi變數的解釋力(讓該xi可以在不同位置更符合model,也就是Loss變小)
      一個是增加變數的個數 ( j維度 )
      你的回答也助我更釐清此一細節,謝謝

  • @waynechao9582
    @waynechao9582 Рік тому +2

    非常感謝老師的講解,不過有個好奇的點。如果對x1來說可以用y=b+Σ_i ci*sigmoid(bi+wi*x1)來逼近,那對另一個輸入x2也是用同樣的方法逼近y=b+Σ_i ci*sigmoid(bi+wi*x2),這樣一來最直覺不就是把兩者相加嗎?變成double summation,如y=b+Σ_j { Σ_i cij*sigmoid(bij+wij*xj) },好奇這樣結果會如何

  • @chenwilliam5176
    @chenwilliam5176 Рік тому

    「準確」是重點 🌎

  • @mingyuni4137
    @mingyuni4137 3 роки тому

    李老师太帅了,讲的真不错

  • @魏法然
    @魏法然 2 роки тому

    非常棒!谢谢老师!

  • @skkkylar
    @skkkylar Рік тому

    老师讲得太好了

  • @温泽林
    @温泽林 Рік тому

    老师讲的太好了吧

  • @crabime7703
    @crabime7703 4 місяці тому

    太牛了,关注了...

  • @bohanchen7678
    @bohanchen7678 3 роки тому +1

    老师,挺你,比我本科老师教授的机器学习课程好太多

  • @xingxingzhou828
    @xingxingzhou828 2 роки тому +1

    听了这么多机器学习的课程,现在才知道sigmoid函数是怎么来的

  • @trmann8065
    @trmann8065 11 місяців тому

    讲的真挺好

  • @d246810g2000
    @d246810g2000 3 роки тому

    太精采了,32:55 的 cc 字幕有錯字哦 θ start → star

  • @oly8422
    @oly8422 2 роки тому

    爱你老师,来自宁波市

  • @wenmingjin756
    @wenmingjin756 2 роки тому

    讲的真棒

  • @ascafe13
    @ascafe13 5 місяців тому

    老師謝謝你~~~~~~~~~

  • @-_-zzzhen6072
    @-_-zzzhen6072 11 місяців тому

    謝謝老師~

  • @GoodEnough030
    @GoodEnough030 3 роки тому

    本來在想那個sigmoid function是用步階函數寫出來的哈哈

  • @hsiajui-kai1580
    @hsiajui-kai1580 Рік тому

    感謝老師

  • @PIGilbert
    @PIGilbert 4 місяці тому

    您好,想請教一個問題,在影片中,您提到1個epoch 裡面會有與batch 數量相等的update,我想請教如果我改變batch大小,也相對變動epoch 數字,使其update 數一樣,那兩個model 會有什麼優缺點呢?

  • @GGfor22
    @GGfor22 3 роки тому +4

    我用1.5倍观看速非常适应。。

  • @songhomewei5218
    @songhomewei5218 5 місяців тому

    請問為什麼reLU要設成c*max(0,b+wx)而不是直接max(0,c*b+c*wx)=max(0,b'+w'x)
    把c提出來不是會每一個activation function多一個參數要訓練嗎?

  • @kevinchen1227
    @kevinchen1227 2 роки тому +1

    請問j 是不是feature x的序列個數?若j代表 no. of features 則意思是有好多不同的feature variable?

  • @jinghu5718
    @jinghu5718 2 роки тому

    与林轩田老师的课结合起来,就是深入浅出

  • @luery
    @luery 3 роки тому

    谢谢老师

  • @mlli3595
    @mlli3595 3 роки тому +1

    除夕没有人学机器学习,哈哈哈

  • @chen39yi
    @chen39yi 5 місяців тому

    我终于知道什么是sigmoid 为什么要用他

  • @chenghong24
    @chenghong24 3 роки тому +3

    02:59 好像是 threshold >

  • @tingashley662
    @tingashley662 2 роки тому

    很有意思