什么是卷积神经网络?卷积到底卷了啥?

Поділитися
Вставка
  • Опубліковано 4 лис 2024
  • 什么是卷积神经网络?卷积到底卷了啥?

КОМЕНТАРІ • 208

  • @albertwang5974
    @albertwang5974 3 роки тому +84

    卷积就是通过卷积核突出数据的局部相关性,把你感兴趣的特征强化出来,方便后续步骤提取这些特征!

    • @xanaduzhang186
      @xanaduzhang186 3 роки тому +2

      简单能这么说吧。。。不过大家还是要知道,特征提取的方法有好几类,不只是卷积。

    • @gagaga271
      @gagaga271 3 роки тому +8

      你这是用卷积解释卷积啊

    • @maxliu1613
      @maxliu1613 3 роки тому

      果断订阅你!😎

  • @caicai491
    @caicai491 3 роки тому +110

    1/3那个序列没看懂怎么算的看这里:x序列从头开始依次取3个数,第一次取x1,x2,x3,第二次取x2,x3,x4,第三次取x3,x4,x5,以此类推。每取一次和w序列的3个数分别相乘再求和,得到新序列的一个数。x序列从头到尾算一遍即可。

    • @zephirphalcon9961
      @zephirphalcon9961 3 роки тому +1

      正解

    • @harborl5145
      @harborl5145 3 роки тому +36

      这个地方真不该省略,否则想破脑袋也不知道怎么快速的算一下算出来两个1 了

    • @Canton_Cuisine
      @Canton_Cuisine 3 роки тому +1

      对头

    • @yuqiu7207
      @yuqiu7207 3 роки тому +1

      你这儿第一次取x1,x2,x3算的是y几啊?

    • @jimmy7894
      @jimmy7894 3 роки тому +2

      視頻中的演繹結果好像跳過兩次結果,要符合公式結果y1應去取x1,結果y2應去取x1,x2,結果y3應去取x1,x2,x3,視頻中的結果直接跳到y3

  • @Josstseng
    @Josstseng 2 роки тому +2

    頻道主邏輯口條跟節奏掌握的真好,讓沒基礎的人也能聽得懂

  • @chenlightrain
    @chenlightrain 3 роки тому +3

    谢谢你,真的解了我很久以来的困惑! 果然,聪明的男人最性感!

  • @weishyh
    @weishyh 3 роки тому +20

    突然有一種打通任督二脈的感覺.
    很久以前念 time domain 二個信號做 convolution, 繁複的微積分運算, 後來透過 Fourier transform 簡單去處理. 但和後來看的Convolutional Neural Network 搭不在一起. 不過看到老師解釋的方式. 終於理解為什麼叫 Convolution 了. 以前可能我都沒有從其物理意義去思考它究竟是什麼. 今天才有一點領悟. 感謝.

    • @timsecond
      @timsecond 2 роки тому

      我也是,看到那公式突然想起那不是我之前学过的 convolution 吗 😂

    • @nick94890
      @nick94890 Рік тому

      中国大陆的高校教授一门课程叫做“信号与系统”,对学过这门课程的人,视频的的内容就相当的浅显了。你不妨去找本教材看一看。

  • @ningmao7141
    @ningmao7141 2 роки тому

    做深度学习用卷积神经网络快一年了 第一次有这么具象的理解!感谢!

  • @freespacefrank
    @freespacefrank 2 роки тому

    感謝媽咪叔的說明,今天終於初步了解圖片處理的根本方式,您說明得很好,讓人能了解,謝謝

  • @bill970386
    @bill970386 3 роки тому +19

    我覺得可以像量子故事會一樣,講機器學習、深度學習的演變

  • @jiangjet946
    @jiangjet946 Рік тому

    讲得非常好,深入浅出

  • @Triven0827
    @Triven0827 3 роки тому +5

    謝謝媽咪叔,雖然知道CNN在做什麼 但對背後的物理意義不是很明白 今天的講解讓我有新的突破 感謝

  • @ligangt85
    @ligangt85 3 роки тому +2

    通过移码,倒序相乘再相加,寻找低频特征。 主要用于信号处理。 学到了 学到了

  • @stevenwong1099
    @stevenwong1099 3 роки тому +4

    希望妈咪叔讲一下神经网络方面的知识,感谢

  • @beike263
    @beike263 2 роки тому

    感谢up主的精彩讲解,希望推荐更多有趣的书给我们

  • @gossip_2023
    @gossip_2023 3 роки тому

    本来想吐槽一下听不懂你讲的什么鬼天书,没学过微积分去逛商场还不能积分了咋滴。但是一看其他人的评论,我还是算了,其实你讲的挺好的,思路清晰并且深入浅出,一看就懂了!

  • @ArchonLee3
    @ArchonLee3 3 роки тому +1

    正在学深度学习,还没看到卷积网络,正好先了解一下~感谢

  • @shawndee-p1o
    @shawndee-p1o Рік тому

    卷积神经网络用到的数学运算不是卷积运算,而是相关运算。相关运算同卷积运算很像,也是两组数的“加乘”运算(数学中的傅里叶变换,拉普拉斯变换,… 都是两组数的加乘运算),相关运算比卷积运算更简单(不用反转),举例,相关运算: a1xb1+a2xb2+a3xb3, 卷积运算: a1xb3+a2xb2+a3xb1。由于历史原因,卷积神经网络是个误称(misnomer)。

  • @jiaweigong3411
    @jiaweigong3411 3 роки тому

    非常感谢。

  • @hudaniel3213
    @hudaniel3213 2 роки тому

    经过妈咪深入检出的讲解,我终于对卷积有了更加模糊的了解

  • @yeeyun1467
    @yeeyun1467 3 роки тому +5

    如果早點出這個系列,當初就可以學得輕鬆一點了

  • @chainqueueing5474
    @chainqueueing5474 2 роки тому

    如 Ruilong Chen 所說, CNN 其實并没有用到视频里的 convolution. 其實是 product & sum, 如同內積, 是做 correlation. (correlation 是計算 和 3x3 or 5x5 or 7x7 Weighting pattern 的相似性)

  • @siweizhou5401
    @siweizhou5401 3 роки тому

    这起很棒 友善催更!

  • @ephaytang
    @ephaytang 3 роки тому +1

    其实就是每一个像素把周围的像素也拿进来,按一定的参数算一下,得到一个新的值。

  • @relenchen
    @relenchen 3 роки тому +4

    卷积(convolution)解释得比较清晰。需要指出的是卷积神经网络(Convolutional Neural Network)并没有用到视频里的 convolution. 他的W没有翻转,其他基本一样,这个数学上叫correlation.

    • @chainqueueing5474
      @chainqueueing5474 2 роки тому

      正確 ! 如所說, CNN 其實并没有用到视频里的 convolution. 其實是 product & sum, 如同內積, 是做 correlation. (correlation 是計算 和 3x3 or 5x5 or 7x7 Weighting pattern 的相似性)

  • @jianhualiu1553
    @jianhualiu1553 Місяць тому

    谢谢博主,不但讲解,还推荐书。

  • @Quantum898
    @Quantum898 Рік тому

    thanks a lot for easy-to-understand explanation of CNN😀

  • @dianeliu4483
    @dianeliu4483 2 роки тому

    这集真的很好 我作为一个信息系统的研究生都总是不相信AI, 质疑他的有效性,看了这集决定去读读这本书

  • @qlee759
    @qlee759 3 роки тому +1

    周二考试,懂模型原理了。 老师只给了积分公式啥都没标注也是绝了。

    • @gossip_2023
      @gossip_2023 3 роки тому

      换我就只会问老师怎么能得到双倍积分以及积分要如何兑换礼品🎁

  • @sumiko1406
    @sumiko1406 3 роки тому

    我的理解是卷积是一种算法,也就是两个序列相乘求和。找定某一种特定的序列w就可以找出另一个序列x的某种特征。所以找出w是关键,可能通过大量数据学习得到接近的一个w。但是同样也应该有其他算法可以完成这个目的。卷积算法的优势和劣势是什么呢?我们为啥要选择这个算法呢?

  • @gossip_2023
    @gossip_2023 3 роки тому

    说到积分,妈咪叔下次能不能讲一下如何能得到双倍积分以及积分如何兑换?谢谢🙏

  • @RobinHappyLife
    @RobinHappyLife 3 роки тому +2

    妈咪叔利害!👍!堪称史上最清晰的卷积运算讲解。

  • @ideafreemac
    @ideafreemac 8 місяців тому

    能否讲讲当有relu,或 dropout 等不可导函数时,对神经网络反向传播梯度的影响?

  • @noname-pp4rb
    @noname-pp4rb 3 роки тому +1

    终于明白为啥那么耳熟。因为26年前学习信号与系统时学过。

    • @eamoncat
      @eamoncat 2 роки тому +1

      你比我大三届,学长

  • @dagouwu395
    @dagouwu395 2 роки тому

    反卷积也很有用,在各种谱分析中反卷积可以提取出滤镜,用于特征分析

  • @bebystudy
    @bebystudy 2 роки тому

    太神了!講得有夠好

  • @df140
    @df140 2 роки тому

    就像陣列雷達的相位取樣與濾波掃描,亦如夜視鏡抓取特定光波波長,也像製圖軟體在n個圖層到m個子圖層中加工選配,用一個運算核與輔助式來分層約化提取所需要的訊息特徵。
    其實不只視角宇宙或元宇宙,整個真實世界本身都是如此,我們的所見,只限於我們的感知範圍與主觀選取,能透過工具而擴大,卻終究發現工具亦是受限反身性的主觀世界延伸,在那之外就是不可確定性的全息無客觀存在(Hawking, 2012)。
    還是一樣,不論機械學習是如何進行反熵模擬,總體過程仍是發散而非真正收斂,背後持續配合內外部變化的動態核心主導判斷,仍非運算公式能夠獨立形成並取代大腦。
    『#Σ困境』
    『#非決定性』
    --------------
    想起一個公案
    比如一杯水
    凡人見之是水 天人視是甘露 餓鬼眾生所見盡為濃血

  • @robintarlac9540
    @robintarlac9540 3 роки тому +3

    欲望驱动认知。这是人工智能与人的本质区别。认知方式与学习能力即使超越人类,但没有欲望,就不可能自主创造。

    • @classic_guitar1891
      @classic_guitar1891 3 роки тому

      深以为然,机器没有灵魂

    • @lucynomnom
      @lucynomnom 3 роки тому

      人类的智慧是连续的,AI是离散的

  • @userx001
    @userx001 Рік тому

    提個問題:如果這個世界存在駕馭萬有的公式,這個公式是離散形式? 還是數位形式或是說數字形式?

  • @Jersey1225
    @Jersey1225 3 роки тому +2

    我的初恋那一刻一辈子都记得,估计是直接层到底了……

  • @caochris037201
    @caochris037201 9 місяців тому

    订阅了你的youtube,总能学到不少新东西。在这个视频中的那个网站名能告诉我吗?我怎么寻找?

  • @dypolo11
    @dypolo11 3 роки тому +1

    背后挂的画的是那个什么无限长的边,52个白键36个黑键的白色电子琴,麦克风用绿植遮了一半,衣服有小熊LOGO,似乎隐藏着什么暗示。

    • @川岸柳
      @川岸柳 3 роки тому

      挂的画是 Mandelbrot

  • @hj_92
    @hj_92 3 роки тому +1

    看到后面的应用才发现原来大学里的选修课, computer vision and image processing里有教过,
    现在才知道这就是卷积神经网络…

  • @henrygu6149
    @henrygu6149 3 роки тому +3

    其实就是根据咱们高中学到的二项不等式定理,区域跟卷积核长得越像,卷积值越高。

  • @heieschokolade7275
    @heieschokolade7275 3 роки тому

    个人感觉直接从傅里叶变换,频域分析入手比较好懂

  • @rickli84
    @rickli84 3 роки тому +4

    感谢!今年为了写篇关于自主定位系统的小论文看了好多关于自动驾驶 滤波器之类的东西,直到搞定论文也没真的明白卷积,看过这个视频终于觉得有点开窍了。。。

    • @SaintPiMi
      @SaintPiMi 3 роки тому

      我说呢怎么看不懂你的论文,原来你写论文的时候都不明白卷积, 哈哈哈哈

    • @rickli84
      @rickli84 3 роки тому

      @@SaintPiMi 善哉 善哉,我是搞应用的,能看懂理论当然好,看不懂的话也不妨碍,拿来用的都是被专家反复验证过的东西

  • @王剛-m7n
    @王剛-m7n 2 місяці тому

    初中生能理解積分嗎?😬原來,卷,是這個意思,這麼卷起來了,虎頭豹尾環環咬住,鬆不開了!

  • @ericthekingmaker9028
    @ericthekingmaker9028 2 роки тому

    嗯,如果我们在注册网站的时候不再用通过那个九宫格找红绿灯,找大巴,找自行车的测试,计算机利用卷积神经网络识别的技术就算普及了😀

  • @ghsc_jerry465
    @ghsc_jerry465 3 роки тому

    妈咪说你能说一下为什么气味可以闻出疾病嗎?

  • @abc19977
    @abc19977 3 роки тому +2

    9:03,这个新的序列是怎么算出来的?W有三个,X有10个,他们怎么对应算的乘法呢?

    • @ashburnfish2775
      @ashburnfish2775 3 роки тому +2

      就象你手里拿着放大镜去看书一样,放大镜比书小,你把放大镜从书的左边移到右边看一遍。所谓“滤”一遍。

    • @yan3876
      @yan3876 3 роки тому +3

      將w倒敘跟x的1、2、3項相乘並求和作為新序列的第1項,以此類推

    • @fannewman4916
      @fannewman4916 3 роки тому

      妈咪说取了中间的8个数,不知道是什么意思。

    • @bowenqiu9123
      @bowenqiu9123 3 роки тому +2

      @@fannewman4916 3个w先和10个x里的前三个进行运算,这样就得到一个结果,然后w向右移动一个数字的位置,再和10个x里的第二,第三,和第四个数字进行运算,这样就得到第二个结果,以此类推。因为w有三个数字,x有10个数字,w只能向右移动7次,再加上第一次的结果,所以最终只能算出8个结果

  • @andotsy
    @andotsy 3 роки тому +2

    卷积核是怎么计算出来的?一个一个试吗?

    • @路西西-k3j
      @路西西-k3j 3 роки тому

      在CNN裡差不多就是一個一個試來看loss是多少,然後用神秘的梯度計算決定要怎麼調整核的數值。

    • @donghuang4185
      @donghuang4185 3 роки тому

      backpropagation

  • @petercheung63
    @petercheung63 3 роки тому

    正片,多謝

  • @zaneLin0708
    @zaneLin0708 2 роки тому

    我是看了好多神经网络的书籍和视频,3blue1brown讲得最全面清晰易懂。 虽然不是母语,可就是通俗易懂。中文节目看了和没看一样,有机会再讲都出来了……

  • @jack258001
    @jack258001 3 роки тому

    求科普量子機器學習、Weak value、量子去相干

  • @guodonglin5711
    @guodonglin5711 3 роки тому

    那个1/3卷积后面部分的1和1/3是怎么算的?没看懂啊

  • @mickeyzhang1178
    @mickeyzhang1178 3 роки тому +1

    看懂了,滤镜只是初级应用,人脸识别还需要更复杂的东西。

  • @yifengchen5274
    @yifengchen5274 2 роки тому

    9:02是怎么的出来的?

  • @qchentj
    @qchentj 7 місяців тому

    8:59 那两个1 是咋算出来的?

  • @任晉緯
    @任晉緯 3 роки тому +1

    終於等到更新了

  • @eamoncat
    @eamoncat 2 роки тому

    上学时教卷积积分的老师福建口音太浓了,搞得我很不喜欢听那门课,结果逃课几节下来发现就算去掉口音影响也听不懂了,于是破罐破摔就挂了,而且不仅挂了这个,信号原理也挂了。直到前些年我压力一大就会做梦明天考信号卷积积分我不会解。

  • @eggdog
    @eggdog 3 роки тому

    最近剛好在看python的deeplearning,真不錯

  • @longxiangyan4404
    @longxiangyan4404 3 роки тому +4

    我挺好奇这些卷积核都是怎么找到的。

    • @mattlee6940
      @mattlee6940 2 роки тому

      會透過訓練集資料反向傳播至淺層網路,給予權重和特定參數

  • @topstr
    @topstr 3 роки тому

    convolution 感覺跟物理數學中的Green function 、heat kernel 有關係

  • @stephensu4371
    @stephensu4371 3 роки тому +1

    媽叔,我想請你講DSP,數字信號處理

  • @jiangxu3895
    @jiangxu3895 3 роки тому

    讲的好,讲出本质了,点赞了。我有个问题,机器学习里面的矩阵运算的时候,是否该遵循之前提到的一维的卷积运算规则呢,是否不一定遵循卷积运算规则呢?

  • @xanaduzhang186
    @xanaduzhang186 3 роки тому

    数字图像处理里用到很多,估计很多工科的信号处理课程对这个都有介绍。。。不过我感觉,对0基础的人来说,只1个视频是讲不清楚的

  • @李明-g4t
    @李明-g4t 3 роки тому

    人的自我意识快乐痛苦和欲望等等!

  • @gaulimalin1149
    @gaulimalin1149 3 роки тому +1

    9:10 没看懂,第四个1/3是怎么算出来的

    • @louisc398louis4
      @louisc398louis4 3 роки тому +3

      x序列連續三個數為組,最多八組。組中三個數倒著與w序列中的數相乘,乘完相加,得到一個數。
      每一組一個數,所以共八個數。第四個1/3是(-1,1,1)這一組的結果。

  • @conanluo
    @conanluo 2 роки тому

    1:54 我以為媽咪叔拿自己的書出來推廣🤑🤑,第一眼看。。。好像

  • @pinepuff999
    @pinepuff999 2 роки тому

    妈咪叔搬到国外了吗

  • @worrybuffet7108
    @worrybuffet7108 3 роки тому

    thanks for your explanation!

  • @Canton_Cuisine
    @Canton_Cuisine 3 роки тому

    额,跟我学的不太一样,希望妈咪说去看一本书:白话深度学习和TensorFlow,也是非常简单的一本书。

    • @learn_azure_ez
      @learn_azure_ez 3 роки тому

      厨娘和妈咪都这么厉害了😂我这个码农对卷积是一窍不通!

    • @Canton_Cuisine
      @Canton_Cuisine 3 роки тому

      @@learn_azure_ez 额,如果你是做人工智能的,应该都懂吧

  • @maxliu1613
    @maxliu1613 3 роки тому

    哈哈 又学到了!

  • @李明-g4t
    @李明-g4t 3 роки тому

    宇宙中绝大部分物质的存在方式都是类似银河系这样的涡旋星系!宇宙中物质几乎都是球形星体就够不可思议的了,而且都稳定的保持轨道像银河系一样绕着一个中心转圈!物理实验中一个微小的变量就会使结果不同,想想星系如何保持轨道的!牛顿在《自然哲学的数学原理》中说自发形成和轨道维持的原因不太可能仅仅是由于万有引力的存在!没法解释行星周期与3分之2次幂的关系和彗星问题!他把星系形成和轨道维系的原因归结为上帝的统治!这个问题叫做牛顿第一推动问题!牛顿时代的物理学在基本力上未发展完全!但是爱因斯坦时代考虑到了除了万有引力之外的电磁力和其他两种力,到目前为止物理上未发现第五种作用力!但是爱因斯坦也是说物理学没法解释星系形成和星系维持轨道的原因,他还是把这些的原因归结为上帝的统治!数学计算上当一个恒星和行星只有万有引力情况下,可以形成椭圆轨道的形态!可以不是绝对,概率上绝大多数可能性是相互吸引碰撞或融为一体,如果考虑其他星体的4种作用力就没法解释宇宙中星系如何自发形成星系和如何维持轨道的了!

  • @洪瑜隆
    @洪瑜隆 3 роки тому +2

    口條與論訴層次都抓的恰到好處!

  • @MrSuperminn
    @MrSuperminn 3 роки тому

    我最喜歡看的就是字幕組暈倒的樣子

  • @leixiao169
    @leixiao169 2 роки тому

    谢谢 很好的视频

  • @harrysun691
    @harrysun691 3 роки тому

    当年信号与系统课差点挂科了。。。😄

  • @zongjiyang2378
    @zongjiyang2378 3 роки тому

    看之前的视频,啥内容的都能讲明白,都能看懂,这个讲的真是一头雾水

  • @dojjy5798
    @dojjy5798 3 роки тому +1

    12:00 這個不就是高斯嗎

  • @dehaojiang3332
    @dehaojiang3332 2 роки тому

    竟然需要初中数学基础 哈哈哈 我现在只有一百以内加减法的水平

  • @光标陈
    @光标陈 3 роки тому

    游戏图形领域也经常运用卷积!数学伟大

  • @chenwilliam5176
    @chenwilliam5176 Рік тому +1

    在臺灣,以前大學修微積分,Converlution 是翻譯為「褶積」🎉

  • @ErhuRocker
    @ErhuRocker 3 роки тому

    節目越來越有羅輯思維的感覺,但更加專精

  • @aimoll5046
    @aimoll5046 3 роки тому +1

    妈咪叔终于讲到机器学习了吗,哈哈哈

  • @牟牟-f8v
    @牟牟-f8v 3 роки тому

    热乎的,来啦

  • @jimpaul15
    @jimpaul15 3 роки тому

    很科普的一篇 讚

  • @miantiaosi3366
    @miantiaosi3366 3 роки тому +1

    演草硬核了。滤波器我明白了,很棒!

  • @祁雪松
    @祁雪松 3 роки тому +2

    说好的初中数学就能看懂的呢?别和王刚老师推荐一道家常菜一样。

  • @jackblack6808
    @jackblack6808 3 роки тому

    媽咪說真的是很硬核的優質頻道!

  • @ylu3003
    @ylu3003 3 роки тому

    这个是不是就是概率里面的卷积公式

  • @sparkenquito
    @sparkenquito 3 роки тому

    还是回形针的讲解更易懂。

  • @ryanleung4228
    @ryanleung4228 3 роки тому +1

    妈咪叔最近跑哪去了

  • @200斤肥宅
    @200斤肥宅 3 роки тому

    人脸识别系统真是脆弱不堪……

  • @魏博奕
    @魏博奕 2 роки тому

    "並不是電腦越來越像人類,而是發現人類其實像電腦"

  • @tonyleung815
    @tonyleung815 3 роки тому +1

    1:59 杨立昆:你礼貌么?

  • @wwilliam1928
    @wwilliam1928 3 роки тому

    王冠上的明珠高不可攀,量子力学需要量子脑瓜,一个理论能听的懂的人越少就越尖端!顶一个

  • @影视大全-h4g
    @影视大全-h4g 3 роки тому

  • @川岸柳
    @川岸柳 3 роки тому

    白板讲解时 左下角 logo 跳来跳去干扰注意力

  • @chesterd8274
    @chesterd8274 3 роки тому

    看来只有遵循自然法,万物同宗呀

  • @てつがく-n4r
    @てつがく-n4r 3 роки тому

    終於通了什麼是卷積

  • @deanzhang9099
    @deanzhang9099 3 роки тому

    让我这个小白看懂了且入门了,可以去吹了...