老师,关于最后部分GAN Introduction A little bit theory是没有录进去吗? speech.ee.ntu.edu.tw/~tlkagk/courses/MLDS_2018/Lecture/GAN%20(v2).pdf 以上是这门课的课件的链接,课件包含 A little bit theory,大家可以自行理解下!
His lectures are clear and concise. (Not in english, sorry) However, feel free to visit his website, where he puts his slides: speech.ee.ntu.edu.tw/~tlkagk/talk.html
李老师的课深入浅出,而且一直都有新东西加入,真是难得的好老师!!
李老师,简直是偶像,最棒的偶像之一。
最近准备开始学GAN, 感觉挺您的课就是最好的入门方式, 十分感谢!
讲的很棒!GAN = 两种学习方式对抗的结果;ML 本质是探讨人脑学习的方法,收益匪浅!
Love how the lecture is in english and he teaches in chinese haha. Also you can tell how passionate the lecturer.
讚嘆李教授把GAN講的深入淺出 讓資質駑鈍的我也聽的懂
謝謝老師,這個頻道幫助真的是太大了。
连我这种门外汉都理解得了,感谢老师深入浅出的讲解
I wish this video would have been in English, so well explained.
万分感谢李老师的辛劳付出, 辛苦了
想請問老師或同學,35:17是不是代表說D & G各自有一個object function?
也就是說整個neural network 有兩個object functions。
連結一:ua-cam.com/video/0CKeqXl5IY0/v-deo.html
质量相当高,非常不错的视频
未來助教的實習課, 是不是也可以上 UA-cam. 因為理論略懂後, 還是不知道該如何使用現有的 NN framework (如: PyTorch, 等) 程式碼來實作 ... Thanks.
最强中文机器学习课程,没有之一
真的好感謝 老師願意分享課程 讓想學習的人也能有管道學習
感谢李老师的贡献🤝
讲的超级棒,感谢李老师
1:02:37 真的讲得是太棒了,深入浅出,连中国有嘻哈的梗都可以有!
李老师拯救了我的分数
I like this tutorial! Easy to understand!
太赞了,每个视频都是高质量视频,谢谢HungYi,同时能否做个视频讲一下 GAN 和 VAE 的区别?
老师讲的好,学生就学的好,谢谢老师
解 argmax(D(x)) 可以通过gradient ascent的方法,让D(x)梯度反向传播到图像x上,但是问题是,生成出来的好的图片与不好的图片并没有肉眼可见的差别。
谢谢老师,从谢承熹老师那边来的
李老师讲的很棒~非常喜欢~
李老师居然也看知乎。。。。。作为大陆人我骄傲啊!!!!!!
李老师老二次元了;订阅了。
老師 請問這堂最後助教分享的新方法是什麼呢? 不知哪邊可以看到?謝謝
棒棒棒,老师用中文讲课,同时po出来英文资料
Excellent lecturer!
第二堂课的Preview:
• ua-cam.com/video/0CKeqXl5IY0/v-deo.html
• ua-cam.com/video/KSN4QYgAtao/v-deo.html
每年的课程都会不同,几乎涵盖最近一年的DL的发展大方向。
请问你在RU念书吗
@@renjiedai2562 不在呀,我在大陆念书
@@刘振东-t5p 我可以关注你的知乎吗
hi prof, just curious if lstm is used for the generator output, will it be able to capture the dependency? (Says no more standalone pixel)
Very nice presentation. Better than Ian’s talk.
English or subtitled version could be nice.
But, please add language info in title. Such as:
GAN Lecture 1 (2018): Introduction (Chinese)
Is there public learning materials like ppt ? Thanks for everyone that could help me . This course is so good !
Here are the slides: speech.ee.ntu.edu.tw/~tlkagk/courses_ML20.html
@@HungyiLeeNTU Oh my god, thanks a lot!!!
Please provide English sub titles
溫故知新, 感謝老師~
段子真多,哈哈,尤其是讲到discrimator的时候,说"他就像政论节目的名嘴一样,什么东西都说是不好的,让他自己想一个好东西出来,却想不到"。
太棒了
sliced bread个人感觉应该是指neural networks吧,网络结构看着多像切片面包,所以应该是戏谑的方式指neural networks
老师花了大量的篇幅在说encoder的输出可以作为GAN的generator的输入。但问题是,GAN的输入就是Normal distribution啊,而不是某个encoder的结果。
诶,这个.....
老师开头说GAN的输入分布不怎么影响最后学到的结果
主要还是讲述GAN和Auto-Encoder的联系和对比吧,突出GAN的优势
谢谢李老师
感恩讚嘆
准研一暑假来补课!!!
哇,欧克,ok,非常very good!
李老师,有计划讲ResNet吗,哈哈哈哈
老师,关于最后部分GAN Introduction A little bit theory是没有录进去吗?
speech.ee.ntu.edu.tw/~tlkagk/courses/MLDS_2018/Lecture/GAN%20(v2).pdf
以上是这门课的课件的链接,课件包含 A little bit theory,大家可以自行理解下!
在GAN Lecture 5 (2018): General Framework中有详细讲述
ua-cam.com/video/av1bqilLsyQ/v-deo.html
老師太棒了
感谢李老师的讲解,非常非常精彩!! 我有一个疑问,假设G就是一个YOLO,输出是bounding box的大小和坐标;如果再加上一个D,用minmax去train这个GAN,那么generator出来的结果会不会比一般YOLO的结果要好呢?谢谢
我感觉区别不会很大吧,用老师的话说,判断bbx的坐标不需要什么大局观啊,感觉用不到D
类别 汽车 可是真皮
感谢教授!请问这是研究生还是本科生课程?
谢谢李老师的课 我有一个问题在算法优化的片子里面 我可以理解要最大化loss, 但是不是特别理解 1-D(x~)。 为什么要最小化D
D(x~)代表给生成的假图片评分,因此要最小化D(x~),在原始的GAN更新公式中就是最大化1-D(x~).
homework, please,please~
在哪可以下载李老师最新的课件
找到没有啊,老兄
在老师的台大个人主页可以下载。
Algorithm 那一页 Update generator paremeters 是不是应该是 minimize ?
maximize是对的,因为你固定住D的参数,调整G的参数使得最后的log-likelihood越来越大,也就是「让D越来越认可G的输出」
minimize JS divergence,后面的课程有讲
Cool
作业的代码有github网址吗
老师:有没有助教讲解作业的视频呀?
提问一哈
视频末提到的generater model无法学习components之间的关联,没有大菊观~这个地方用CNN不是可以学习到不同components之间的关系嘛?是不是我哪里理解有问题。
李老师您好,学了您的课受益匪浅,有个问题想咨询您,最终生成的图片分布和真实图片的分布会一样吗?
理論上會,但實際上可能不會,請見: www.offconvex.org/2017/07/06/GANs3/
谢谢李老师,祝您生活愉快
1:14:29 人家是异瞳啦
李老师,你好,请问有没有公开的幻灯片呢?
speech.ee.ntu.edu.tw/~tlkagk/courses.html
作业在哪里找呢?
請問這個教程是bachelor degree還是master degree的課。
有修過我的「機器學習」的都可以修
pokemon, gotta catch them all
为什么这么好的视频不支持字母自动生成呢?
老师我是你的粉丝!!!因为硬件条件不行,做CV方面的学习好难,都只能跑一些小模型小数据,不知道该怎么办唉
我聽說 google codelabs 有運算資源可以用 (我自己沒試過,所以也不知道用起來怎樣)
wow!謝謝!
李老师,能否麻烦你分享一下这门课的PPt
李老师主页有的哦
能发一下网址吗,我没有找到李老师视频对应的PPt
可以来李老师您这里读博士吗?
不可以你要足够强
@@weihai1shen743 数学功底扎实,计算物理研究生,可以吗?最近几年一直从事深度学习工作,想系统的去学习下,哈哈!
@@xiangchaowu9320 hhhhhh, 我瞎说的,你很厉害~
李老师你好,请问那20万个二次元头像的图片有下载的地址吗?
在這裡: docs.google.com/presentation/d/1UdLXHcu-pvvYkNvZIWT7tFbuGO2HzHuAZhcA0Xdrtd8/edit?usp=sharing (P29) ,不過應該沒有 20 萬那麼多
好的,谢谢老师了!
二刺螈的福音
咦,为什么我感觉之前传过,老师更新了什么东西嘛
新的
這段影片的內容之前有講過了 (ua-cam.com/video/G0dZc-8yIjE/v-deo.html),只是這學期再講了一次
好的,多谢老师,快速再看一遍XD
~~~好~~
老师您有课件的共享么?
speech.ee.ntu.edu.tw/~tlkagk/courses/MLDS_2018/Lecture/GAN%20(v2).pdf
其实老师的课件都在他的个人主页上:
speech.ee.ntu.edu.tw/~tlkagk/courses.html
你再选择对应课程,即可下载课件
和EM算法思想很像
乂GAN乂
Please publish an English version
try to learn Chinese 😄
Most people would ask for it. Please stop overcomplicating things.
His lectures are clear and concise. (Not in english, sorry)
However, feel free to visit his website, where he puts his slides:
speech.ee.ntu.edu.tw/~tlkagk/talk.html
李老师招PhD不 哈哈
淦!
感谢李老师
太棒了