Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
1:12:28这里应该是讲错了,图生图的操作在原论文第三章开头,直接用CLIP image encoder拿到输入图像的embedding,就可以加噪声去decoder进行扩散操作了,而不是再走一遍text encoder + prior
而且用CLIP的圖像特徵能直接得到文本特徵嗎?雖然CLIP好像是用線性映射把文本特徵映射到Image-text embedding space的
太喜欢这个老师的讲解了~~~
Clear explanation. Thanks for the explanation for a series of papers.
Great, give a summary development of the recent diffusion model.
Mu Li的分身
U-net是必要的,不用U-net效果都不行,并不是用其他的网络都可以的
赞一下,进度条做了切割,更周到
ddpm预测epsilon,diffusion用unet如果带一个从input到output的skip link,有什么区别?本身unet有skip link就是预测残差呀?
讲的深入简出, 听口音,这期演讲人是西安人?
讲的是真好,一个视频里面的概念和内容配合chatGPT的解释,都够我做一个私人知识库了,感谢!
謝邀,我中間那些題外的我已經聽不懂了😂😂
講的真好, 學習很多 希望這個頻道可以持續經營下去
讲的太透彻了!!👍
Great video!
无意间看到了真的讲的很好
Please chat through midjourney
受益匪浅🙏🙏🙏
刚刚出炉?
666
讲的太好了
感谢UP主的精彩解析
clip不就是把文本特征和图像特征对齐么。那么y和z理论上就是一样的啊。prior学习的东西是不是可以理解为clip的残差
1:12:28
这里应该是讲错了,图生图的操作在原论文第三章开头,直接用CLIP image encoder拿到输入图像的embedding,就可以加噪声去decoder进行扩散操作了,而不是再走一遍text encoder + prior
而且用CLIP的圖像特徵能直接得到文本特徵嗎?雖然CLIP好像是用線性映射把文本特徵映射到Image-text embedding space的
太喜欢这个老师的讲解了~~~
Clear explanation. Thanks for the explanation for a series of papers.
Great, give a summary development of the recent diffusion model.
Mu Li的分身
U-net是必要的,不用U-net效果都不行,并不是用其他的网络都可以的
赞一下,进度条做了切割,更周到
ddpm预测epsilon,diffusion用unet如果带一个从input到output的skip link,有什么区别?本身unet有skip link就是预测残差呀?
讲的深入简出, 听口音,这期演讲人是西安人?
讲的是真好,一个视频里面的概念和内容配合chatGPT的解释,都够我做一个私人知识库了,感谢!
謝邀,我中間那些題外的我已經聽不懂了😂😂
講的真好, 學習很多 希望這個頻道可以持續經營下去
讲的太透彻了!!👍
Great video!
无意间看到了真的讲的很好
Please chat through midjourney
受益匪浅🙏🙏🙏
刚刚出炉?
666
讲的太好了
感谢UP主的精彩解析
clip不就是把文本特征和图像特征对齐么。那么y和z理论上就是一样的啊。prior学习的东西是不是可以理解为clip的残差