دیپ لرنینگ | گوگل نت و کانولوشن ۱ در ۱
Вставка
- Опубліковано 10 лют 2025
- اگر بخواهیم گوگل نت رو توی سه تا لغت خلاصه کنیم میشه Deep, Modular, Efficient. چند تا ایده مهم توی این نتورک هست از جمله اینکه Conv1*1 معرفی شده که اجازه میده به تعداد قابل توجهی فیلتر با سایز مختلف بزنیم. از طرفی ایده هایی مثل چند خروجی گرفتن برای جلوگیری از محو گرادیان و پولینگ میانگین (Average Pooling) رو تو این مقاله هم میبینیم.
مقاله Going deeper with convolutions:
arxiv.org/pdf/...
Alex Net
• مقاله شبکه عصبی الکس ن...
ResNet
• مقاله شبکه عصبی رزنت |...
VGGNet
• دیپ لرنینگ | VGGNet یا...
EfficientNet
• دیپ لرنینگ | Efficient...
U-Net
• مقاله شبکه عصبی یونت |...
00:30 فهرست محتوا و معرفی مقاله
01:14 بلاک Inception
01:55 ایده کانولوشن ۱ * ۱
10:50 بلاک کامل Inception
12:05 معماری شبکه گوگل نت GoogleNet
15:08 تفاوت Conv1d و Conv1*1
19:25 ایده چند خروجی
23:31 پولینگ میانگین AveragePooling
آدرس کانالهای ارتباطی:
بلاگ مقالات به روز حوزه: ctdrs.ir/ds1111
وبسایت دپارتمان علم داده: cafetadris.com...
کانال تلگرام تخصصی علم داده: @dslanders
id تلگرام من: @rezashokrzad
ممنون. 🙏
خوب بود ممنون
سلام،
ضمن تشکر از زحمات شما در ساده سازی مفاهیم و انتقال آنها، ممنون میشم اگر در این playlist در مورد شبکه های عصبی خاص مثل reservoir computing ها و spiking neural networks هم صحبت بشه. محتوای فارسی کمی در این حوزه ها وجود داره.
با تشکر