Лекция. Рекуррентная нейронная сеть
Вставка
- Опубліковано 13 тра 2023
- Занятие ведёт Татьяна Гайнцева.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Самое лучшее объяснение. Отличная методическая подача. Брольшое спасибо!
Лучшая. Очень круто и понятно. Особенно, когда показали картинку со всеми весами W,U,V прям мурашки пошли от того, что вот именно это и надо для понимания
Какая вы красивая! Лекция огонь! спасибо ❤❤
Наконец-то понятное объяснение, спасибо большое.
Большое спасибо за объяснение!
Отличная и понятная лекция на сложную тему! Спасибо 😊
Супер ролик, в 16 минут полное понимание структуры.
Thanks for explanation !
отличное объяснение, спасибо!
Не забудь родить ребёнка. ❤😊
@@user-us6xl5pm1x у меня уже достаточно детей, но к чему здесь это и с переходом на личности?
@@gigaproseполагаю, что имелось в виду пожелание передавать дальше ген людей, которые способны разбираться с рекуррентными сетями)
Спасибо за лекцию! Однако на слайде 9:18 заметил неточность в указанной размерности матрицы W. Если бы матрица весов была бы n×k (как указано на слайде), то выражение WX не имело бы решения, так как количество столбцов матрицы W не совпало бы с количеством строк вектора X. Мне кажется, что верная размерность матрицы W - это k×n, так как только в этом случае возможно осуществить перемножение.
Тоже это заметил)
Мне кажется в этом моменте подразумевалась W транспонированная, при составлении видимо забыли написать.
Не понятно, почему слой y считается неотъемлемой частью рекуррентного слоя. Это же просто полносвязный слой приставленный к слою h. Зачем ему быть того же размера k, он же может быть любого размера? Почему нельзя обойтись без него вообще и подавать выход h сразу на следующий рекуррентный слой?
Можно, так и делают, на самом деле. Здесь так, чтобы показать идею перехода от полносвязного слоя к RNN. Но вы правы, что стоило бы добавить это в лекцию
Че -то не много интереса проявлено к лекции? Видимо люди кто занимается нейросетями еще слабо представляют важность рекуррентных сетей! А а а ... ну да они же сложнее. Хотя это первые шаги к коммуникативным сетям. Это же не кому не интересно!😆
Вы нейросеть?
Девочка молодец. Но скучно слишком. Не способна завлечь. Просто бу-бу-бу. Надеюсь она будет работать над этим.
Иди смотри мистера биста если тебе динамика нужна. Лучшего объяснения, чем это, я ещё не видел