Лекция. Генеративные модели, автоэнкодеры
Вставка
- Опубліковано 8 тра 2021
- Занятие ведёт Никита Балаганский.
Ссылка на материалы занятия: www.notion.so/1-08644d3c48c34...
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Отличная лекция! Огромное спасибо!
Как интересно! :)
31:55 поплыли глаза)
На 25:01 должно быть для q (x-mu)^2
Хотелось бы получить больше математического обоснования в лекциях
Я тоже хотел бы все рассказать, но помните о других слушателях, которые не достаточно хорошо разбираются в теории вероятности и мат. анализе. Я сознательно оставил вариационный вывод за рамками этой лекции.
@@user-wv7tv1ig6n понял, хорошо)
Интересная обзорная лекция, спасибо
29:21 здесь было бы приятно знать сколько реально размерность скрытого пространства. На рисунке проекция на 2d или сами распределения?
30:24, от 0 до -1.5 по ОX и OY. Но масштабы на двух графиках разные, и, как я понимаю, нет взаимооднозначного преобразования между графиками. Или есть. Можете пояснить?
Возможно такое преобразование есть, но суть даже не в этом. Главная мысль в том, что даже после масштабирования итд мы нормально не сможем сэмплировать из квадрата [-1.5, 1.5] x [-1.5, 1.5].
По поводу преобразований: вы видимо хотите построить биекцию из одного пространства в другое. Такие модели существуют и называются flow. Если вкратце, они как раз строят биекцию из пространства с "плохим" распределением в пространства с нормальным распределением. К сожалению, этот материал не влез в программу.
@@user-wv7tv1ig6n хорошо, спасибо!
23:56 не особо понятно что по оси икс на правом графике. верхний предел интегрирования?
не особо внятно и нормально объяснены недостатки автоэнкодера и преимущества вариационного, очень поверхностный материал
Ужасная лекция, ничего не объясняется нормально и подробно, все на уровне вот смотрите это так, а некоторое и хуже
Слишком радужная лекция, глаза слепит...