30:24, от 0 до -1.5 по ОX и OY. Но масштабы на двух графиках разные, и, как я понимаю, нет взаимооднозначного преобразования между графиками. Или есть. Можете пояснить?
Возможно такое преобразование есть, но суть даже не в этом. Главная мысль в том, что даже после масштабирования итд мы нормально не сможем сэмплировать из квадрата [-1.5, 1.5] x [-1.5, 1.5]. По поводу преобразований: вы видимо хотите построить биекцию из одного пространства в другое. Такие модели существуют и называются flow. Если вкратце, они как раз строят биекцию из пространства с "плохим" распределением в пространства с нормальным распределением. К сожалению, этот материал не влез в программу.
Я тоже хотел бы все рассказать, но помните о других слушателях, которые не достаточно хорошо разбираются в теории вероятности и мат. анализе. Я сознательно оставил вариационный вывод за рамками этой лекции.
Отличная лекция! Огромное спасибо!
какие экстремальные трюки с переодеванием))
На 25:01 должно быть для q (x-mu)^2
Как интересно! :)
Почему этот человек не ведёт все лекции :)
Какие подписи к осям в распределении точек? Это мо и дисперсия?
30:24, от 0 до -1.5 по ОX и OY. Но масштабы на двух графиках разные, и, как я понимаю, нет взаимооднозначного преобразования между графиками. Или есть. Можете пояснить?
Возможно такое преобразование есть, но суть даже не в этом. Главная мысль в том, что даже после масштабирования итд мы нормально не сможем сэмплировать из квадрата [-1.5, 1.5] x [-1.5, 1.5].
По поводу преобразований: вы видимо хотите построить биекцию из одного пространства в другое. Такие модели существуют и называются flow. Если вкратце, они как раз строят биекцию из пространства с "плохим" распределением в пространства с нормальным распределением. К сожалению, этот материал не влез в программу.
@@НикитаБалаганский хорошо, спасибо!
Хотелось бы получить больше математического обоснования в лекциях
Я тоже хотел бы все рассказать, но помните о других слушателях, которые не достаточно хорошо разбираются в теории вероятности и мат. анализе. Я сознательно оставил вариационный вывод за рамками этой лекции.
@@НикитаБалаганский понял, хорошо)
31:55 поплыли глаза)
23:56 не особо понятно что по оси икс на правом графике. верхний предел интегрирования?
29:21 здесь было бы приятно знать сколько реально размерность скрытого пространства. На рисунке проекция на 2d или сами распределения?
Интересная обзорная лекция, спасибо
не особо внятно и нормально объяснены недостатки автоэнкодера и преимущества вариационного, очень поверхностный материал
Ужасная лекция, ничего не объясняется нормально и подробно, все на уровне вот смотрите это так, а некоторое и хуже
Слишком радужная лекция, глаза слепит...