Лекция. Генеративные модели, автоэнкодеры

Поділитися
Вставка
  • Опубліковано 8 тра 2021
  • Занятие ведёт Никита Балаганский.
    Ссылка на материалы занятия: www.notion.so/1-08644d3c48c34...
    ---
    Deep Learning School при ФПМИ МФТИ
    Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
    За нашими новостями можно следить здесь:
    Наш канал в TG: t.me/deep_learning_school_news
    Официальный сайт: dls.samcs.ru/ru/
    Официальная группа ВК: dlschool_mipt
    Github-репозиторий: github.com/DLSchool/dlschool
    Поддержать канал можно на Boosty: boosty.to/deeplearningschool
    ФПМИ МФТИ
    Официальный сайт: mipt.ru/education/departments...
    Магистратура: mipt.ru/education/departments...
    Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
    Онлайн-магистратура "Цифровая экономика": digec.online/
    Лаборатории ФПМИ: mipt.ru/education/departments...

КОМЕНТАРІ • 16

  • @XoJI991
    @XoJI991 3 роки тому +10

    Отличная лекция! Огромное спасибо!

  • @varivodasergei
    @varivodasergei 6 місяців тому

    Как интересно! :)

  • @szhavel
    @szhavel 6 місяців тому +1

    31:55 поплыли глаза)

  • @oanovitskij
    @oanovitskij 2 роки тому +2

    На 25:01 должно быть для q (x-mu)^2

  • @alili3664
    @alili3664 3 роки тому +5

    Хотелось бы получить больше математического обоснования в лекциях

    • @user-wv7tv1ig6n
      @user-wv7tv1ig6n 3 роки тому +2

      Я тоже хотел бы все рассказать, но помните о других слушателях, которые не достаточно хорошо разбираются в теории вероятности и мат. анализе. Я сознательно оставил вариационный вывод за рамками этой лекции.

    • @alili3664
      @alili3664 3 роки тому

      @@user-wv7tv1ig6n понял, хорошо)

  • @ai_minds_
    @ai_minds_ 2 роки тому

    Интересная обзорная лекция, спасибо

  • @DiamondSane
    @DiamondSane 2 роки тому

    29:21 здесь было бы приятно знать сколько реально размерность скрытого пространства. На рисунке проекция на 2d или сами распределения?

  • @alili3664
    @alili3664 3 роки тому +1

    30:24, от 0 до -1.5 по ОX и OY. Но масштабы на двух графиках разные, и, как я понимаю, нет взаимооднозначного преобразования между графиками. Или есть. Можете пояснить?

    • @user-wv7tv1ig6n
      @user-wv7tv1ig6n 3 роки тому

      Возможно такое преобразование есть, но суть даже не в этом. Главная мысль в том, что даже после масштабирования итд мы нормально не сможем сэмплировать из квадрата [-1.5, 1.5] x [-1.5, 1.5].
      По поводу преобразований: вы видимо хотите построить биекцию из одного пространства в другое. Такие модели существуют и называются flow. Если вкратце, они как раз строят биекцию из пространства с "плохим" распределением в пространства с нормальным распределением. К сожалению, этот материал не влез в программу.

    • @alili3664
      @alili3664 3 роки тому

      @@user-wv7tv1ig6n хорошо, спасибо!

  • @DiamondSane
    @DiamondSane 2 роки тому

    23:56 не особо понятно что по оси икс на правом графике. верхний предел интегрирования?

  • @kamila5207
    @kamila5207 5 місяців тому

    не особо внятно и нормально объяснены недостатки автоэнкодера и преимущества вариационного, очень поверхностный материал

  • @user-xe9ds5th9m
    @user-xe9ds5th9m 2 роки тому +5

    Ужасная лекция, ничего не объясняется нормально и подробно, все на уровне вот смотрите это так, а некоторое и хуже

  • @user-gk2hf3tq8d
    @user-gk2hf3tq8d 6 місяців тому

    Слишком радужная лекция, глаза слепит...