Лекция. Генеративные модели, автоэнкодеры

Поділитися
Вставка
  • Опубліковано 10 січ 2025

КОМЕНТАРІ •

  • @XoJI991
    @XoJI991 3 роки тому +11

    Отличная лекция! Огромное спасибо!

  • @ЕвгенияЕлизейко
    @ЕвгенияЕлизейко 27 днів тому

    какие экстремальные трюки с переодеванием))

  • @oanovitskij
    @oanovitskij 2 роки тому +2

    На 25:01 должно быть для q (x-mu)^2

  • @varivodasergei
    @varivodasergei Рік тому

    Как интересно! :)

  • @gogaworm
    @gogaworm 28 днів тому

    Почему этот человек не ведёт все лекции :)

  • @МарияТаран-с8щ
    @МарияТаран-с8щ 5 місяців тому

    Какие подписи к осям в распределении точек? Это мо и дисперсия?

  • @alili3664
    @alili3664 3 роки тому +1

    30:24, от 0 до -1.5 по ОX и OY. Но масштабы на двух графиках разные, и, как я понимаю, нет взаимооднозначного преобразования между графиками. Или есть. Можете пояснить?

    • @НикитаБалаганский
      @НикитаБалаганский 3 роки тому

      Возможно такое преобразование есть, но суть даже не в этом. Главная мысль в том, что даже после масштабирования итд мы нормально не сможем сэмплировать из квадрата [-1.5, 1.5] x [-1.5, 1.5].
      По поводу преобразований: вы видимо хотите построить биекцию из одного пространства в другое. Такие модели существуют и называются flow. Если вкратце, они как раз строят биекцию из пространства с "плохим" распределением в пространства с нормальным распределением. К сожалению, этот материал не влез в программу.

    • @alili3664
      @alili3664 3 роки тому

      @@НикитаБалаганский хорошо, спасибо!

  • @alili3664
    @alili3664 3 роки тому +7

    Хотелось бы получить больше математического обоснования в лекциях

    • @НикитаБалаганский
      @НикитаБалаганский 3 роки тому +2

      Я тоже хотел бы все рассказать, но помните о других слушателях, которые не достаточно хорошо разбираются в теории вероятности и мат. анализе. Я сознательно оставил вариационный вывод за рамками этой лекции.

    • @alili3664
      @alili3664 3 роки тому

      @@НикитаБалаганский понял, хорошо)

  • @szhavel
    @szhavel Рік тому +1

    31:55 поплыли глаза)

  • @DiamondSane
    @DiamondSane 3 роки тому

    23:56 не особо понятно что по оси икс на правом графике. верхний предел интегрирования?

  • @DiamondSane
    @DiamondSane 3 роки тому

    29:21 здесь было бы приятно знать сколько реально размерность скрытого пространства. На рисунке проекция на 2d или сами распределения?

  • @ai_minds_
    @ai_minds_ 2 роки тому

    Интересная обзорная лекция, спасибо

  • @kamila5207
    @kamila5207 Рік тому +1

    не особо внятно и нормально объяснены недостатки автоэнкодера и преимущества вариационного, очень поверхностный материал

  • @СергейРоговой-у6я
    @СергейРоговой-у6я 2 роки тому +9

    Ужасная лекция, ничего не объясняется нормально и подробно, все на уровне вот смотрите это так, а некоторое и хуже

  • @АнатолийЦыбиков-ъ2л

    Слишком радужная лекция, глаза слепит...