Лекция. Рекуррентная нейронная сеть

Поділитися
Вставка
  • Опубліковано 22 гру 2024

КОМЕНТАРІ •

  • @darkfate3674
    @darkfate3674 9 місяців тому +5

    Лучшая. Очень круто и понятно. Особенно, когда показали картинку со всеми весами W,U,V прям мурашки пошли от того, что вот именно это и надо для понимания

  • @natalias8919
    @natalias8919 Рік тому +11

    Самое лучшее объяснение. Отличная методическая подача. Брольшое спасибо!

  • @арбузер
    @арбузер Рік тому +13

    Какая вы красивая! Лекция огонь! спасибо ❤❤

  • @АняВолченкова
    @АняВолченкова 9 місяців тому +2

    Большое спасибо за объяснение!

  • @vadimdorokhov8375
    @vadimdorokhov8375 Рік тому +3

    Наконец-то понятное объяснение, спасибо большое.

  • @Igor.E
    @Igor.E 5 місяців тому +1

    Респект Татьяне! Просто идеальная подача. Всё кристально ясно, никаких лакун. Спасибо!

  • @bigtown2012
    @bigtown2012 10 місяців тому +1

    Супер ролик, в 16 минут полное понимание структуры.

  • @layinglion
    @layinglion Рік тому +2

    Отличная и понятная лекция на сложную тему! Спасибо 😊

  • @kuroles469
    @kuroles469 9 місяців тому +2

    Спасибо за лекцию! Однако на слайде 9:18 заметил неточность в указанной размерности матрицы W. Если бы матрица весов была бы n×k (как указано на слайде), то выражение WX не имело бы решения, так как количество столбцов матрицы W не совпало бы с количеством строк вектора X. Мне кажется, что верная размерность матрицы W - это k×n, так как только в этом случае возможно осуществить перемножение.

    • @hegzom3747
      @hegzom3747 9 місяців тому

      Тоже это заметил)

    • @vinavolo932
      @vinavolo932 8 місяців тому

      Мне кажется в этом моменте подразумевалась W транспонированная, при составлении видимо забыли написать.

  • @gigaprose
    @gigaprose Рік тому +3

    отличное объяснение, спасибо!

    • @Геннадий-й6п3р
      @Геннадий-й6п3р Рік тому

      Не забудь родить ребёнка. ❤😊

    • @gigaprose
      @gigaprose Рік тому

      @@Геннадий-й6п3р у меня уже достаточно детей, но к чему здесь это и с переходом на личности?

    • @RockrideR6666
      @RockrideR6666 Рік тому

      @@gigaproseполагаю, что имелось в виду пожелание передавать дальше ген людей, которые способны разбираться с рекуррентными сетями)

  • @rudikshul25
    @rudikshul25 Рік тому

    Thanks for explanation !

  • @YbisZX
    @YbisZX 7 місяців тому +1

    Не понятно, почему слой y считается неотъемлемой частью рекуррентного слоя. Это же просто полносвязный слой приставленный к слою h. Зачем ему быть того же размера k, он же может быть любого размера? Почему нельзя обойтись без него вообще и подавать выход h сразу на следующий рекуррентный слой?

    • @DeepLearningSchool
      @DeepLearningSchool  7 місяців тому

      Можно, так и делают, на самом деле. Здесь так, чтобы показать идею перехода от полносвязного слоя к RNN. Но вы правы, что стоило бы добавить это в лекцию

  • @АлексКалашников-у6н

    Че -то не много интереса проявлено к лекции? Видимо люди кто занимается нейросетями еще слабо представляют важность рекуррентных сетей! А а а ... ну да они же сложнее. Хотя это первые шаги к коммуникативным сетям. Это же не кому не интересно!😆

    • @channel_SV
      @channel_SV Рік тому +4

      Вы нейросеть?

  • @ihornikulin1061
    @ihornikulin1061 Рік тому

    Девочка молодец. Но скучно слишком. Не способна завлечь. Просто бу-бу-бу. Надеюсь она будет работать над этим.

    • @Zeyn_77
      @Zeyn_77 Рік тому +18

      Иди смотри мистера биста если тебе динамика нужна. Лучшего объяснения, чем это, я ещё не видел