Введение в рекуррентные нейронные сети | #19 нейросети на Python

Поділитися
Вставка
  • Опубліковано 4 лют 2025

КОМЕНТАРІ • 55

  • @Quimorax
    @Quimorax 4 роки тому +15

    Очень классное объяснение рекуррентных нейронных сетей.
    +10 мотивации написать нейронку :D

  • @jhex490
    @jhex490 Рік тому +1

    Автор огромный молодец, очень просто, подробно и когда рассказывает, прям мотивирует, на свершения. Спасибо!

  • @TopBox8509
    @TopBox8509 2 роки тому +7

    Смотреть, нельзя пропустить)

  • @LA-nc6nc
    @LA-nc6nc 2 роки тому +7

    Позитивный комментарий для отличного курса. Спасибо, Сергей.

  • @dkl6397
    @dkl6397 9 місяців тому +1

    Лучшие лекции. Как всегда. Огромное спасибо!

  • @knocker6970
    @knocker6970 Рік тому +3

    Благодарю, Сергей за этот материал!

  • @igorvozjen9170
    @igorvozjen9170 3 роки тому +2

    Благодарю за простую и краткую информацию!

  • @СофьяФёдорова-ъ3в
    @СофьяФёдорова-ъ3в 3 роки тому +4

    Спасибо большое за материал. В интернете очень много информации по данной теме, однако не везде есть математическое обоснование.

  • @ДмитрийИльин-т3я9э
    @ДмитрийИльин-т3я9э 4 роки тому +7

    Большое Вам спасибо!

  • @ЮрийНовиков-и9е
    @ЮрийНовиков-и9е 4 роки тому +2

    Чудесный курс! Очень содержательно и лаконично.
    Можно вас попросить реализовать RNN не с целью классификации, а математического моделирования какого - либо процесса? Например, свободного падения объекта.

    • @selfedu_rus
      @selfedu_rus  4 роки тому

      Спасибо. Дальше в каком-то занятии (ближайшем) пример прогнозирования временного ряда с помощью RNN.

  • @70almaz
    @70almaz 3 роки тому +1

    спасибо!

  • @alexandersavitski2831
    @alexandersavitski2831 3 роки тому +1

    Топ материал

  • @СарматПересветов
    @СарматПересветов 2 місяці тому +1

    У меня есть вопрос, данные с нейронов рекурентного слоя сначала проходят функцию активации, а затем отправляются в (Z-1), или отправляются туда не проходя функцию активации? потому что если функция активации не линейная то это важно. и второй вопрос, из (Z-1) на новой итерации данные идут от каждого к каждому (и эти связи также имеют свои веса которые обучаются?), или нет?

    • @selfedu_rus
      @selfedu_rus  2 місяці тому

      можно и так и так сделать, все зависит от решаемой задачи

    • @СарматПересветов
      @СарматПересветов 2 місяці тому

      @selfedu_rus понял, спасибо)

  • @D06P9lK
    @D06P9lK 7 місяців тому +1

    Я правильно понимаю, что для анализа движения цен на валютных рынках лучше всго подойдёт рекуррентная сеть?

    • @selfedu_rus
      @selfedu_rus  7 місяців тому +1

      Формально да, но реально все это не особо уже работает )) Роботы на бирже - временная история (работают максимум пол года, потом все менять нужно)

    • @D06P9lK
      @D06P9lK 7 місяців тому

      @@selfedu_rus , подскажите, почему временная история?

    • @selfedu_rus
      @selfedu_rus  2 місяці тому +1

      потому что все выигрывать не могут и как только большая часть роботов начинает отрабатывать выигрышную стратегию, сама стратегия ломается и уходит в прошлое ))

  • @ProGamerFejk
    @ProGamerFejk Рік тому +1

    А можно всё-таки алгоритм BPTT?

  • @dubinin_s
    @dubinin_s 4 роки тому +3

    Спасибо за видео, а какие еще Вы бы посоветовали почитать книги по нейронкам?

    • @selfedu_rus
      @selfedu_rus  4 роки тому

      Спасибо. Сам читал мат основу по книгам:
      1. Bishop. Neural Networks for Pattern Recognition
      2. Хайкин Саймон. Нейронные сети полный курс (2-е издание)
      Остальное из сети интернет + собственный опыт.

    • @ЛёшаШатурный
      @ЛёшаШатурный 4 роки тому

      @@selfedu_rus Спасибо за видео, никак не могу понять где находится веса рекурентного слоя в разных архитектурах(many to many, many to one...)

    • @selfedu_rus
      @selfedu_rus  4 роки тому +1

      @@ЛёшаШатурный Эти слои изображены в виде вычислительного графа и представляют просто один реккурентный слой. В нем веса и хранятся )

    • @ЛёшаШатурный
      @ЛёшаШатурный 4 роки тому +1

      @@selfedu_rus Я удалил комментарий ниже, в нём я сказал какой-то бред.
      Но мой вопрос всё ещё актуален, если у вас найдется время, то пожалуйста, взгляните на него, спасибо! И так, представим 2 слоя: входной слой с тремя нейронами(x1, x2, x3) и классический рекуррентный слой с 2мя нейронами и функцией активации f. Распишу выходы каждого нейрона рекуррентново слоя. ht1 = f(x1, [0, 0, N]) ht2 = f(x2, ht1]). Получается что x3 не используется, что в этом случае делать? Добавить в рекуррентный слой ещё один нейрон?

    • @selfedu_rus
      @selfedu_rus  4 роки тому +1

      @@ЛёшаШатурный не совсем, у вас на входе будет вектор из трех компонент и на каждой итерации (рекурсии) браться следующий вектор из выборки. На выходе будете получать определенный вектор - результат по схеме Many-To-One. Число итераций (в рекурсии) определяется размерностью входного тензора (это показано в следующем занятии).

  • @nikolayivanov4187
    @nikolayivanov4187 Рік тому +1

    Здравствуйте! Я хочу разработать карточную игру преферанс на основе нейросети. Какая для этого лучше пойдет архитектура сети, наверное рекуррентная? И в каком виде можно подавать входные данные? Если допустим у нас есть запись игры ввиде последовательных ходов?

    • @selfedu_rus
      @selfedu_rus  Рік тому

      надо думать, но вроде эту игрушку проще сделать через дерево решений, а не НС

    • @nikolayivanov4187
      @nikolayivanov4187 Рік тому

      @@selfedu_rus Если конкретнее . Есть 3 игрока у каждого из игроков есть по 10 карт . От 7 до Туза. Нам надо так разыграть так свои карты ,чтоб набрать максимум взяток. Тут важен порядок ходов ,так как мы обязаны бросать карты в масть , если нет масти козырями бить , а если нет и козырей то сбрасывать любую. В общем комбинации разыгрываются . Игра счетная очень.

    • @nikolayivanov4187
      @nikolayivanov4187 Рік тому

      @@selfedu_rus У меня была идея дать карте каждой Id от 1 до 32 по количеству карт . И представить игру ввиде последовательности длинной 30 элементов типа 7,10 , 14 ..... то есть в каком порядке карты бросали. Правда частота появления тут роли не играет так в каждом розыгрыше карта появляется один раз. И как -то в LSTM это использовать. Но как тут указать козырную масть для обобщения неясно. И важно учитывать контекст отыгранных карт.

    • @nikolayivanov4187
      @nikolayivanov4187 Рік тому

      @@selfedu_rus В тоже время можно генерировать в цикле имитацию партий где карты будут кидать случайным образом ,а потом как-то отбирать с них лучшие. Но какой алгоритм будет закономерности определять.

  • @ПавелГолубев-п8о
    @ПавелГолубев-п8о 2 роки тому +1

    Спасибо за информацию, очень интересно)
    Не понял только одного, подскажите, пожалуйста
    Наблюдения и предыдущие результаты сети подаются в нейрон. А как они обрабатываются через функцию активации? По отдельности, перемножаются или как взаимодействиют эти данные в нейроне? Или там функция с двумя параметрами?

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      Спасибо! Там идет вектор h с предыдущего шага и вектор x - текущие данные. Эти векторы объединяются в единый вектор, а дальше все, как и в обычном нейроне.

    • @ПавелГолубев-п8о
      @ПавелГолубев-п8о 2 роки тому

      @@selfedu_rus получателя двухмерный вектор на выходе "рекурентного" нейрона? Или входные данные умножаются на веса, предыдущие данные умножаются на веса и их складываем?

    • @likey_dikey235
      @likey_dikey235 Рік тому

      @@ПавелГолубев-п8о Скорее, 2-й вариант. Вы выяснили?

  • @Egorundel
    @Egorundel 3 роки тому +2

    Здравствуйте, а какая архитектура подойдет для прогнозирования курса акций?

    • @selfedu_rus
      @selfedu_rus  3 роки тому +1

      наверное, рекуррентные сети, а что именно здесь брать и что подавать на вход - это уже ваша фантазия + здравый смысл + эксперименты

  • @godo4687
    @godo4687 Рік тому +5

    и всё таки, по моему мнению, для шестилеток сложновато...

    • @cherimolah9493
      @cherimolah9493 2 місяці тому

      Для семилеток в самый раз

  • @Александр-т1ц5я
    @Александр-т1ц5я 3 роки тому +1

    Спасибо большое! Как раз искал такое понятное описание с математическим обоснованием! :)
    Мне ваше видео даже более понятно, чем вот это: ua-cam.com/video/UNmqTiOnRfg/v-deo.html, хотя вроде тут совсем для чайников :)

  • @JKRoss-or3uz
    @JKRoss-or3uz 3 роки тому +1

    ЗБСЬ!

  • @channel_SV
    @channel_SV 2 роки тому

    Только в "казнить нельзя, помиловать" смысл в положении запятой, а не порядке слов

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      можно и слова поменять, например, "помиловать нельзя, казнить"

    • @channel_SV
      @channel_SV 2 роки тому

      @@selfedu_rus все равно суть в запятой: "помиловать, нельзя казнить"

    • @selfedu_rus
      @selfedu_rus  2 місяці тому

      там приводится пример, что если поменять слова местами, то смысл меняется

  • @Kopasuy
    @Kopasuy Рік тому +1

    Кликбейт, никакого пайтона нет

    • @michaelm.9347
      @michaelm.9347 10 місяців тому

      Есть, но хорошо спрятался :) Он в ссылке под видео на пример реализации BPTT

  • @elizabethgrant6018
    @elizabethgrant6018 3 роки тому +2

    Спасибо Вам огромное!