Чудесный курс! Очень содержательно и лаконично. Можно вас попросить реализовать RNN не с целью классификации, а математического моделирования какого - либо процесса? Например, свободного падения объекта.
У меня есть вопрос, данные с нейронов рекурентного слоя сначала проходят функцию активации, а затем отправляются в (Z-1), или отправляются туда не проходя функцию активации? потому что если функция активации не линейная то это важно. и второй вопрос, из (Z-1) на новой итерации данные идут от каждого к каждому (и эти связи также имеют свои веса которые обучаются?), или нет?
потому что все выигрывать не могут и как только большая часть роботов начинает отрабатывать выигрышную стратегию, сама стратегия ломается и уходит в прошлое ))
Спасибо. Сам читал мат основу по книгам: 1. Bishop. Neural Networks for Pattern Recognition 2. Хайкин Саймон. Нейронные сети полный курс (2-е издание) Остальное из сети интернет + собственный опыт.
@@selfedu_rus Я удалил комментарий ниже, в нём я сказал какой-то бред. Но мой вопрос всё ещё актуален, если у вас найдется время, то пожалуйста, взгляните на него, спасибо! И так, представим 2 слоя: входной слой с тремя нейронами(x1, x2, x3) и классический рекуррентный слой с 2мя нейронами и функцией активации f. Распишу выходы каждого нейрона рекуррентново слоя. ht1 = f(x1, [0, 0, N]) ht2 = f(x2, ht1]). Получается что x3 не используется, что в этом случае делать? Добавить в рекуррентный слой ещё один нейрон?
@@ЛёшаШатурный не совсем, у вас на входе будет вектор из трех компонент и на каждой итерации (рекурсии) браться следующий вектор из выборки. На выходе будете получать определенный вектор - результат по схеме Many-To-One. Число итераций (в рекурсии) определяется размерностью входного тензора (это показано в следующем занятии).
Здравствуйте! Я хочу разработать карточную игру преферанс на основе нейросети. Какая для этого лучше пойдет архитектура сети, наверное рекуррентная? И в каком виде можно подавать входные данные? Если допустим у нас есть запись игры ввиде последовательных ходов?
@@selfedu_rus Если конкретнее . Есть 3 игрока у каждого из игроков есть по 10 карт . От 7 до Туза. Нам надо так разыграть так свои карты ,чтоб набрать максимум взяток. Тут важен порядок ходов ,так как мы обязаны бросать карты в масть , если нет масти козырями бить , а если нет и козырей то сбрасывать любую. В общем комбинации разыгрываются . Игра счетная очень.
@@selfedu_rus У меня была идея дать карте каждой Id от 1 до 32 по количеству карт . И представить игру ввиде последовательности длинной 30 элементов типа 7,10 , 14 ..... то есть в каком порядке карты бросали. Правда частота появления тут роли не играет так в каждом розыгрыше карта появляется один раз. И как -то в LSTM это использовать. Но как тут указать козырную масть для обобщения неясно. И важно учитывать контекст отыгранных карт.
@@selfedu_rus В тоже время можно генерировать в цикле имитацию партий где карты будут кидать случайным образом ,а потом как-то отбирать с них лучшие. Но какой алгоритм будет закономерности определять.
Спасибо за информацию, очень интересно) Не понял только одного, подскажите, пожалуйста Наблюдения и предыдущие результаты сети подаются в нейрон. А как они обрабатываются через функцию активации? По отдельности, перемножаются или как взаимодействиют эти данные в нейроне? Или там функция с двумя параметрами?
Спасибо! Там идет вектор h с предыдущего шага и вектор x - текущие данные. Эти векторы объединяются в единый вектор, а дальше все, как и в обычном нейроне.
@@selfedu_rus получателя двухмерный вектор на выходе "рекурентного" нейрона? Или входные данные умножаются на веса, предыдущие данные умножаются на веса и их складываем?
Спасибо большое! Как раз искал такое понятное описание с математическим обоснованием! :) Мне ваше видео даже более понятно, чем вот это: ua-cam.com/video/UNmqTiOnRfg/v-deo.html, хотя вроде тут совсем для чайников :)
Очень классное объяснение рекуррентных нейронных сетей.
+10 мотивации написать нейронку :D
Автор огромный молодец, очень просто, подробно и когда рассказывает, прям мотивирует, на свершения. Спасибо!
Смотреть, нельзя пропустить)
Позитивный комментарий для отличного курса. Спасибо, Сергей.
Лучшие лекции. Как всегда. Огромное спасибо!
Благодарю, Сергей за этот материал!
Благодарю за простую и краткую информацию!
Спасибо большое за материал. В интернете очень много информации по данной теме, однако не везде есть математическое обоснование.
Большое Вам спасибо!
Чудесный курс! Очень содержательно и лаконично.
Можно вас попросить реализовать RNN не с целью классификации, а математического моделирования какого - либо процесса? Например, свободного падения объекта.
Спасибо. Дальше в каком-то занятии (ближайшем) пример прогнозирования временного ряда с помощью RNN.
спасибо!
Топ материал
У меня есть вопрос, данные с нейронов рекурентного слоя сначала проходят функцию активации, а затем отправляются в (Z-1), или отправляются туда не проходя функцию активации? потому что если функция активации не линейная то это важно. и второй вопрос, из (Z-1) на новой итерации данные идут от каждого к каждому (и эти связи также имеют свои веса которые обучаются?), или нет?
можно и так и так сделать, все зависит от решаемой задачи
@selfedu_rus понял, спасибо)
Я правильно понимаю, что для анализа движения цен на валютных рынках лучше всго подойдёт рекуррентная сеть?
Формально да, но реально все это не особо уже работает )) Роботы на бирже - временная история (работают максимум пол года, потом все менять нужно)
@@selfedu_rus , подскажите, почему временная история?
потому что все выигрывать не могут и как только большая часть роботов начинает отрабатывать выигрышную стратегию, сама стратегия ломается и уходит в прошлое ))
А можно всё-таки алгоритм BPTT?
Спасибо за видео, а какие еще Вы бы посоветовали почитать книги по нейронкам?
Спасибо. Сам читал мат основу по книгам:
1. Bishop. Neural Networks for Pattern Recognition
2. Хайкин Саймон. Нейронные сети полный курс (2-е издание)
Остальное из сети интернет + собственный опыт.
@@selfedu_rus Спасибо за видео, никак не могу понять где находится веса рекурентного слоя в разных архитектурах(many to many, many to one...)
@@ЛёшаШатурный Эти слои изображены в виде вычислительного графа и представляют просто один реккурентный слой. В нем веса и хранятся )
@@selfedu_rus Я удалил комментарий ниже, в нём я сказал какой-то бред.
Но мой вопрос всё ещё актуален, если у вас найдется время, то пожалуйста, взгляните на него, спасибо! И так, представим 2 слоя: входной слой с тремя нейронами(x1, x2, x3) и классический рекуррентный слой с 2мя нейронами и функцией активации f. Распишу выходы каждого нейрона рекуррентново слоя. ht1 = f(x1, [0, 0, N]) ht2 = f(x2, ht1]). Получается что x3 не используется, что в этом случае делать? Добавить в рекуррентный слой ещё один нейрон?
@@ЛёшаШатурный не совсем, у вас на входе будет вектор из трех компонент и на каждой итерации (рекурсии) браться следующий вектор из выборки. На выходе будете получать определенный вектор - результат по схеме Many-To-One. Число итераций (в рекурсии) определяется размерностью входного тензора (это показано в следующем занятии).
Здравствуйте! Я хочу разработать карточную игру преферанс на основе нейросети. Какая для этого лучше пойдет архитектура сети, наверное рекуррентная? И в каком виде можно подавать входные данные? Если допустим у нас есть запись игры ввиде последовательных ходов?
надо думать, но вроде эту игрушку проще сделать через дерево решений, а не НС
@@selfedu_rus Если конкретнее . Есть 3 игрока у каждого из игроков есть по 10 карт . От 7 до Туза. Нам надо так разыграть так свои карты ,чтоб набрать максимум взяток. Тут важен порядок ходов ,так как мы обязаны бросать карты в масть , если нет масти козырями бить , а если нет и козырей то сбрасывать любую. В общем комбинации разыгрываются . Игра счетная очень.
@@selfedu_rus У меня была идея дать карте каждой Id от 1 до 32 по количеству карт . И представить игру ввиде последовательности длинной 30 элементов типа 7,10 , 14 ..... то есть в каком порядке карты бросали. Правда частота появления тут роли не играет так в каждом розыгрыше карта появляется один раз. И как -то в LSTM это использовать. Но как тут указать козырную масть для обобщения неясно. И важно учитывать контекст отыгранных карт.
@@selfedu_rus В тоже время можно генерировать в цикле имитацию партий где карты будут кидать случайным образом ,а потом как-то отбирать с них лучшие. Но какой алгоритм будет закономерности определять.
Спасибо за информацию, очень интересно)
Не понял только одного, подскажите, пожалуйста
Наблюдения и предыдущие результаты сети подаются в нейрон. А как они обрабатываются через функцию активации? По отдельности, перемножаются или как взаимодействиют эти данные в нейроне? Или там функция с двумя параметрами?
Спасибо! Там идет вектор h с предыдущего шага и вектор x - текущие данные. Эти векторы объединяются в единый вектор, а дальше все, как и в обычном нейроне.
@@selfedu_rus получателя двухмерный вектор на выходе "рекурентного" нейрона? Или входные данные умножаются на веса, предыдущие данные умножаются на веса и их складываем?
@@ПавелГолубев-п8о Скорее, 2-й вариант. Вы выяснили?
Здравствуйте, а какая архитектура подойдет для прогнозирования курса акций?
наверное, рекуррентные сети, а что именно здесь брать и что подавать на вход - это уже ваша фантазия + здравый смысл + эксперименты
и всё таки, по моему мнению, для шестилеток сложновато...
Для семилеток в самый раз
Спасибо большое! Как раз искал такое понятное описание с математическим обоснованием! :)
Мне ваше видео даже более понятно, чем вот это: ua-cam.com/video/UNmqTiOnRfg/v-deo.html, хотя вроде тут совсем для чайников :)
ЗБСЬ!
Только в "казнить нельзя, помиловать" смысл в положении запятой, а не порядке слов
можно и слова поменять, например, "помиловать нельзя, казнить"
@@selfedu_rus все равно суть в запятой: "помиловать, нельзя казнить"
там приводится пример, что если поменять слова местами, то смысл меняется
Кликбейт, никакого пайтона нет
Есть, но хорошо спрятался :) Он в ссылке под видео на пример реализации BPTT
Спасибо Вам огромное!