Вадим Леонардович, спасибо! Очень интересная лекция, но не для новичков, требуется определенная подготовка. Уже месяц разбираюсь с нейронными сетями, Вы все разложили по полочкам и ответили на все вопросы (даже на не заданные). Шикарная подача материала. Лайк, подписка, колокольчик. Буду смотреть весь плейлист! :)
Вадим Леонардович, скажите, а у вас есть свежие версии этого курса в доступе? Обоих частей (с заданиями). Очень хочется послушать, уверен, что вы внесли какие-то изменения. Спасибо!
Выложены записи лекций в ИТМО в этом году На их канале Skillobit Area ua-cam.com/channels/drHzl9fUL0zsaDVRx2wB7Q.html IMHO эта версия заметно лучше Но без нейронных сетей. Вторая часть выложена полностью, Первая еще выкладывается. Да, бывает и так К сентябрю выложу свою версию на своем канале.
Является ли подбор алгоритма обучения внешним параметром для построения итоговой модели? Или скажем после попытки обучить используя один из алгоритмов можно уже прогонять модель на тестовом множестве?
Является. Если обучили, и результат нравится, можно прогонять. Лучше даже одновременно, после каждой эпохи, проверять на тестовом множестве. Так можно отловить момент начала переобучения. Правда тестовая подвыборка превратится в валидационную.
Здравствуйте! Два вопроса: 1. Какова цель этих видео (лекций)? 2. На четвертой минуте Вы озвучили внутренние и внешние параметры не дав им определения. Дайте, пожалуйста, определение - что это? Благодарю за Ваш труд!
Вадим Леонардович, спасибо! Очень интересная лекция, но не для новичков, требуется определенная подготовка. Уже месяц разбираюсь с нейронными сетями, Вы все разложили по полочкам и ответили на все вопросы (даже на не заданные). Шикарная подача материала. Лайк, подписка, колокольчик. Буду смотреть весь плейлист! :)
Спасибо , что выставляете в интернет свои лекции!
Приятно слушать человека, который знает о чем говорит, особенно по близкой мне теме. Успехов Вам, В.Л.!
Спасибо!
Вадим Леонардович, очень благодарна! Чудесная лекция!
Спасибо!
Очень хорошая подача материала. Спасибо!
Хотелось бы отметить ещё книгу С. Николенко "Глубокое обучение: погружение в мир нейронных сетей" 2018г, не побоявшись отнести ее к классике
книгу 2018 года к классике? Дружище, загугли, что это значит
@@arbonik2126 37:52
Спасибо! Я наконец-то поняла тему
deep learnin - сейчас бесплатно можно качнуть в pdf
Про вопрос на 49 мин, первое пришло в голову min(1,max(0,x)).
Где гугл хром?
Вадим Леонардович, скажите, а у вас есть свежие версии этого курса в доступе? Обоих частей (с заданиями). Очень хочется послушать, уверен, что вы внесли какие-то изменения. Спасибо!
Выложены записи лекций в ИТМО в этом году
На их канале Skillobit Area
ua-cam.com/channels/drHzl9fUL0zsaDVRx2wB7Q.html
IMHO эта версия заметно лучше
Но без нейронных сетей.
Вторая часть выложена полностью,
Первая еще выкладывается. Да, бывает и так
К сентябрю выложу свою версию на своем канале.
@@Vadim_Abbakumov Большое спасибо! Мне нравится практический уклон ваших лекций! И понятное объяснение!
Является ли подбор алгоритма обучения внешним параметром для построения итоговой модели? Или скажем после попытки обучить используя один из алгоритмов можно уже прогонять модель на тестовом множестве?
Является.
Если обучили, и результат нравится, можно прогонять.
Лучше даже одновременно, после каждой эпохи, проверять на тестовом множестве. Так можно отловить момент начала переобучения. Правда тестовая подвыборка превратится в валидационную.
@@Vadim_Abbakumov Спасибо большое!
актутуально на 2024?
да
Здравствуйте! Два вопроса:
1. Какова цель этих видео (лекций)?
2. На четвертой минуте Вы озвучили внутренние и внешние параметры не дав им определения. Дайте, пожалуйста, определение - что это?
Благодарю за Ваш труд!
ua-cam.com/video/5l0e_Q0gpnc/v-deo.html
откуда у нас веса появились? синие цифры , из подбора логистической регрессии?
Можете считать что обычный стандартный процесс обучения сети был прерван где-то ближе к концу. Синие цифры - веса на данный момент.
Что он все время за нос хватается?
Если это самый серьезный упрек к лекции, то я рад
какаина нанюхался тварина