Лекция 1. Нейронные сети. Теория (Анализ данных на Python в примерах и задачах. Ч2)
Вставка
- Опубліковано 26 вер 2024
- compscicenter.ru/
Модель нейрона. Активационная функция. Сети прямого распространения (FeedForward Neural Network). Архитектура нейронной сети. Коннективизм (connectionism).
Лекция №1 в курсе "Анализ данных на Python в примерах и задачах. Часть 2" (осень 2018).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: bit.ly/2QwOVpM
Все видео курса: bit.ly/2NEwnWR
Вадим Леонардович, спасибо! Очень интересная лекция, но не для новичков, требуется определенная подготовка. Уже месяц разбираюсь с нейронными сетями, Вы все разложили по полочкам и ответили на все вопросы (даже на не заданные). Шикарная подача материала. Лайк, подписка, колокольчик. Буду смотреть весь плейлист! :)
Спасибо , что выставляете в интернет свои лекции!
Вадим Леонардович, очень благодарна! Чудесная лекция!
Спасибо!
Приятно слушать человека, который знает о чем говорит, особенно по близкой мне теме. Успехов Вам, В.Л.!
Спасибо!
Хотелось бы отметить ещё книгу С. Николенко "Глубокое обучение: погружение в мир нейронных сетей" 2018г, не побоявшись отнести ее к классике
книгу 2018 года к классике? Дружище, загугли, что это значит
@@arbonik2126 37:52
Спасибо! Я наконец-то поняла тему
Про вопрос на 49 мин, первое пришло в голову min(1,max(0,x)).
Вадим Леонардович это всегда топчик!
deep learnin - сейчас бесплатно можно качнуть в pdf
Вадим Леонардович, скажите, а у вас есть свежие версии этого курса в доступе? Обоих частей (с заданиями). Очень хочется послушать, уверен, что вы внесли какие-то изменения. Спасибо!
Выложены записи лекций в ИТМО в этом году
На их канале Skillobit Area
ua-cam.com/channels/drHzl9fUL0zsaDVRx2wB7Q.html
IMHO эта версия заметно лучше
Но без нейронных сетей.
Вторая часть выложена полностью,
Первая еще выкладывается. Да, бывает и так
К сентябрю выложу свою версию на своем канале.
@@Vadim_Abbakumov Большое спасибо! Мне нравится практический уклон ваших лекций! И понятное объяснение!
Является ли подбор алгоритма обучения внешним параметром для построения итоговой модели? Или скажем после попытки обучить используя один из алгоритмов можно уже прогонять модель на тестовом множестве?
Является.
Если обучили, и результат нравится, можно прогонять.
Лучше даже одновременно, после каждой эпохи, проверять на тестовом множестве. Так можно отловить момент начала переобучения. Правда тестовая подвыборка превратится в валидационную.
@@Vadim_Abbakumov Спасибо большое!
актутуально на 2024?
Здравствуйте! Два вопроса:
1. Какова цель этих видео (лекций)?
2. На четвертой минуте Вы озвучили внутренние и внешние параметры не дав им определения. Дайте, пожалуйста, определение - что это?
Благодарю за Ваш труд!
Где гугл хром?
Очень хорошая подача материала. Спасибо!
ua-cam.com/video/5l0e_Q0gpnc/v-deo.html
откуда у нас веса появились? синие цифры , из подбора логистической регрессии?
Можете считать что обычный стандартный процесс обучения сети был прерван где-то ближе к концу. Синие цифры - веса на данный момент.
Что он все время за нос хватается?
Если это самый серьезный упрек к лекции, то я рад
какаина нанюхался тварина