Лекция 11. Random forest
Вставка
- Опубліковано 15 сер 2018
- compscicenter.ru/
Случайные леса. Bagging. Ключевые параметры модели. Out-of-bag error. Информативность переменных. Анализ несбалансированных выборок. Определение числа деревьев.
Лекция №11 в курсе "Анализ данных на Python в примерах и задачах. Часть 1" (весна 2018).
Преподаватель курса: Вадим Леонардович Аббакумов
Светлая аудитория, отличный лектор, доступное изложение, удобное расположение слайдов.
Прекрасная лекция, спасибо большое.
Спасибо. Очень интересно.
Как всегда очень и очень понятно ✌
Беги, лес, беги. Коллеги, понятно.
В Random Forest если выборка не сильно большая, оправдано ли не применять тестовую выборку , а оценивать качество модели через oob_score? В моем случае 150 наблюдений и 40 параметров (признаков)
Оправдано. для такой маленькой выборки предлагаю еще попробовать кросс-валидацию...
А подскажите такой вопрос. Random Forest в питоне при выводе Score пишет точность ну например 90%. Эта точность чего? средняя деревьев на обчающей выборке, или на той выборке которая не задействована в конкретном дереве? Получается тестовая выборка вообще не нужна, если мы через GridSearchCV может подобрать оптимум ?
accuracy это процент правильно распознанных значений. GridSearchCV подбирает Вам параметры, а проверять, что получилось в результате подбора, Вам неинтересно?
Лекции конечно шикарные. Но почему-то постоянно начинаются словами "я бы вам это и не стал рассказывать, если бы не..." 😁
4 192 просмотра ))
42 - это магическое число. Ответ на главный вопрос