В Random Forest если выборка не сильно большая, оправдано ли не применять тестовую выборку , а оценивать качество модели через oob_score? В моем случае 150 наблюдений и 40 параметров (признаков)
А подскажите такой вопрос. Random Forest в питоне при выводе Score пишет точность ну например 90%. Эта точность чего? средняя деревьев на обчающей выборке, или на той выборке которая не задействована в конкретном дереве? Получается тестовая выборка вообще не нужна, если мы через GridSearchCV может подобрать оптимум ?
accuracy это процент правильно распознанных значений. GridSearchCV подбирает Вам параметры, а проверять, что получилось в результате подбора, Вам неинтересно?
Светлая аудитория, отличный лектор, доступное изложение, удобное расположение слайдов.
Прекрасная лекция, спасибо большое.
Спасибо. Очень интересно.
Как всегда очень и очень понятно ✌
7:55 тысяча посредственностей лучше чем один умный
Беги, лес, беги. Коллеги, понятно.
В Random Forest если выборка не сильно большая, оправдано ли не применять тестовую выборку , а оценивать качество модели через oob_score? В моем случае 150 наблюдений и 40 параметров (признаков)
Оправдано. для такой маленькой выборки предлагаю еще попробовать кросс-валидацию...
А подскажите такой вопрос. Random Forest в питоне при выводе Score пишет точность ну например 90%. Эта точность чего? средняя деревьев на обчающей выборке, или на той выборке которая не задействована в конкретном дереве? Получается тестовая выборка вообще не нужна, если мы через GridSearchCV может подобрать оптимум ?
accuracy это процент правильно распознанных значений. GridSearchCV подбирает Вам параметры, а проверять, что получилось в результате подбора, Вам неинтересно?
Лекции конечно шикарные. Но почему-то постоянно начинаются словами "я бы вам это и не стал рассказывать, если бы не..." 😁
42 - это магическое число. Ответ на главный вопрос
4 192 просмотра ))