Милая девушка, спасибо тебе огромное человеческое!❤ Пересмотрела кучу видео про деревья решений и заблудилась в этом случайном лесу😂😂😂 так толком и не поняв, что куда отсеивается) хотя применяю на стажировке эти алгоритмы, но хочу докапаться до сути, чтобы разобраться, как можно улучшить качество классификации).
Здравствуйте. Я немного не догоняю, почему в формуле прироста информации энтропия правой подвыбоки =1, если мы посчитали ее =0, ведь там все единицы, абсолютный порядок. Почему тогда в формулу мы вводим ее как 1 и еще нормируем 2/5*1 ? (это на 12 й мнуте) При этом итог получается правильным 0.419 .....опечатака однако )))
Большое спасибо за видео. Я правильно понял, что алгоритм считает IG по всем значениям фичей, кроме тех, которые не позволяют разбить на две подвыборки?
А если не задавать random_state, то чем обусловлено различие точности обученной модели, если обучать ее на одних и тех же данных, и проверять результат тоже на одинаковых данных?
Различия обусловлены случайностью, может повезти так, что выборка на тесте будет легче, поэтому метрика будет лучше, а может наоборот. И чтобы сравнивать именно модель, а не удачу, то и стоит фиксировать random_state
Очень интересно по технике, но есть вопрос по сути. Для чего в принципе составляется это дерево решений? Ищется какое-то оптимальное значение? То есть какая изначально задача? Спасибо.
17:16 Почему разбиение было на [0, 3] и [1, 1], разве не лучше было бы на [0, 4] и [1, 0]? Может ли не быть такого вопроса, который отделял бы только эту единственную запись?
Допустим у нас есть задача идентификации человека по его фотографии. С точки зрения машинного обучения - это задача многоклассовой классификации изображений. При этом, в тестовой выборке могут содержаться изображения людей, которых не было в обучающем наборе и такие фотографии нужно как-то браковать. В случае с логистической/softmax регрессией - можно задать порог по принадлежности объекта тестовой выборки к классам обучающей. В случае с ближайшими соседями, этим порогом будет являться расстояние между объектами. А что будет является порогом для дерева?)
Для деревьев такой же порог можно задать, как и с логистической регрессией - порог по предсказанным вероятностям. Но хочу еще добавить, что задачи, связанные с классификацией людей лучше решаются через сверточные нейронные сети, в частности через подход metric learning.
@@machine_learrrning, я пробовал решить эту задачу с помощью: метода главных компонент + метод ближайшего соседа/softmax регрессия, гистограмма направленных градиентов + метод ближайшего соседа/softmax регрессия, классификация карт признаков сверточной нейронной сети facenet + метод ближайшего соседа/softmax регрессия) Хотел опробовать деревянные алгоритмы)
Милая девушка, спасибо тебе огромное человеческое!❤ Пересмотрела кучу видео про деревья решений и заблудилась в этом случайном лесу😂😂😂 так толком и не поняв, что куда отсеивается) хотя применяю на стажировке эти алгоритмы, но хочу докапаться до сути, чтобы разобраться, как можно улучшить качество классификации).
Спасибо одно из лучших объяснений.👍
Спасибо за приятные слова 😊
Очень понятное объяснение, спасибо большое
Здравствуйте. Я немного не догоняю, почему в формуле прироста информации энтропия правой подвыбоки =1, если мы посчитали ее =0, ведь там все единицы, абсолютный порядок. Почему тогда в формулу мы вводим ее как 1 и еще нормируем 2/5*1 ? (это на 12 й мнуте) При этом итог получается правильным 0.419 .....опечатака однако )))
Действительно, очепятка, там не 1, а 0
Главное, что прирост информации сам подсчитан правильно :)
Спасибо большое, всегда с нетерпением жду видео. Планируете серию разборов алгоритмов, например SVM(SVC, SVR), KNN?
Да, конечно, планирую и эти алгоритмы разобрать :)
Вот и видео по KNN можете изучать: ua-cam.com/video/m_bWhOLr_XM/v-deo.html
Спасибо!
Крутое объяснение!
Вы очень крутая, спасибо!
Рада помочь в изучении МЛ! 😸
огромное спасибо
Всегда пожалуйста 😸
Спасибо!!
На 12:03 энтропия правой выборки 0, в формулу вычисления Q подставляется 1. ошибка?
По сути, да
уф чуть не умер от панички, что что-то пропустил
Большое спасибо за видео. Я правильно понял, что алгоритм считает IG по всем значениям фичей, кроме тех, которые не позволяют разбить на две подвыборки?
Пожалуйста!
Да, всё правильно поняли, перебираются все возможные варианты разбиения на две подвыборки
А если не задавать random_state, то чем обусловлено различие точности обученной модели, если обучать ее на одних и тех же данных, и проверять результат тоже на одинаковых данных?
Различия обусловлены случайностью, может повезти так, что выборка на тесте будет легче, поэтому метрика будет лучше, а может наоборот. И чтобы сравнивать именно модель, а не удачу, то и стоит фиксировать random_state
Очень интересно по технике, но есть вопрос по сути. Для чего в принципе составляется это дерево решений? Ищется какое-то оптимальное значение? То есть какая изначально задача? Спасибо.
Спасибо
17:16 Почему разбиение было на [0, 3] и [1, 1], разве не лучше было бы на [0, 4] и [1, 0]? Может ли не быть такого вопроса, который отделял бы только эту единственную запись?
Ладно, действительно может. Ведь значение может быть не крайнем. Чтобы точно отделить одно значение нужно два разбиения
Допустим у нас есть задача идентификации человека по его фотографии. С точки зрения машинного обучения - это задача многоклассовой классификации изображений. При этом, в тестовой выборке могут содержаться изображения людей, которых не было в обучающем наборе и такие фотографии нужно как-то браковать. В случае с логистической/softmax регрессией - можно задать порог по принадлежности объекта тестовой выборки к классам обучающей. В случае с ближайшими соседями, этим порогом будет являться расстояние между объектами. А что будет является порогом для дерева?)
Для деревьев такой же порог можно задать, как и с логистической регрессией - порог по предсказанным вероятностям.
Но хочу еще добавить, что задачи, связанные с классификацией людей лучше решаются через сверточные нейронные сети, в частности через подход metric learning.
@@machine_learrrning, я пробовал решить эту задачу с помощью: метода главных компонент + метод ближайшего соседа/softmax регрессия, гистограмма направленных градиентов + метод ближайшего соседа/softmax регрессия, классификация карт признаков сверточной нейронной сети facenet + метод ближайшего соседа/softmax регрессия)
Хотел опробовать деревянные алгоритмы)
Я только не понял на 12:23 почему энтропия правой выборки внезапно стала равна 1 в формуле прироста информации?
Это опечатка, должен быть, конечно же, 0.
Главное что значение прироста посчитано верно
Подскажите, как работает алгоритм с категориальными данными?
Полагаю, что через get_dummies - как и многие другие алгорииы