ДЕРЕВО РЕШЕНИЙ (DecisionTreeClassifier) | МАШИННОЕ ОБУЧЕНИЕ

Поділитися
Вставка
  • Опубліковано 1 гру 2024

КОМЕНТАРІ • 33

  • @newglory6789
    @newglory6789 Місяць тому +1

    Милая девушка, спасибо тебе огромное человеческое!❤ Пересмотрела кучу видео про деревья решений и заблудилась в этом случайном лесу😂😂😂 так толком и не поняв, что куда отсеивается) хотя применяю на стажировке эти алгоритмы, но хочу докапаться до сути, чтобы разобраться, как можно улучшить качество классификации).

  • @pavelkoloyan7187
    @pavelkoloyan7187 2 роки тому +17

    Спасибо одно из лучших объяснений.👍

  • @Alulisa
    @Alulisa 2 роки тому +7

    Очень понятное объяснение, спасибо большое

  • @alexanderluzhetskii4144
    @alexanderluzhetskii4144 2 роки тому +13

    Здравствуйте. Я немного не догоняю, почему в формуле прироста информации энтропия правой подвыбоки =1, если мы посчитали ее =0, ведь там все единицы, абсолютный порядок. Почему тогда в формулу мы вводим ее как 1 и еще нормируем 2/5*1 ? (это на 12 й мнуте) При этом итог получается правильным 0.419 .....опечатака однако )))

    • @machine_learrrning
      @machine_learrrning  2 роки тому +9

      Действительно, очепятка, там не 1, а 0
      Главное, что прирост информации сам подсчитан правильно :)

  • @АртёмКомарницкий-я9ь

    Спасибо большое, всегда с нетерпением жду видео. Планируете серию разборов алгоритмов, например SVM(SVC, SVR), KNN?

    • @machine_learrrning
      @machine_learrrning  2 роки тому +2

      Да, конечно, планирую и эти алгоритмы разобрать :)

    • @machine_learrrning
      @machine_learrrning  2 роки тому +2

      Вот и видео по KNN можете изучать: ua-cam.com/video/m_bWhOLr_XM/v-deo.html

  • @ИринаРадкевич-у6ц

    Спасибо!
    Крутое объяснение!

  • @beast0608dihdbdn
    @beast0608dihdbdn 2 роки тому +2

    Вы очень крутая, спасибо!

  • @goharavagova6845
    @goharavagova6845 2 роки тому +1

    огромное спасибо

  • @kochkindi
    @kochkindi 2 роки тому +1

    Спасибо!!

  • @achmedzhanov_nail
    @achmedzhanov_nail 9 місяців тому +2

    На 12:03 энтропия правой выборки 0, в формулу вычисления Q подставляется 1. ошибка?

    • @samSosiska
      @samSosiska 6 місяців тому +1

      По сути, да

    • @eightuponatime
      @eightuponatime 2 місяці тому

      уф чуть не умер от панички, что что-то пропустил

  • @gobals8925
    @gobals8925 2 роки тому +1

    Большое спасибо за видео. Я правильно понял, что алгоритм считает IG по всем значениям фичей, кроме тех, которые не позволяют разбить на две подвыборки?

    • @machine_learrrning
      @machine_learrrning  2 роки тому +1

      Пожалуйста!
      Да, всё правильно поняли, перебираются все возможные варианты разбиения на две подвыборки

  • @danyadetunm7609
    @danyadetunm7609 Рік тому +1

    А если не задавать random_state, то чем обусловлено различие точности обученной модели, если обучать ее на одних и тех же данных, и проверять результат тоже на одинаковых данных?

    • @machine_learrrning
      @machine_learrrning  Рік тому

      Различия обусловлены случайностью, может повезти так, что выборка на тесте будет легче, поэтому метрика будет лучше, а может наоборот. И чтобы сравнивать именно модель, а не удачу, то и стоит фиксировать random_state

  • @LS-oh6po
    @LS-oh6po Рік тому

    Очень интересно по технике, но есть вопрос по сути. Для чего в принципе составляется это дерево решений? Ищется какое-то оптимальное значение? То есть какая изначально задача? Спасибо.

  • @trollface4783
    @trollface4783 Рік тому

    Спасибо

  • @mb19127
    @mb19127 3 місяці тому

    17:16 Почему разбиение было на [0, 3] и [1, 1], разве не лучше было бы на [0, 4] и [1, 0]? Может ли не быть такого вопроса, который отделял бы только эту единственную запись?

    • @mb19127
      @mb19127 3 місяці тому

      Ладно, действительно может. Ведь значение может быть не крайнем. Чтобы точно отделить одно значение нужно два разбиения

  • @mrhiesenberg5385
    @mrhiesenberg5385 2 роки тому

    Допустим у нас есть задача идентификации человека по его фотографии. С точки зрения машинного обучения - это задача многоклассовой классификации изображений. При этом, в тестовой выборке могут содержаться изображения людей, которых не было в обучающем наборе и такие фотографии нужно как-то браковать. В случае с логистической/softmax регрессией - можно задать порог по принадлежности объекта тестовой выборки к классам обучающей. В случае с ближайшими соседями, этим порогом будет являться расстояние между объектами. А что будет является порогом для дерева?)

    • @machine_learrrning
      @machine_learrrning  2 роки тому

      Для деревьев такой же порог можно задать, как и с логистической регрессией - порог по предсказанным вероятностям.
      Но хочу еще добавить, что задачи, связанные с классификацией людей лучше решаются через сверточные нейронные сети, в частности через подход metric learning.

    • @mrhiesenberg5385
      @mrhiesenberg5385 2 роки тому

      @@machine_learrrning, я пробовал решить эту задачу с помощью: метода главных компонент + метод ближайшего соседа/softmax регрессия, гистограмма направленных градиентов + метод ближайшего соседа/softmax регрессия, классификация карт признаков сверточной нейронной сети facenet + метод ближайшего соседа/softmax регрессия)
      Хотел опробовать деревянные алгоритмы)

  • @Борисыч-в9м
    @Борисыч-в9м Рік тому

    Я только не понял на 12:23 почему энтропия правой выборки внезапно стала равна 1 в формуле прироста информации?

    • @machine_learrrning
      @machine_learrrning  Рік тому +2

      Это опечатка, должен быть, конечно же, 0.
      Главное что значение прироста посчитано верно

  • @ДмитрийСвидовый

    Подскажите, как работает алгоритм с категориальными данными?

    • @bobkr4725
      @bobkr4725 Рік тому

      Полагаю, что через get_dummies - как и многие другие алгорииы