Стандартный LabelEncoder не ловит автоматически истинное расстояние между классами. В этом случае лучше формировать словарь в ручную. Например, есть у нас фича марки автомобилей: Жигули, Бентли, Рено, Ауди. Так вот автоматом будут присвоены метки: 0, 1, 2. И с точки зрения расстояния, окажется, что Ауди находится от Бентли "дальше", чем Рено или Жигули.
Прошу прощения, пропустил Ваш комментарий и ссылку забыл указать. Вы правы. Исправляюсь github.com/aikula/DataDriven/blob/master/RandomForest.ipynb Также ссылка уже есть в описании.
Большой вам поклон за такое детальное объяснение. Вы единственный ко смог детально ясно и понятно объяснить как это работает.
Дай Бог Вам крепкого здоровья! Вы очень помогаете студентам !
Спасибо за контент
Спасибо огромное, крайне актуально.
Спасибо большое, все понятно и доступно!
Хорошая подача материала! С удовольствием вас слушаю
Большое спасибо! Все очень доступно объяснено
Спасибо за видео, очень интересно.
Большое спасибо!
Легенда
Хотелось бы ещё увидеть как работает бустинг
Точно так же 🙂
from sklearn.ensemble import GradientBoostingClassifier
clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0).fit(X_train, y_train) # прошу прощения что разными коментами
Спасибо))))
Лучшее объяснение, спасибо вам
Почему для кодирования не воспользовались функцией библиотеки skLearn LabelEncoder или OneHotEncoder, а написали собственный скрипт?
Стандартный LabelEncoder не ловит автоматически истинное расстояние между классами. В этом случае лучше формировать словарь в ручную. Например, есть у нас фича марки автомобилей: Жигули, Бентли, Рено, Ауди. Так вот автоматом будут присвоены метки: 0, 1, 2. И с точки зрения расстояния, окажется, что Ауди находится от Бентли "дальше", чем Рено или Жигули.
Здравствуйте, а где взять ссылку на excel файл?
В Гите, где и сам блокнот github.com/aikula/DataDriven/blob/master/RandomForest.ipynb
@@aikula999 спасибо, я не знал как пользоваться гитхабом
Почему в модели классификации используется r2_score?
Согласен, что не лучший вариант. Но позволяет быстро посмотреть насколько алгоритм умеет предсказывать лучше генератора случайных чисел
День добрый, но ссылки нет.
Прошу прощения, пропустил Ваш комментарий и ссылку забыл указать. Вы правы. Исправляюсь github.com/aikula/DataDriven/blob/master/RandomForest.ipynb
Также ссылка уже есть в описании.
@@aikula999 ничего спасибо Вам за видео