6:37 - Тренировочные данные 8:53 - Стандартизация 12:18 - Бинаризация 15:24 - Кодирование категориальных признаков 17:46 - С учителем: линейная регрессия, SVM, наивный байесовский, метод ближайших соседей 20:11 - Без учителя: метод главных компонент, К - средних 21:58 - Обучение модели / предсказание 26:40 - Оценка качества модели 32:30 - Кросс валидация 37:10 - Оптимизация модели 40:59 - Большой пример 44:50 - Сохранение и загрузка
Йомайо, Метод Pca ,уже вывели в ряд с методами без учителя? Это ж просто метод уменьшение размерности,шума,и мультиcov, Он не способен решать задачи кластеризации, Метод независимых компонент ,уже на такое способен,и его можно назвать методом без учителя ,
@@pyloungeТы напутал на 11:50. Все что ты говорил про масштабы признаков исправляется стандартизацией. Нормализация совсем для другого нужна. Сам посмотри - как была разница в признаках на порядки - так и осталась: было миллионы к одному, а стало один к миллионной. И выборку испортил - признаки в первом столбце были одного порядка, а стали вдруг отличаться на два порядка.
Если хочется поддержать канал, то лайка и коммента более чем достаточно) Если же распирает поделиться монеткой, то сюда: 💸 Хочешь поддержать канал: qiwi.com/n/PYLOUNGE (Никнейм QIWI Кошелька - PYLOUNGE) 💰 Donation Alerts: www.donationalerts.com/r/pylounge
The scikit-learn maintainers therefore strongly discourage the use of this dataset unless the purpose of the code is to study and educate about ethical issues in data science and machine learning.
6:37 - Тренировочные данные
8:53 - Стандартизация
12:18 - Бинаризация
15:24 - Кодирование категориальных признаков
17:46 - С учителем: линейная регрессия, SVM, наивный байесовский, метод ближайших соседей
20:11 - Без учителя: метод главных компонент, К - средних
21:58 - Обучение модели / предсказание
26:40 - Оценка качества модели
32:30 - Кросс валидация
37:10 - Оптимизация модели
40:59 - Большой пример
44:50 - Сохранение и загрузка
Уважаемо)
Йомайо,
Метод Pca ,уже вывели в ряд с методами без учителя?
Это ж просто метод уменьшение размерности,шума,и мультиcov,
Он не способен решать задачи кластеризации,
Метод независимых компонент ,уже на такое способен,и его можно назвать методом без учителя ,
Огромное спасибо! Как раз то, что я искала. Супер понятный обзор, а насколько кому и куда нужно углубиться - это уже личный выбор.
Спасибище!!! Это искусство уметь объяснять сложные вещи просто!
Все очень понятно.
Большое вам спасибо ! Все так качественно и понятно ! Большая просьба сделайте уроки для библиотек Tensorflow и Keras )
Шикарно!!!
Спасибо, появилось понимание структуры
Урок по какой библиотеке хотели бы увидеть вы в следующий раз?)
Если можно, ещё разобрать
NLTK (Natural Language Toolkit)
Обзор библиотеки PyTorch
tensorwlow )
Pandas
@@utka111 Есть уже ролик на канале)
Огонь вообще!)
Комментарий для продвижения канала!
Уау! Нет слов, спасибо!
Очень качественное объяснение. Спасибо.
Нихера не качественное,закинули какой то рандомный пример и иди разбирайся что там
Просто лучший!
Оченъ понятно спасибо
прости, но я сначала ты подумал, что ты Роман с simply formula. Голос похож)) Классный ролик!
А если мне нужно для оценки учитывать соседние ячейки. Есть такой функционал?
Спасибо большое. По pytorch бы глянуть видео от вас)
Привет, спасибо за проделанную работу.
просьба добавить больше описание желаемой цели и результата. и объяснения хода действий.
Лучший!
спасибо за видос
Видео, супер, все по полочкам. Скажи пожалуйста, а где можно скачать этот блокнот, что в видео?
github.com/pylounge/pylounge-data-scientist-starter-pack
@@pylounge Спасибо большое + еще подписался на твой GitHub
@@pyloungeТы напутал на 11:50. Все что ты говорил про масштабы признаков исправляется стандартизацией. Нормализация совсем для другого нужна. Сам посмотри - как была разница в признаках на порядки - так и осталась: было миллионы к одному, а стало один к миллионной. И выборку испортил - признаки в первом столбце были одного порядка, а стали вдруг отличаться на два порядка.
а где датасеты то скачать?
Отличное видео.
Продвижение канала
Реально ли сделать с этой библиотекой бота для вов(мморпг) или для херстоуна ?
Возможно все. Главное смоч правильно интерпретировать задачу при помощи этой или других библиотек
Что такое Бостонские дома?
рахмат
Спасибо
41:00 метрику лучшую так и не получил?
Хоспаде сколько же тебе на пиво скинуть , чувствую сколько времени сэкономил смотря твои видео и меня переполняют чувства благодарности
Если хочется поддержать канал, то лайка и коммента более чем достаточно)
Если же распирает поделиться монеткой, то сюда:
💸 Хочешь поддержать канал: qiwi.com/n/PYLOUNGE (Никнейм QIWI Кошелька - PYLOUNGE)
💰 Donation Alerts:
www.donationalerts.com/r/pylounge
Посмотрел примерно до середины. Очень много оговорок, в целом есть только описание методов самой библиотеки.
Согласен. Похоже на обзорную экскурсию по методам. Как по мне все быстро и скомкано.
The scikit-learn maintainers therefore strongly discourage the use of
this dataset unless the purpose of the code is to study and educate
about ethical issues in data science and machine learning.
Очень интересно но примерно с середины видео ничего не понятно.
Не хватает базовых знаний для воспринятия информации.
Будем учить мат часть))
С маток выпал 22:26
троечник с музычкой
24 просмотра
Я 25
Пожалуйста английское е читайте как э а не как ё, нет там точек над е, режет слух
Ммм, сначала бы разобраться с основными терминами... Манмикс 😂😂😂 ты что тут миксовый айран решил готовить... МИНМАКС