Логистическая Регрессия | Logistic Regression | Линейная модель для классификации |МАШИННОЕ ОБУЧЕНИЕ
Вставка
- Опубліковано 1 чер 2024
- Поддержать канал можно оформив подписку на
🎉 boosty.to/machine_learrrning
🎉 machine_learrrning
🎉 А можете скидывать монеты на www.donationalerts.com/r/mach...
Канал в TG t.me/machine_learrrning
Группа в VK machine_learrrning
Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
go.redav.online/13d10800fd8342c0 (Нетология)
Приходите ко мне на занятия!
Курсы на платформе Stepik:
1. Библиотеки Python для Data Science stepik.org/a/129105
2. Введение в нейронные сети (Keras/Tensorflow) stepik.org/a/127274
❓ Вопросы, на которые найдем ответы в этом видео:
- Что такое логистическая регрессия
- Как обучается логистическая регрессия
- Что такое правдоподобие
- Что такое функция потерь logloss (кросс-энтропия)
🌟 Линейная регрессия • РЕАЛИЗАЦИЯ ЛИНЕЙНОЙ РЕ...
0:00 Введение
0:05 План занятия
0:20 Что нужно знать для занятия
0:49 Поддержка boosty.to/machine_learrrning
0:49 Поддержка machine_learrrning
1:14 Что такое логистическая регрессия
2:06 Линейная классификация
4:11 Сигмоида для линейной классификации
6:02 Логистическая регрессия простыми словами
6:24 Как обучается логистическая регрессия
6:43 Сравнение логистических регрессий
8:00 Введение в logloss
8:06 Правдоподобие Likelihood
8:42 Простой пример расчета правдоподобия
10:51 Расчет правдоподобия на всех данных
12:34 Получили логистическую функцию потерь
12:41 Расчет логлосса на правдоподобии
13:13 Сравнение кросс-энтропии
13:38 Вывод кросс-энтропии из правдоподобия
13:41 Формула подсчета правдоподобия
14:08 Пример расчета правдоподобия по формуле
15:40 Вывод формулы logloss
16:08 Метод максимального правдоподобия
16:22 Как из правдоподобия получить logloss
17:34 Градиент по logloss
18:06 Резюме обучения логистической регрессии
18:40 Спойлер к следующему видео
18:54 Резюме занятия
19:01 Логистическая регрессия - это линейная регрессия с сигмоидой
19:21 Правдоподобие
19:30 Logloss, Логлосс, Cross-entropy, Кросс-энтропия
19:42 ♡
Спасибо большое. Ооооочень доступно и понятно, как и все видеоролики. Вы талант!
Ура, жду следующее видео, это было прекрасным
Огромное спасибо за приятные слова! 😊
Уже совсем скоро, а точнее в субботу выйдет видео про реализацию логистической регрессии
Спасибо. Очень понятно объясняешь. Смотрю твои видео для закрепления материала. Если, что то не догоняю после твоих видео все становиться на места). Про расчет градиента очень бы хотелось послушать. Тема довольно важная кажеться😃👍
Юлия, благодарю за урок! Для чего нужно делать градиентный спуск из logloss и как его делать? Будет супер, если такой урок сделаете)
О Боже, я наконец-то всё поняла! Спасибо большое! Я правда уже долгое время не могла понять, что такое Правдоподобие и как оно связано с Логистической регрессией! Пошла смотреть другие ваши видео 😊
Большое спасибо за разъяснения! Видео очень ёмкое и подробное для каких-то 20 минут =)
Как всегда, отличное объяснение! Спасибо!
Прекрасное объяснение, спасибо!
Браво! Прекрасное объяснение! 5+
Шикарно👏
👏👏 Отлично!
Спасибо, очень доступно, ждём продолжение)
Пожалуйста!
Продолжение будет завтра :)
одно из лучших видео что я видел
Спасибо! Отличный урок!
Пожалуйста, очень рада, что урок понравился 😊
Спасибо!
leaRRRning это отсылка на что?)) Клевый ролик)
Я понял, что такое правдоподобие, ура!
Спасибо огромное, это лучшее объяснение правдоподобия. А планируется ли видео по подробному разбору roc-auc?
Про ROC-AUC уже было видео: ua-cam.com/video/v6PPG8J_Egs/v-deo.html
@@machine_learrrning спасибо, не заметила его с первого раза
логлосс вроде это бинарная кросс-энтропия, а не кросс-энтропия 17:30
за видео спасибо
есть видео про подробное получение градиента? хотелось бы еще узнать как высчитываются веса в sklearn модели logreg. неужели все через градиентный спуск?
Про градиентный спуск рассказываю и его показываю в видео про реализацию линейных моделей:
1. линейная регрессия ua-cam.com/video/KJA9A1q9l7E/v-deo.html
2. логистическая регрессия ua-cam.com/video/ruVK07YF-RU/v-deo.html
В этих моделях могут использоваться другие методы оптимизации, более подробно стоит смотреть по агрументу solver в классах sklearn, к примеру, для логрег: scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html
Спасибо за контент! Видео помогают суммаризировать информацию - ставлю лайк под каждым вашим роликом) По данному видео возникло 3 вопроса:
1. Почему на 11:55 мы делим на N? Вроде как когда я изучал статистику, при поисках ОМП (оценок макс правдопод) мы не делили правдоподобие на N.
2. Совпадение ли, что на 17:10 формула похожа на энтропию Шеннона? Если нет, то как это связано?))
3. Как получилась формула для градиента logloss? Вы сказали, что выведите формулу в след видео с реализацией - я поверхностно пробежался по таймкодам, но вывода не нашел(
И еще хочу уточнить - на 17:40 вы говорите про то, что мы ищем веса лог. регрессии через градиентный спуск. Но я тут прохожу параллейно логистическую регрессию с одним номинативными предикторами на курсе по статистике и там эти веса - логарифмы отношения шансов отнесения обьекта к классу (log[1ый класс/2ой класс]). Формула с логарифмами - это частный случай для номинативных переменных, который перестает работать в случае количественных переменных?..
Хотелось бы ссылку на donation alerts, яндекс кошелек и т.п., чтобы иметь возможность единоразово отблагодарить без регистрации. За видео спасибо.
А такая ссылка есть :)
www.donationalerts.com/r/machine_learrrning
Буду рада за поддержку!
Кто-нибудь объясните пожалуйста про логарифм на 12:21
Интересно, градиент из логлосса
Спасибо, а логистическая регрессия умеет работать с пропусками в данных ?
нет, к сожалению, такой способности у модели нет
А, так вот почему игноришь в лс, ты монтируешь
Кажется, что вы это объясняете это тем, кто это уже все знает, а я ничего не понял. Очень хочется все это понять и объяснить людям ПОНЯТНО, на примере. Просто начинаешь смотреть, какие-то непонятные обозначения. Скалярное произведение. Че за скалярное произведение, че это вообще такое и так все. ну нафиг.
Может быть для начала ознакомитесь с видео про линейную регрессию, где как раз-таки получаем это скалярное произведение?
ua-cam.com/video/KJA9A1q9l7E/v-deo.html
А если говорить кратко, то это перемножение коэффициентов (весов) на признаки (характеристики данных)
@@machine_learrrning Спасибо, попробую
Знаете как это выглядит моими глазами? Смотрю на график, там числа, че за числа, че это? непонятно. Ладно, поехали дальше. бла бла бла, Скалярное произведение. Че? Че это такое? Начинаешь гуглить. результат операции над двумя векторами, являющийся скаляром, то есть числом, не зависящим от выбора системы координат. Используется в определении длины векторов и угла между ними. Че? Че? Что это вообще значит? может если я прочитаю че такое вектор мне станет понятно? ок. математический объект, характеризующийся величиной и направлением. Что? че за объект? Что за величина? Направление в пространстве или где? Как это? ааааааа
Линейная алгебра в помощь. Там нет ничего сложно. Можете поизучать и потом намного понятнее станет всё
Ты милашка) материал хороший, подписался.