Логистическая Регрессия | Logistic Regression | Линейная модель для классификации |МАШИННОЕ ОБУЧЕНИЕ

Поділитися
Вставка
  • Опубліковано 1 чер 2024
  • Поддержать канал можно оформив подписку на
    🎉 boosty.to/machine_learrrning
    🎉 machine_learrrning
    🎉 А можете скидывать монеты на www.donationalerts.com/r/mach...
    Канал в TG t.me/machine_learrrning
    Группа в VK machine_learrrning
    Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
    go.redav.online/13d10800fd8342c0 (Нетология)
    Приходите ко мне на занятия!
    Курсы на платформе Stepik:
    1. Библиотеки Python для Data Science stepik.org/a/129105
    2. Введение в нейронные сети (Keras/Tensorflow) stepik.org/a/127274
    ❓ Вопросы, на которые найдем ответы в этом видео:
    - Что такое логистическая регрессия
    - Как обучается логистическая регрессия
    - Что такое правдоподобие
    - Что такое функция потерь logloss (кросс-энтропия)
    🌟 Линейная регрессия • РЕАЛИЗАЦИЯ ЛИНЕЙНОЙ РЕ...
    0:00 Введение
    0:05 План занятия
    0:20 Что нужно знать для занятия
    0:49 Поддержка boosty.to/machine_learrrning
    0:49 Поддержка machine_learrrning
    1:14 Что такое логистическая регрессия
    2:06 Линейная классификация
    4:11 Сигмоида для линейной классификации
    6:02 Логистическая регрессия простыми словами
    6:24 Как обучается логистическая регрессия
    6:43 Сравнение логистических регрессий
    8:00 Введение в logloss
    8:06 Правдоподобие Likelihood
    8:42 Простой пример расчета правдоподобия
    10:51 Расчет правдоподобия на всех данных
    12:34 Получили логистическую функцию потерь
    12:41 Расчет логлосса на правдоподобии
    13:13 Сравнение кросс-энтропии
    13:38 Вывод кросс-энтропии из правдоподобия
    13:41 Формула подсчета правдоподобия
    14:08 Пример расчета правдоподобия по формуле
    15:40 Вывод формулы logloss
    16:08 Метод максимального правдоподобия
    16:22 Как из правдоподобия получить logloss
    17:34 Градиент по logloss
    18:06 Резюме обучения логистической регрессии
    18:40 Спойлер к следующему видео
    18:54 Резюме занятия
    19:01 Логистическая регрессия - это линейная регрессия с сигмоидой
    19:21 Правдоподобие
    19:30 Logloss, Логлосс, Cross-entropy, Кросс-энтропия
    19:42 ♡

КОМЕНТАРІ • 41

  • @pashamorozov8257
    @pashamorozov8257 Місяць тому +4

    Спасибо большое. Ооооочень доступно и понятно, как и все видеоролики. Вы талант!

  • @poigrushkin9433
    @poigrushkin9433 Рік тому +10

    Ура, жду следующее видео, это было прекрасным

    • @machine_learrrning
      @machine_learrrning  Рік тому +1

      Огромное спасибо за приятные слова! 😊
      Уже совсем скоро, а точнее в субботу выйдет видео про реализацию логистической регрессии

  • @pavelkoloyan7187
    @pavelkoloyan7187 Рік тому +9

    Спасибо. Очень понятно объясняешь. Смотрю твои видео для закрепления материала. Если, что то не догоняю после твоих видео все становиться на места). Про расчет градиента очень бы хотелось послушать. Тема довольно важная кажеться😃👍

  • @petrgolovnin1992
    @petrgolovnin1992 10 місяців тому +2

    Юлия, благодарю за урок! Для чего нужно делать градиентный спуск из logloss и как его делать? Будет супер, если такой урок сделаете)

  • @mariakupfer1240
    @mariakupfer1240 10 місяців тому +2

    О Боже, я наконец-то всё поняла! Спасибо большое! Я правда уже долгое время не могла понять, что такое Правдоподобие и как оно связано с Логистической регрессией! Пошла смотреть другие ваши видео 😊

  • @leshamas_
    @leshamas_ 11 місяців тому +3

    Большое спасибо за разъяснения! Видео очень ёмкое и подробное для каких-то 20 минут =)

  • @user-gw2hb6nd6x
    @user-gw2hb6nd6x 11 місяців тому +3

    Как всегда, отличное объяснение! Спасибо!

  • @Goressi
    @Goressi 9 місяців тому +1

    Прекрасное объяснение, спасибо!

  • @Midjt
    @Midjt 4 місяці тому

    Браво! Прекрасное объяснение! 5+

  • @user-fr7df3tw1v
    @user-fr7df3tw1v Рік тому +1

    Шикарно👏

  • @aaaaaaapchi
    @aaaaaaapchi Рік тому +2

    👏👏 Отлично!

  • @user-wk6cb2yf8l
    @user-wk6cb2yf8l Рік тому +2

    Спасибо, очень доступно, ждём продолжение)

    • @machine_learrrning
      @machine_learrrning  Рік тому

      Пожалуйста!
      Продолжение будет завтра :)

  • @ramzesi201
    @ramzesi201 3 місяці тому

    одно из лучших видео что я видел

  • @user-wr7vn3ve5e
    @user-wr7vn3ve5e Рік тому +2

    Спасибо! Отличный урок!

    • @machine_learrrning
      @machine_learrrning  Рік тому

      Пожалуйста, очень рада, что урок понравился 😊

  • @LoSb_Krakov
    @LoSb_Krakov Рік тому

    Спасибо!

  • @user-im9fi5ee4i
    @user-im9fi5ee4i 7 місяців тому

    leaRRRning это отсылка на что?)) Клевый ролик)

  • @LoSb_Krakov
    @LoSb_Krakov Рік тому

    Я понял, что такое правдоподобие, ура!

  • @aly7401
    @aly7401 Рік тому +2

    Спасибо огромное, это лучшее объяснение правдоподобия. А планируется ли видео по подробному разбору roc-auc?

    • @machine_learrrning
      @machine_learrrning  Рік тому +1

      Про ROC-AUC уже было видео: ua-cam.com/video/v6PPG8J_Egs/v-deo.html

    • @aly7401
      @aly7401 Рік тому

      @@machine_learrrning спасибо, не заметила его с первого раза

  • @ds_sss_rank
    @ds_sss_rank 8 місяців тому

    логлосс вроде это бинарная кросс-энтропия, а не кросс-энтропия 17:30
    за видео спасибо

  • @leowhynot
    @leowhynot Рік тому

    есть видео про подробное получение градиента? хотелось бы еще узнать как высчитываются веса в sklearn модели logreg. неужели все через градиентный спуск?

    • @machine_learrrning
      @machine_learrrning  Рік тому +2

      Про градиентный спуск рассказываю и его показываю в видео про реализацию линейных моделей:
      1. линейная регрессия ua-cam.com/video/KJA9A1q9l7E/v-deo.html
      2. логистическая регрессия ua-cam.com/video/ruVK07YF-RU/v-deo.html
      В этих моделях могут использоваться другие методы оптимизации, более подробно стоит смотреть по агрументу solver в классах sklearn, к примеру, для логрег: scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html

  • @user-ku4nn5pw8p
    @user-ku4nn5pw8p 8 місяців тому

    Спасибо за контент! Видео помогают суммаризировать информацию - ставлю лайк под каждым вашим роликом) По данному видео возникло 3 вопроса:
    1. Почему на 11:55 мы делим на N? Вроде как когда я изучал статистику, при поисках ОМП (оценок макс правдопод) мы не делили правдоподобие на N.
    2. Совпадение ли, что на 17:10 формула похожа на энтропию Шеннона? Если нет, то как это связано?))
    3. Как получилась формула для градиента logloss? Вы сказали, что выведите формулу в след видео с реализацией - я поверхностно пробежался по таймкодам, но вывода не нашел(

    • @user-ku4nn5pw8p
      @user-ku4nn5pw8p 8 місяців тому

      И еще хочу уточнить - на 17:40 вы говорите про то, что мы ищем веса лог. регрессии через градиентный спуск. Но я тут прохожу параллейно логистическую регрессию с одним номинативными предикторами на курсе по статистике и там эти веса - логарифмы отношения шансов отнесения обьекта к классу (log[1ый класс/2ой класс]). Формула с логарифмами - это частный случай для номинативных переменных, который перестает работать в случае количественных переменных?..

  • @Putinka1000
    @Putinka1000 Рік тому +2

    Хотелось бы ссылку на donation alerts, яндекс кошелек и т.п., чтобы иметь возможность единоразово отблагодарить без регистрации. За видео спасибо.

    • @machine_learrrning
      @machine_learrrning  Рік тому

      А такая ссылка есть :)
      www.donationalerts.com/r/machine_learrrning
      Буду рада за поддержку!

  • @user-bj9bf8jn9h
    @user-bj9bf8jn9h 5 місяців тому

    Кто-нибудь объясните пожалуйста про логарифм на 12:21

  • @doniyordjon_pro
    @doniyordjon_pro Рік тому

    Интересно, градиент из логлосса

  • @user-zj6cw9mt3d
    @user-zj6cw9mt3d Рік тому

    Спасибо, а логистическая регрессия умеет работать с пропусками в данных ?

    • @machine_learrrning
      @machine_learrrning  Рік тому

      нет, к сожалению, такой способности у модели нет

  • @Roc19961
    @Roc19961 Рік тому

    А, так вот почему игноришь в лс, ты монтируешь

  • @iotone7525
    @iotone7525 Рік тому

    Кажется, что вы это объясняете это тем, кто это уже все знает, а я ничего не понял. Очень хочется все это понять и объяснить людям ПОНЯТНО, на примере. Просто начинаешь смотреть, какие-то непонятные обозначения. Скалярное произведение. Че за скалярное произведение, че это вообще такое и так все. ну нафиг.

    • @machine_learrrning
      @machine_learrrning  Рік тому

      Может быть для начала ознакомитесь с видео про линейную регрессию, где как раз-таки получаем это скалярное произведение?
      ua-cam.com/video/KJA9A1q9l7E/v-deo.html
      А если говорить кратко, то это перемножение коэффициентов (весов) на признаки (характеристики данных)

    • @iotone7525
      @iotone7525 Рік тому

      @@machine_learrrning Спасибо, попробую

  • @iotone7525
    @iotone7525 Рік тому +1

    Знаете как это выглядит моими глазами? Смотрю на график, там числа, че за числа, че это? непонятно. Ладно, поехали дальше. бла бла бла, Скалярное произведение. Че? Че это такое? Начинаешь гуглить. результат операции над двумя векторами, являющийся скаляром, то есть числом, не зависящим от выбора системы координат. Используется в определении длины векторов и угла между ними. Че? Че? Что это вообще значит? может если я прочитаю че такое вектор мне станет понятно? ок. математический объект, характеризующийся величиной и направлением. Что? че за объект? Что за величина? Направление в пространстве или где? Как это? ааааааа

    • @guts909
      @guts909 3 місяці тому +1

      Линейная алгебра в помощь. Там нет ничего сложно. Можете поизучать и потом намного понятнее станет всё

  • @kosby5963
    @kosby5963 8 місяців тому

    Ты милашка) материал хороший, подписался.