#24. Метрики качества ранжирования. ROC-кривая | Машинное обучение

Поділитися
Вставка
  • Опубліковано 21 кві 2022
  • Как оценивать модели ранжирования данных. Характеристики False Positive Rate и True Positive Rate. Построение на их основе ROC-кривой (Receiver Operating Characteristic). Вычисление площадей AUC-ROC и индекс Джини (коэффициент Джини).
    Инфо-сайт: proproprogs.ru/ml
    Телеграм-канал: t.me/machine_learning_selfedu

КОМЕНТАРІ • 19

  • @andreychernykh256
    @andreychernykh256 2 роки тому +7

    как всегда великолепное объяснение!!!!!

  • @dubinin_s
    @dubinin_s 2 роки тому +3

    Спасибо за видео.
    Самая сложная для меня тема))) Очень хорошо объяснили, теперь и я все понял.

  • @juliamiller5441
    @juliamiller5441 Рік тому

    Одно из самых понятных разъяснений. Благодарю вас. Успехов вам

  • @alexandercherkashin3512
    @alexandercherkashin3512 11 місяців тому +1

    Спасибо! Fb мера понравилась. Не знал раньше)

  • @osvab000
    @osvab000 2 роки тому +3

    Отличное видео!

  • @normalnoenazvaniedlyaslaba4566

    спасибо, все очень доходчиво

  • @impellergimpeller5133
    @impellergimpeller5133 2 роки тому +3

    👍👍👍👍👍

  • @gienek_mscislawski
    @gienek_mscislawski 2 роки тому +3

    Немного непонятно с формальной точки зрения, как будет увеличиваться FPR, если там используется False, при этом модель никогда не ошибается? 10:56
    В целом понятно, что при идеальном ранжировании мы сначала перебрали все объекты класса +1 и поднялись по оси TPR и остаются образы -1.

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      да, именно для идеальной, в реальной будут ошибки и мы начнем отходить от идеальной кривой

    • @olbasdjirmyhamedov704
      @olbasdjirmyhamedov704 Рік тому +4

      @@selfedu_rus здравствуйте! Вопрос про этот же момент. Не очень понятно, все таки, почему когда мы перебрали все положительные образы (то есть для идеальной модели достигли порога TPR = 1), то потом увеличивается FPR? То есть, не понятно как формируется горизонтальная линия вдоль оси FPR на графике ROC для идеальной модели.
      Если модель не ошибается, то FPR всегда же равен 0? И тогда в числителе всегда будет 0 и этой полосы не должно быть

    • @manishmabesedr
      @manishmabesedr 11 місяців тому

      там на графике ошибка как я понял? внизу не FPR а 1-FPR. это получается доля верно обнаруженных отрицательных классификаций @@olbasdjirmyhamedov704

  • @nicko6815
    @nicko6815 2 роки тому +4

    Благодарю Вас за прекрасные об'яснения! Планируется ли урок по многоклассовой классификации?

    • @selfedu_rus
      @selfedu_rus  2 роки тому +2

      да, пару слов скажу ))

  • @kat_katchinskiy
    @kat_katchinskiy Рік тому +1

    Если бы не ваши уроки, я бы бросил программирование.

  • @user-gt8yq9qh5r
    @user-gt8yq9qh5r Рік тому +2

    Действительно ли прямая y=x называется наихудшей моделью? Ведь можно сделать и хуже)

    • @selfedu_rus
      @selfedu_rus  Рік тому +2

      да, наихудшая, т.к. если сделаете хуже, то просто инвертируйте и она станет лучше, чем y=x ))

    • @user-gt8yq9qh5r
      @user-gt8yq9qh5r Рік тому

      @@selfedu_rus мудро, спасибо за ответ!)

  • @user-gd8ee3li5n
    @user-gd8ee3li5n 10 місяців тому +1

    Не совсем понял как получается, что площадь между диагональю и кривой равна 2*rocauc-1. Разве правильно не roc-auc-0.5?

    • @selfedu_rus
      @selfedu_rus  10 місяців тому

      умножьте свою формулу на 2 и получите формулу выше (удвоенная площадь, но это не влияет на оптимизацию)