#19. Введение в метод опорных векторов (SVM) | Машинное обучение

Поділитися
Вставка
  • Опубліковано 11 кві 2022
  • Вывод метода опорных векторов (Support Vector Machine - SVM) для линейно разделимого и линейно неразделимого случаев.
    Инфо-сайт: proproprogs.ru/ml
    Телеграм-канал: t.me/machine_learning_selfedu

КОМЕНТАРІ • 38

  • @user-bc7ky5di9t
    @user-bc7ky5di9t 2 роки тому +21

    Большое спасибо за подготовленные материалы, под каждым видео не буду писать благодарности, но знайте, про себя каждый день благодарю вас за помощь в обучении) Манера подачи и плотность полезной информации одни из лучших на русскоязычном пространстве

  • @user-dn2rj6uo5m
    @user-dn2rj6uo5m 10 місяців тому +3

    Вы святой человек! 😂 целый день искала хорошее объяснение svm но все недопонимала до конца как он выводится, спасибо что создали это видео!

  • @Takumy_
    @Takumy_ 11 місяців тому +4

    Огромное спасибо! Прохожу курс лекций по ML от ШАД яндекса, вы отлично объяснили то, что я не понял у них.

  • @user-fc3cm7xj7x
    @user-fc3cm7xj7x 5 місяців тому +2

    Супер! Даже я поняла, спасибо большое!

  • @dubinin_s
    @dubinin_s 2 роки тому +6

    Огромное спасибо за понятное и наглядное объяснение.
    Судя по формулам, то с какой стороны на решение проблемы не посмотри все сводится к выбору функции потерь и регуляризации.

    • @selfedu_rus
      @selfedu_rus  2 роки тому +1

      Да, верно. Пока все разнообразие алгоритмов можно воспринимать именно так!

  • @user-we7kw8wt1l
    @user-we7kw8wt1l Рік тому +1

    Харош мужик

  • @YbisZX
    @YbisZX Рік тому +2

    @selfedu В целом понятно, но есть вопросы:
    5:10 - Почему направление вектора (xp-xm) будет совпадать с w? И далее ты про угол между ними говоришь. Как я понял, это задача стоит настроить w близко к этому.
    6:50 - Разве ширина полосы безразмерна? Сам же пишешь, ширина это |xp-xm|*cos(a), проекция вектора dx на w. Размерность у нее - единицы x. Мы делим на |w| как раз чтобы оставить из скалярного произведения только ширину (в размерности признаков).
    8:40 - Как подбираются граничные образы и альфа? На каждом шаге ищутся ближайшие к линии образы, замеряется дистанция d, тогда a=1/d?
    14:25 - Как задаются кси_i и куда они исчезли из формулы? Если приравняли 0, то получили формулу для линейно разделимого случая? А иначе срезы не по 0, а по кси_i?

    • @selfedu_rus
      @selfedu_rus  Рік тому

      1. Да, совпадает, т.к. направление векторов идет в сторону класса с меткой +1.
      2. Здесь да, мы избавляемся только от размера w, но не x, согласен, хотя потом, расстояния между этими векторами также нормируем, поэтому, в целом, не критично.
      3. Скорее всего, внутрь sc-learn не заглядывал, как в нем это реализовано не скажу, но как вариант ваш подход вполне возможен.
      4. Не совсем это понял, т.к. в видео четко об этом говорится. Мы рассматриваем минимальные значения кси, чтобы минимизировать первое неравенство, и отсюда получаем кусочно-линейную их зависимость от двух других параметров w и b. Все.

    • @YbisZX
      @YbisZX Рік тому

      @@selfedu_rus 1. А, то есть направление векторов "совпадает" не в смысле точно, а в смысле - направлены в сторону того же класса.
      4. Я просто понял будто кси_i изначально как-то задаются, а имеется в виду, что они допускаются как некие степени свободы, которые в итоге выражаются и минимизируются срезами (1-Mi)+

    • @selfedu_rus
      @selfedu_rus  Рік тому

      @@YbisZX 1. Да, в одну сторону (острый угол). 4. Да, кси - это оптимизируемые параметры

  • @impellergimpeller5133
    @impellergimpeller5133 2 роки тому +1

    👍👍👍👍👍

  • @levonabgaryan304
    @levonabgaryan304 Рік тому +1

    А можем b, добавить в вектор омега(новая строка) а в X-ах добавить столбец единиц, ведь уравнение гиперплоскости не изменится (умножением двух матриц), и так минизировать длинну омеги?

  • @UncleMrFunny
    @UncleMrFunny 2 роки тому +1

    Здравствуйте!! Хотелось бы узнать будете ли вы в proproprogs выкладывать объяснение как с нейросетью(ютуб ролик + документ)?

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      да, буду после формирования всего курса

  • @user-vt4wz4om4n
    @user-vt4wz4om4n 9 місяців тому

    На 9-40 в формуле не пропущена w около x(-)?

  • @dicloniusN35
    @dicloniusN35 Рік тому +2

    доставляет интонация) будто автор задумал затроллить зрителя и радуется в предвкушении))

  • @leonidandreyev8479
    @leonidandreyev8479 Рік тому +1

    Не до конца понимаю. На 8:00 определяем Mi=yi*a(xi)=y(-b), хотя функция a была определена как знаковая до этого с областью определения {-1;+1}.

    • @selfedu_rus
      @selfedu_rus  Рік тому

      При вычислении отступа мы берем только скалярное произведение без знаковой функции.

  • @romanbykov5922
    @romanbykov5922 2 роки тому +2

    Привет. Спасибо.
    У меня вопрос: видел, у вас канал на RuTube завёлся. А туда весь свой контент переносить планируете?

    • @selfedu_rus
      @selfedu_rus  2 роки тому +2

      Думаю, нет. Гиблый сервис ) Залил все на VK.

    • @siarheibelko8457
      @siarheibelko8457 2 роки тому

      @@selfedu_rus И еще вопрос. Будете ли продолжать выкладывать видео на UA-cam?

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      думаю, да

  • @lera6801
    @lera6801 2 роки тому +1

    почему мы используем индекс Т у ориентации гиперплоскости, это когда связано с транспонированием?

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      да, здесь T - это знак транспонирования

    • @lera6801
      @lera6801 2 роки тому

      @@selfedu_rus для чего здесь нужен знак транспонирования, это разве не просто прямая?

  • @amorceepar9220
    @amorceepar9220 8 місяців тому

    В других материалах везде вижу L=2/||w||, без квадрата. Всё же непонятно, почему у вас двойная как нормировка?

    • @selfedu_rus
      @selfedu_rus  8 місяців тому

      мы далее все равно расстояние до граничных элементов нормируем к 1, поэтому 1 и 1^2 одно и то же

  • @user-tt6kw9jp8r
    @user-tt6kw9jp8r 2 роки тому +3

    Не очень понятна равносильность при замене 2 нормы в знаменателе на её квадрат, ведь по сути после этого это максимизируемое выражение уже не проекция на единичный вектор

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      да, это разные метрики, но главное, что мы нормируем вектор w, а единицы потом получаем выбором параметра alfa

    • @girrra1233
      @girrra1233 Рік тому +1

      @@selfedu_rus Можете объяснить как работает нормирование отступа? Классы же на фиксированном расстоянии друг от друга, как мы можем умножением на константу сделать отступ единичным? Мы разве сдвигаем классы к прямой?

    • @selfedu_rus
      @selfedu_rus  Рік тому

      @@girrra1233 нет, у нас есть два ближайших к разделяющей линии класса, эта линия точно по центру, значит, расстояния до них одинаковы, пусть равны d. Число d не равно 1, нормируем: a = M/d.

    • @girrra1233
      @girrra1233 Рік тому

      @@selfedu_rus Верно ли я понял, что в реальности с расстоянием ничего не происходит, мы просто нормируем весовой вектор так, чтобы чисто вычислительно получать единичку? Просто для математического удобства?

    • @selfedu_rus
      @selfedu_rus  Рік тому

      @@girrra1233 совершенно верно! вся разница в чем мерить: в попугаях или удавах ))

  • @user-qj6tk5fw9p
    @user-qj6tk5fw9p 3 місяці тому +1

    Вопрос, а почему нельзя для определения ширины полосы просто сделать так L = 2*|W| ??? так как я понимаю вектор W идет от разделяющей гиперплоскости (центра полосы) перпендикулярно, до границы разделяюшей полосы. и следовательно, мы просто умножаем длину вектора W на 2 (хотя можно даже и не умножать на 2, так как нам не важно по сути само значение, а важно лишь найти наибольшую полосу). P.S. проверял на случайных данных на чертеже и все в точности сходится, как при использовании вашей формулы, так и той что я предложил, только вычислений меньше.

    • @selfedu_rus
      @selfedu_rus  3 місяці тому

      тогда сама длина |W| не будет иметь значения, т.е. коэффициенты можно увеличивать или уменьшать до бесконечности?

    • @user-qj6tk5fw9p
      @user-qj6tk5fw9p 3 місяці тому +1

      Я понял в чем дело, спасибо!