#21. Метод опорных векторов (SVM) с нелинейными ядрами | Машинное обучение

Поділитися
Вставка
  • Опубліковано 15 кві 2022
  • Принцип классификации метода опорных векторов. SVM с нелинейными ядрами: полиномиальными (poly), радиальными (rbf) и гиперболическими (тангенс) ядрами. SVM как двухслойная нейронная сеть. Способы синтеза ядер. Преимущества и недостатки SVM.
    Инфо-сайт: proproprogs.ru/ml
    Телеграм-канал: t.me/machine_learning_selfedu

КОМЕНТАРІ • 16

  • @user-vd5rb4lp8l
    @user-vd5rb4lp8l 3 місяці тому +1

    Очень качественно.Так приятно и легко изучать машинное обучение с вашими видео)

  • @haykmuradyan9956
    @haykmuradyan9956 2 роки тому +5

    очень хорошо и понятно объясняешь, очень помогает понять некоторые алгоритмы, думаю будет интересно продолжение, жду других алгоритмов))(tree, random forest, bagging, busting, PCA, алгоритмы кластеризации и другие), спасибо

  • @dubinin_s
    @dubinin_s 2 роки тому +2

    Спасибо за видео.

  • @unaibekovbakhyt6517
    @unaibekovbakhyt6517 2 роки тому +2

    Спасибо.

  • @user-qj6tk5fw9p
    @user-qj6tk5fw9p 3 місяці тому

    огромное спасибо за урок!! хотел спросить, а вы не планируете сделать небольшой курс по библиотеке Scikit-Learn?

  • @fanisbaygildin6962
    @fanisbaygildin6962 5 днів тому +1

    У LinearSVC в Sklearn есть гиперпараметр Penalty, у которого есть значение L1, я так понимаю, что это и есть встроенный отбор признаков.

    • @selfedu_rus
      @selfedu_rus  4 дні тому

      в SVM L1-регуляризатор не встроен, если только они как то искусственно его добавили, но есть L2-регуляризатор, может это про него?

    • @fanisbaygildin6962
      @fanisbaygildin6962 4 дні тому

      ​@@selfedu_rus нет-нет, все верно, у SVC нет L1. Но у sklearn для SVM есть 3 отдельных алгоритма классификации: SVC, LinearSVC и NuSVC. У первых 2х совсем мало отличий, если сравнивать SVC(linear kernel) и LinearSVC. У SVC и NuSVC действительно нет встроенного L1, но я заметил, что у LinearSVC есть гиперпараметр penalty{‘l1’, ‘l2’}, default=’l2’. Я только что попробовал его в деле, и он действительно зануляет признаки при регулировании параметра C. Но это получается L1 встроен только для линейной классификации, а для остальных ядер - нет. Что скажете? Я только учусь, и поэтому не всегда уверен в своих умозаключениях 😄

  • @math9693
    @math9693 2 роки тому +3

    А где вы преподаете?

  • @impellergimpeller5133
    @impellergimpeller5133 2 роки тому +1

    👍👍👍👍👍

  • @unaibekovbakhyt6517
    @unaibekovbakhyt6517 2 роки тому +2

    По javascript будут ли уроки, в частности по фреймворкам? У вас отличная подача информации

    • @selfedu_rus
      @selfedu_rus  2 роки тому +1

      спасибо, по JS есть плейлисты, правда, без фреймовроков

  • @YbisZX
    @YbisZX Рік тому +1

    Не понятно на 8:42 - как ядро может быть константой K(x,x')=1? Тогда же a(x) не будет зависеть от x...

    • @selfedu_rus
      @selfedu_rus  Рік тому

      константа и оно определено в диапазоне [0;1] получаем кусочно-линейную аппроксимацию

  • @kirillbalabanov39
    @kirillbalabanov39 Рік тому

    4:30 1 в 1 Воронцов. Даже "не конструктивно" оттуда же:)

    • @selfedu_rus
      @selfedu_rus  Рік тому +1

      это определение, не придумывать же его самому )