#21. Метод опорных векторов (SVM) с нелинейными ядрами | Машинное обучение
Вставка
- Опубліковано 15 кві 2022
- Принцип классификации метода опорных векторов. SVM с нелинейными ядрами: полиномиальными (poly), радиальными (rbf) и гиперболическими (тангенс) ядрами. SVM как двухслойная нейронная сеть. Способы синтеза ядер. Преимущества и недостатки SVM.
Инфо-сайт: proproprogs.ru/ml
Телеграм-канал: t.me/machine_learning_selfedu
Очень качественно.Так приятно и легко изучать машинное обучение с вашими видео)
очень хорошо и понятно объясняешь, очень помогает понять некоторые алгоритмы, думаю будет интересно продолжение, жду других алгоритмов))(tree, random forest, bagging, busting, PCA, алгоритмы кластеризации и другие), спасибо
Спасибо за видео.
Спасибо.
огромное спасибо за урок!! хотел спросить, а вы не планируете сделать небольшой курс по библиотеке Scikit-Learn?
У LinearSVC в Sklearn есть гиперпараметр Penalty, у которого есть значение L1, я так понимаю, что это и есть встроенный отбор признаков.
в SVM L1-регуляризатор не встроен, если только они как то искусственно его добавили, но есть L2-регуляризатор, может это про него?
@@selfedu_rus нет-нет, все верно, у SVC нет L1. Но у sklearn для SVM есть 3 отдельных алгоритма классификации: SVC, LinearSVC и NuSVC. У первых 2х совсем мало отличий, если сравнивать SVC(linear kernel) и LinearSVC. У SVC и NuSVC действительно нет встроенного L1, но я заметил, что у LinearSVC есть гиперпараметр penalty{‘l1’, ‘l2’}, default=’l2’. Я только что попробовал его в деле, и он действительно зануляет признаки при регулировании параметра C. Но это получается L1 встроен только для линейной классификации, а для остальных ядер - нет. Что скажете? Я только учусь, и поэтому не всегда уверен в своих умозаключениях 😄
А где вы преподаете?
👍👍👍👍👍
По javascript будут ли уроки, в частности по фреймворкам? У вас отличная подача информации
спасибо, по JS есть плейлисты, правда, без фреймовроков
Не понятно на 8:42 - как ядро может быть константой K(x,x')=1? Тогда же a(x) не будет зависеть от x...
константа и оно определено в диапазоне [0;1] получаем кусочно-линейную аппроксимацию
4:30 1 в 1 Воронцов. Даже "не конструктивно" оттуда же:)
это определение, не придумывать же его самому )