Математика машинного обучения 0:05 - метод наименьших квадратов, линейная регрессия 2:15 - если х одномерный, система нормальных уравнений ( с 2 уравнениями ) 4:48 - если х двумерный(многомерный), система нормальных уравнений ( с 3 уравнениями ) 13:50 - можно ли использовать метод наименьших квадратов для решения задачи классификации? 19:50 - логистическая регрессия 24:50 - разделяющая поверхность - линейная (гиперплоскость) 26:50 - пояснения, о пороговом значении 34:25 - логистическая регрессия - маленькая нейронная сеть 36:46 - функция softmax (обобщение логистической регрессии на k классов) 40:35 - пояснения, о функции softmax для 2-х классов 52:00 - "голая" логистическая регрессия vs softmax (для k = 2) 55:15 - как обучать модель? (как подбирать параметры) 55:47 - logloss-функция для 2-х классов 1:06:10 - logloss-функция для k классов 1:08:30 - пояснения, принцип максимального правдоподобия
Математика машинного обучения
0:05 - метод наименьших квадратов, линейная регрессия
2:15 - если х одномерный, система нормальных уравнений ( с 2 уравнениями )
4:48 - если х двумерный(многомерный), система нормальных уравнений ( с 3 уравнениями )
13:50 - можно ли использовать метод наименьших квадратов для решения задачи классификации?
19:50 - логистическая регрессия
24:50 - разделяющая поверхность - линейная (гиперплоскость)
26:50 - пояснения, о пороговом значении
34:25 - логистическая регрессия - маленькая нейронная сеть
36:46 - функция softmax (обобщение логистической регрессии на k классов)
40:35 - пояснения, о функции softmax для 2-х классов
52:00 - "голая" логистическая регрессия vs softmax (для k = 2)
55:15 - как обучать модель? (как подбирать параметры)
55:47 - logloss-функция для 2-х классов
1:06:10 - logloss-функция для k классов
1:08:30 - пояснения, принцип максимального правдоподобия