t.me/start_ds - Тут публикуются материалы для прокачки скиллов в DS и подготовки к собеседованиям. Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
Для кого непонятен вывод на 10:53 Latex-code: Это почти логистическая регрессия, проведем ряд формул Исходный функционал с логарифмами $-\sum_{i=1}^l[y_i=-1]log\sigma() + [y_i=1]log(1 - \sigma()) =$ Подставим сигмоиду $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-)} + [y_i=1]log(1 - \frac{1}{1 + exp(-)}) =$ Приведем дробь к общему знаменателю в $log(1 - \frac{1}{1 + exp(-)})$ и проделаем несложные операции с дробями $-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-)} + [y_i=1]log(\frac{1}{1 + exp()}) =$ Воспользуемся свойством логарифма $log(1/x) = -log(x)$ - пропадет минус перед суммой $\sum_{i=1}^l[y_i=-1]log{1 + exp(-)} + [y_i=1]log({1 + exp()}) =$ Слогаемые отличаются только знаком, заметим, что знак перед скалярным произведеним противоположени со знаком индикатора, то есть мы можем просто убрать разделение, заменив знак обратным $y_i$ $\sum_{i=1}^l log(1 + exp(-y_i \times))$
Хорошее видео. На последнем слайде опечатка: в столбце про мошенников в разделе "Таргет" дублируется текст из столбца "Антиспам". А должно быть: 0 - мошенническая операция, 1 - обычная операция.
Не понятно как мы нашли веса в начале видео🤔что предсказывали то? если мы строим обычную регрессию, то нам ведь нужен какой-то таргет, для которого мы уравнение линейной регрессии строим.
t.me/start_ds - Тут публикуются материалы для прокачки скиллов в DS и подготовки к собеседованиям.
Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
Спасибо огромнейшее за понятный и интересный разбор этой темы! С нетерпением буду ждать следующих видео :)
Спасибо большое, очень хорошо обьясняешь
Для кого непонятен вывод на 10:53 Latex-code:
Это почти логистическая регрессия, проведем ряд формул
Исходный функционал с логарифмами
$-\sum_{i=1}^l[y_i=-1]log\sigma() + [y_i=1]log(1 - \sigma()) =$
Подставим сигмоиду
$-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-)} + [y_i=1]log(1 - \frac{1}{1 + exp(-)}) =$
Приведем дробь к общему знаменателю в $log(1 - \frac{1}{1 + exp(-)})$ и проделаем несложные операции с дробями
$-\sum_{i=1}^l[y_i=-1]log\frac{1}{1 + exp(-)} + [y_i=1]log(\frac{1}{1 + exp()}) =$
Воспользуемся свойством логарифма $log(1/x) = -log(x)$ - пропадет минус перед суммой
$\sum_{i=1}^l[y_i=-1]log{1 + exp(-)} + [y_i=1]log({1 + exp()}) =$
Слогаемые отличаются только знаком, заметим, что знак перед скалярным произведеним противоположени со знаком индикатора, то есть мы можем просто убрать разделение, заменив знак обратным $y_i$
$\sum_{i=1}^l log(1 + exp(-y_i \times))$
Интересное видео + отсылки на брекин бэд, класс
Спасибо большое очень помогли!
Спасибо большое, наконец-то я понял, что такое логрег
Хорошее видео.
На последнем слайде опечатка: в столбце про мошенников в разделе "Таргет" дублируется текст из столбца "Антиспам". А должно быть: 0 - мошенническая операция, 1 - обычная операция.
Подскажите, пожалуйста, когда будет видео про бустинг?
Сложнослайд😅 огонь термин
[yi=+1] это boolean [0,1]?
Не понятно как мы нашли веса в начале видео🤔что предсказывали то? если мы строим обычную регрессию, то нам ведь нужен какой-то таргет, для которого мы уравнение линейной регрессии строим.
так тут таргет это и есть столбец который определяет к какому классу принадлежит объект, просто мы его в [0,1] переводим сигмоидой