ЦОС Python #1: Метод наименьших квадратов
Вставка
- Опубліковано 14 жов 2024
- Теория алгоритма метода наименьших квадратов на примере аппроксимации данных линейной функцией.
Инфо-сайт: proproprogs.ru
Реализация алгоритма на Python (файл mnsq.py): github.com/sel...
Исключительно поддерживаю комментаторов ниже! Такие люди как автор - золотой фонд интеллектуальной элиты нашей страны.
Золотой человек. Честный. По факту. Вот кто должен быть в универе ректором и убирать неадекватных людей с должностных лиц, а то некоторые профессоры возомнили что слишком много знаю. Лайк - 100% заслуженно. Просмотров тебе и славы
единственное видео во всем ютубе с объяснением откуда есть берутся квадраты в регрессии. Спасибо !!!
Ну если не слышали про функцию правдоподобия то да, но я сам видел лекции где этой проблеме выделялся час времени, так же само для классификации максимизируется правдоподобие распределения бернулли и получается бинарная кроссэнтропия в качестве лоса.
Самое подробное и понятное обьяснение которое можно найти. Спасибо за урок!
Спасибо большое за ролик, очень качественные объяснения сложной темы.
Спасибо! Редкая способность объяснять ёмко и понятно.
Видео отличное. Преподаватель -высший класс! Спасибо большое.
Потрясно! То, что искал. С первого раза не совсем понял как происходит минимизация, но просмотрев несколько раз дошло. Отличное изложение ♥️
срочно надо весь канал посмотреть
Вот это я понимаю объяснение! Всё по полочкам разложено, большое спасибо)
От студента 1 курса мфти - автору огромное спасибо!
Спасибо вам за передачу знаний!
Я видео пока не начал смотреть, уже подписался🤣
Очень понравилось изложение. Всё понятно, большое спасибо!
спасибо, очень ценный материал!
Спасибо! Нормальное понятное объяснение на пальцах!
Супер!! чтобы освоить numpy plotlib это самое то!!!
Потрясающий канал ! И такая же подача!!
Блин, что-то похожее я "изучал" в универе (КГУ ВМК), но на деле прогуливал и играл в Варкрафт3. И дипломная была про апроксимации функций в каких-то гильбертовых пространствах. Я ничего не учил, блин, даже дипломную назвать не могу. Теперь уже самостоятельно изучаю.
Круто, умеете объяснять
спасибо!
Ты лучший, я в честь тебя назову сына))))
Спасибо! Помог реализовать данную аппроксимацию в JavaScript. И немного понять Python
чел ты легендарный
Интересно
Привет. Ты крут!!!
Хотелось бы, конечно, чтобы немного подробнее рассмотрены были математические вычисления и преобразования. Если можно, дополните пожалуйста материалами. Спасибо!
В смысле? Там и так предельно подробно расписано. Если остаются вопросы, то см. плейлист по теории вероятностей на этом канале.
Здравствуйте, очень полезное видео!
У меня вопрос: что нужно поменять в коде, что бы использовать его, например для 3+ признаков?
Спасибо. Использовать трехмерную плотность распределения.
оп, снова ты)
Производную можно определить как скорость изменения функции, то есть нуль это экстремум, а какое то значение это изменение функции (то есть она либо возрастает, либо убывает в этой точке). Скорость изменения скорости (в физике) это ускорение. Значит производная от скорости - ускорение!
все верно, еще это тангенс угла наклона касательной с осью абсцисс и в точках экстремума он принимает нулевое значение
😎
хотел спросить, с чем может быть связано: попытался данным методом апроксимировать функцию
f(x) = 0.3х^2 - 2х + 1. использовал для апроксимации параболу, соответственно три коеффициента для апроксимации
f(x; a,b,c), дифференцировал, все как в уроке только с учетом 3 коэфициентов. В итоге функция апроксимирует очень и очень не точно. С чем это может быть связано? может есть какие то стандартные причины?
ImportError: DLL load failed while importing _cext: Не найден указанный модуль.
А почему на 4:28 первый множитель перевернулся (сигма на корень два Пи) вместо 1 / (сигма корень 2ПИ)?
это опечатка
Заснул на 6 минуте😅
Добрый день. Когда мы брали частную производную от функции, мы применили правило дифференцирования сложной функции ? Если, да, то мы потеряли константу "2" ?
Все верно, я ее намеренно отбросил, т.к. умножение на константу не влияет на вычисление точки оптимума.
С синусом не получится сделать? У меня производные сложных функций получились и там ничего не вынесешь как a11,a2 получается?
да, уравнения не всегда линейными могут получаться
@@selfedu_rus А полученные производные можно раскладывать по формуле sin(x+y)=sin(x)cos(y)+cos(x)sin(y)
А если набор точек случайный, без всяких сигм, то это будет работать?
сигма - это мера разброса случайных точек
а почему в формуле квадрата ошибок E = Sum(y - f(x))^2 нету деления на кол-во элементов и корня, так бы получалась более наглядная средняя ошибка, из вычислений не особо ясно, может есть какая-то более простая мысль?
Нам нужно минимизировать квадрат отклонений. Конечно, эту величину можно разделить на N, или на другую константу, но эта дополнительная операция совершенно ничего не дает для алгоритма, поэтому, просто отброшена.
@@selfedu_rus понял вроде, алгоритму всё равно с какими числами работать, главное уменьшать, а если в качестве метрики использовать, то там уже для наглядности эти операции можно проделать
Бамп
ua-cam.com/video/8sVfWyQrMiM/v-deo.html на 3.58 утрачен числитель дроби с сигмой в формуле плотности вероятности?
Подача материала отличная!
да, спасибо, ошибка... хотя она не влияет на дальнейшие рассуждения и кроме того, до этого в формуле все верно
@@selfedu_rus , да, всё здорово! Спасибо!:)
Это как то не очень к ЦОС относится
поправочка. тут 1/сигма*sqrt(pi)