#3. Линейная модель. Понятие переобучения | Машинное обучение

Поділитися
Вставка
  • Опубліковано 28 лют 2022
  • Понятие линейной модели. Пример использования линейных моделей для задач регрессии. Полиномиальная линейная модель. Недостатки полиномов высоких степеней. Переобучение (overfitting).
    Инфо-сайт: proproprogs.ru/ml
    Телеграм-канал: t.me/machine_learning_selfedu

КОМЕНТАРІ • 44

  • @user-sq4yd3fg4k
    @user-sq4yd3fg4k 2 роки тому +16

    Прикольная тема, я так ради интереса один раз скачал датасет с содержанием СО2 в атмосфере от 60х годов по наше время и применил к ней линейную регрессию. Получилось что в ближайшее время нам ничего не угрожает, но к 2236 году уже станет не комфортно дышать так как СО2 превысит 800 единиц на кубометр, а к 2564 году дышать станет нереально (1400 частиц на кубометр)... и мы все умрём) Правда наверно для подобного прогнозов надо ещё 500 факторов учитывать)

  • @user-hq4ms8su1q
    @user-hq4ms8su1q 2 роки тому +9

    Прекрасный цикл по ML, смотрю ваши видео недавно, прекрасно информативные видео! Очень детальные, и полны информацией. Продолжайте в том же духе!

  • @user-sg8uk7sv8w
    @user-sg8uk7sv8w Рік тому +3

    Огонь 🔥 У вас педагогический талант. Спасибо вам

  • @user_sunny
    @user_sunny Рік тому +4

    Ваши курсы - это спасение, качественный контент и подача информации простым и понятным языком. Спасибо большое 🙂

  • @mar_kha
    @mar_kha 8 місяців тому +1

    В этом году закончила вуз по направлению "Прикладная математика"
    Всё думала о том:
    "И как мне применить полученные знания?"
    Начала смотреть ваши ролики по ML и поняла:
    "Не зря пары не прогуливала)"

  • @Senz_One
    @Senz_One 2 роки тому +2

    Очень интересно, продолжайте, пожалуйста!

  • @Dev11son
    @Dev11son 2 роки тому +9

    Очень! Сергей, не могли бы вы в описание добавлять темы из математики, которые пересекаются с темой уроков?) Был бы очень признателен, возможно другие тоже.

  • @artemivanov5013
    @artemivanov5013 2 роки тому +3

    Супер курс!!!!!

  • @user-jd6uz5si2f
    @user-jd6uz5si2f 2 роки тому +1

    Друг, спасибо тебе за труд!

  • @PhyzmatClass
    @PhyzmatClass 2 місяці тому +1

    И еще, получается, что разложение в ряд Тейлора с большим числом членов не сходится к функции для больших х?

  • @PhyzmatClass
    @PhyzmatClass 2 місяці тому +1

    9:02 надо было тогда зелёные точки нарисовать на оси Х, раз для них строится прогноз, мне кажется так было бы понятнее.

  • @user-bx2db2jf3d
    @user-bx2db2jf3d 2 роки тому +2

    рубрика топ!

  • @user-qj6tk5fw9p
    @user-qj6tk5fw9p 3 місяці тому +1

    более хорошего и понятного обьснения материала не найти!!!)))

  • @impellergimpeller5133
    @impellergimpeller5133 2 роки тому +1

    👍👍👍👍👍

  • @dmitrelkin9256
    @dmitrelkin9256 2 роки тому +1

    Прекрасные лекции. Как всегда отличная, дружелюбная подача материала. P.S. для таких же как и я пассажиров бронепоезда эта лекция станет немножко понятнее если пересмотреть урок Персептрон - возможности классификации образов, задача XOR | #2 нейросети на Python ua-cam.com/video/t9QfcFNkG58/v-deo.html

  • @timofey-0307
    @timofey-0307 2 роки тому +2

    Здравствуй, смотрю твои уроки по Django, можешь, пожалуйста, сделать тему про мидлвари? Интересно было бы узнать и посмотреть)

  • @learningmeansdoing
    @learningmeansdoing 2 роки тому +3

    Есть ли смысл в функции потерь использовать множитель 1/l? Ведь l - это константа и она не меняет итоговые значения коэффициентов модели.

    • @selfedu_rus
      @selfedu_rus  2 роки тому +1

      Да, часто отбрасывают, все верно!

  • @vadimn6393
    @vadimn6393 11 місяців тому +1

    На счет разложения по: x, x^2,...x^n, правильно понимаю, что тут как бы базис в пространстве полиномов (первые n из ∞) и в результате этой "машиной аппроксимации" мы как бы представляем данные (или как назвать) в виде частичного ряда Тейлора?
    А если бы взяли в качестве базиса, например, {sin(i*x), cos(i*x)}, то получили бы представление в виде частичного ряда Фурье?

    • @selfedu_rus
      @selfedu_rus  11 місяців тому +1

      С наятжкой можно и так сказать. А вообще, берем любые нелинейные преобразования и создаем новые признаки. При этом можно комбинировать и полиному и косинусы с синусами и т.п.

  • @user-en8ko2vd1k
    @user-en8ko2vd1k Рік тому

    17 сен 2022

  • @vinylrave2185
    @vinylrave2185 2 роки тому +1

    Позвольте, мы говорим о линейной модели, а затем начинаем повышать добавлять и степени многочлена. разве таким образом модель не перестаёт быть линейной?

    • @selfedu_rus
      @selfedu_rus  2 роки тому +1

      Не перестает, если мы рассматриваем ее в пространстве n признаков. Если смотреть с позиции одного признака x, то конечно, нелинейная.

    • @vinylrave2185
      @vinylrave2185 2 роки тому

      @@selfedu_rus правильно ли будет назвать в таком случае эту модель множественной регрессией?

    • @selfedu_rus
      @selfedu_rus  2 роки тому +1

      @@vinylrave2185 нет, при множественной регрессии мы на выходе получаем вектор значений, здесь же имеем одно выходное значение для каждого входного вектора x.

  • @NationalVerrater
    @NationalVerrater 2 місяці тому +1

    3:58 график такой функции будет ведь совершенно четкой линией, а не разбросанными рядом точками. Если мы сразу знаем ее уравнение зачем ее приближать полиномом??

    • @NationalVerrater
      @NationalVerrater 2 місяці тому

      А, собственно шум эпсилон ее делает размытой? Тогда ясно. Лайкните, если это так)

  • @user-fs9qp6wi3n
    @user-fs9qp6wi3n Рік тому +2

    Добрый день. У меня тоже есть глупый вопрос. Так как математику уровня выше школьной программы я изучаю самостоятельно, мне не понятно, что есть признак и почему он записывается как f(x).

    • @selfedu_rus
      @selfedu_rus  Рік тому

      признак - некое свойство объекта, например, ширина и длина жуков, или пиксели на изображении и т.п.

    • @user-fs9qp6wi3n
      @user-fs9qp6wi3n Рік тому

      @@selfedu_rus спасибо большое

  • @user-zd6sf8zo5y
    @user-zd6sf8zo5y Рік тому

    f1 и f2 как раз линейно независимы. А вот f0 (который равен 1), f1, f2 линейно зависимы.

    • @selfedu_rus
      @selfedu_rus  Рік тому

      f1, f2 линейно зависимы, т.к. отличаются только смещением на 5

    • @pavelvashchenko630
      @pavelvashchenko630 Місяць тому

      @@selfedu_rus лучше все-таки повторить линейную алгебру...

  • @denisdenisov7821
    @denisdenisov7821 Рік тому +1

    А описание курса было "для начинующих". Начинающие редко со степенью в математике!!! Это все можно гораздо проще объяснять, а не непонятными большими формулами и сомнительными выводами

    • @roman_roman_roman
      @roman_roman_roman 6 місяців тому

      Ну если степени это сложно, то зачем тогда вообще лезть в ML?

    • @denisdenisov7821
      @denisdenisov7821 6 місяців тому

      @@roman_roman_roman деб*л, академическая степень, а не операция над числом!

  • @Dziepso
    @Dziepso Рік тому +1

    Так и не понял где тут обучение. Даже ни какой IDE не открыл.

  • @user-ud8qh1ln6o
    @user-ud8qh1ln6o 4 місяці тому +1

    Если кому интересен мой путь синяков и ссадин - опишу). После дифференцирования получается система уравнений по количеству равная степени аппроксимации и соответственно неизвестных тетта. Мне показалось, что дальше сам собой напрашивается метод Крамера, я решил по хардкору написать сам функцию для подсчета детерминанта и дальнейший метод Крамера). До 7 степени результаты как у автора, после график куда-то улетает) и время расчетов растет, для 9ой степени минуты 2, дальше даже не рискнул пробовать. Вобщем забил на эту велосипедную деятельность, взял numpy и решил систему экстремумов функции ошибки через метод .linalg.solve(a, b). Не знаю каким алгоритмом считается там, но особых проблем нет ни с 50, ни с 100й степенью аппроксимации). Автору спасибо, курс интересный!

  • @foxfenya
    @foxfenya 2 роки тому +2

    Добрый день. у меня вопрос. возможно глупый, но почему функция называется линейной? она же относительно x не линейна(в ней присутствую степени). Линейные модели потому и линейны потому что описывают линии, а не параболы гиперболы и тд и тп...
    В статистике существует понятие подбора функциальнальной зависимости (тренда) ряда, и там как раз используются полиномы разной длинны, но они там тоже не называются линейными моделями...

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      модель линейна относительно подбираемых коэффициентов w, а не иксов )) во всем остальном вы совершенно правы!

    • @foxfenya
      @foxfenya 2 роки тому

      @@selfedu_rus, а разве такие модели не входят в класс моделей нелинейных относительно включенных в анализ объясняющих переменных...?

    • @selfedu_rus
      @selfedu_rus  2 роки тому

      @@foxfenya нет, смотрим только по переменным - это параметры w, все остальное как заданные значения

    • @foxfenya
      @foxfenya 2 роки тому +1

      @@selfedu_rus Спасибо за пояснения

    • @YbisZX
      @YbisZX Рік тому

      @@selfedu_rus Как тогда правильно интерпретировать. _Модель_ обучения линейная (относительно параметров), но результирующая _функция_ при этом может быть нелинейной? То есть в результате полином степени n представляется как гиперплоскость в пространстве расширенных параметров размерности n+1?