Тренировки по ML. Лекция 2: Линейная регрессия и регуляризация

Поділитися
Вставка
  • Опубліковано 10 гру 2024

КОМЕНТАРІ • 21

  • @kupamonke
    @kupamonke 5 місяців тому +5

    4:35 начало
    11:18 линейные модели
    16:20 линейная регрессия
    46:15 теорема Гаусса-Маркова
    1:23:55 методы оценки качества модели

  • @ds_sss_rank
    @ds_sss_rank Рік тому +33

    Можно тренировки по математике добавить в следующем сезоне

    • @ВладиславРоманиченко
      @ВладиславРоманиченко Рік тому +6

      В принципе, есть очень полный курс на яндекс практикуме по математике

    • @ds_sss_rank
      @ds_sss_rank Рік тому

      который платный?@@ВладиславРоманиченко

    • @couriersix208
      @couriersix208 Рік тому +3

      math refresher от создателей тренировок по ML(giraffe ai)

    • @PythonBrother
      @PythonBrother Рік тому

      @@ВладиславРоманиченко можно ссылку?

    • @oxygeniummc3187
      @oxygeniummc3187 Місяць тому

      Читайте Зорича, Постникова и Кострикина.

  • @vg8-j1f
    @vg8-j1f Рік тому +2

    *LASSO - L1, Ridge - L2

  • @reactioner2005
    @reactioner2005 9 місяців тому +2

    А как получить доступ к домашке для тех, кто не участвовал во время тренировок?

  • @Ia-Magnifico
    @Ia-Magnifico Рік тому +3

    Ничего непонятно но очень интересно

  • @vg8-j1f
    @vg8-j1f Рік тому

    1:28:00 Так надо shuffle делать в любом случае, иначе и в cross-validation fold могут оказаться одни пенсионеры. Или нет?) Ну кроме time series:)

  • @ArtyomIonash
    @ArtyomIonash Рік тому

    1:40:00 А на какую статью от тут ссылается?

  • @zheka77111
    @zheka77111 8 місяців тому

    1:11:30 правдоподобие

  • @ArtyomBoyko
    @ArtyomBoyko Рік тому

    Добрый день. Где можно посмотреть записи?

  • @Irades
    @Irades Рік тому

    Спасибо ❤

  • @AminYas
    @AminYas Рік тому

    28:00

  • @from_spb
    @from_spb Рік тому

    Интересное кино, из одного училенного шума исключили обратный усиленный шум и получили искомое число. 🤯 Н-надежность

  • @dmit100
    @dmit100 Рік тому

    Под объектами понимается целевые переменные, т.е. то, что предсказываем или что?

    • @fdshdsfdsqq
      @fdshdsfdsqq Рік тому +1

      целевые переменные (y) != предсказанные значения (ŷ), но мы стремимся к тому, чтобы это равенство выполнялось. X это матрица "объект-признак", где строки это объекты (в примере с жильем каждый объект может быть отдельным домом или квартирой), а колонки это признаки (в задаче предсказания цен на жилье признаками могут быть площадь дома, количество комнат, расстояние до центра города и т.д.). y = "ответы" или "метки", известные значения, которые модель стремится предсказать, а ŷ​ - результат работы модели (может быть как скаляром, так и вектором, в зависимости от модели)

  • @WhiteBriar
    @WhiteBriar Місяць тому

    Если мы ищем вектор весов, а вес - это weight, то у нас не вектор омега, а вектор дабл ю.

  • @TheABCdiary
    @TheABCdiary Рік тому

    Штука про раков была уместной.