Лекция 10 Прогнозирование временных рядов

Поділитися
Вставка
  • Опубліковано 11 січ 2025

КОМЕНТАРІ • 66

  • @stukituk.clever3656
    @stukituk.clever3656 2 роки тому +19

    Почему-то на прогнозирование временных рядов тяжело найти много информации в одном месте. В частности базовую информацию. Но это видео исключение из этого правила. Спасибо, очень полезная лекция для понимания основ!

  • @Felix-og7pd
    @Felix-og7pd 2 роки тому +23

    3:00 Предсказательный интервал
    7:00 регрессия. автокореляция пирсона
    8:00 компоненты ВР: тренд. Сезонность. Цикл. Ошибка
    12:00
    18:00 значимость автокореляции. Критерий стьюдента. Льюнга-бокса.
    20:00 стационарность
    25:00 статистические критерии. KPSS. Дики-фуллера
    27:00 стабилизация дисперсии. Преопрозование Бокса-кокса
    29:00 дифференцированние
    33:00 авторегрессия. Скользящие среднее. ARMA. ARIMA. SARMA. SARIMA
    47:00 подбор параметров функции. Dd, Qq, Pp, AICe, BIC, Bias tradeoff
    1:00:00 как построить прогноз? Насыщенность. Стационарность. Неавтокореруемость.
    1:08:00 построение Предсказательного интервала. Python vs R. Сложная сезонность (Праздники, domen knowledge) SARIMAX. Регресионные признаки
    1:15:00 проблемы прогнозирования. ARIMA не нужна? features
    1:20:00 Массовое прогнозирование
    1:25:00 литература
    Наука не нужна?
    Коридор значимости?

  • @АрсенийПроценко-ь2л
    @АрсенийПроценко-ь2л 4 роки тому +93

    Как за 4 года похорошел python при Собянине и statsmodels

  • @sergeyvolnov8332
    @sergeyvolnov8332 2 роки тому +14

    Супер видос - столько смысла в одном видео я давно не видел🔥

  • @everlastingsummer2044
    @everlastingsummer2044 2 роки тому +10

    18:41 проверка значимости автокорреляции
    24:57 статистические критерии на стационарность
    27:27 стабилизация дисперсии

  • @oldzas
    @oldzas 3 роки тому +7

    Большое спасибо, просто и доступным языком

  • @denispashnev912
    @denispashnev912 5 років тому +19

    Прекрасная лекция! Спасибо

  • @retiber1
    @retiber1 4 роки тому +9

    Эх, видел бы я эту лекцию 3 года назад, когда только начинал изучать ариму...

  • @MaxZaikin
    @MaxZaikin 9 місяців тому +1

    Евгений,
    замечательная лекция. Пару замечаний, не хватает примеров, которые аудитория могла бы повторить в лабораторных условиях, чтобы понять как работают те или иные алгоритмы и в чем их преимущества или недостатки перед другими. Хотелось бы иметь ссылку на саму презентацию, чтобы почитать отдельно, а так же хотелось бы иметь ссылку на Jupiter notebook, где можно было бы поработать с примерами из лекции.
    А в целом 5/5 желаю успехов в научной деятельности.
    С Уважением,
    Макс.

  • @dmitrydudrin2606
    @dmitrydudrin2606 2 роки тому +6

    Прекрасно и крайне полезно!

  • @sergueirus9239
    @sergueirus9239 7 років тому +22

    наконец-то все становится на свои места в моей голове. Самое главное, нет этих западных криков и бешенного типа, а также дешевых шуток.

  • @yarmiksyarmiks9543
    @yarmiksyarmiks9543 7 років тому +8

    Хороший доклад. Понятно стало)

    • @karabaskruger
      @karabaskruger 6 років тому

      Понятно то понятно. Заработал чё нить на прогнозах?

    • @lizardking640
      @lizardking640 5 років тому

      @@karabaskruger да

    • @wadyn95
      @wadyn95 4 роки тому +3

      @@karabaskruger А-А-АЗИНА ТРИ ТАПАРА ПАДНЯЛ БАБЛА

  • @АйгульМусульманкулова

    Благодарю за лекцию!

  • @denisusachev4816
    @denisusachev4816 10 місяців тому

    7:55 значение автокорреляции во временных рядах

  • @mith888
    @mith888 6 років тому +15

    Отличная лекция!!!!

  • @АлександрДергилёв-п8х

    Очень годный материал

  • @ДенисСафронов-п3е
    @ДенисСафронов-п3е 5 років тому +6

    1:00:54 Непонятно сто из чего вычитать. Откуда берутся эти остатки? Мы из реальных значений вычитаем значения на которые получились при обучении?

    • @nobody826
      @nobody826 5 років тому +2

      Думаю, да, по-другому, никак.

  • @wayer5204
    @wayer5204 11 місяців тому

    Нифига себе чел могёт, ппц мощный

  • @DianaDiana-et8ox
    @DianaDiana-et8ox 5 років тому +4

    Большое спасибо!

  • @dmitryantonov3577
    @dmitryantonov3577 5 років тому +5

    Спасибо! 👍

  • @gornostai4ik_lol
    @gornostai4ik_lol 5 років тому +7

    1:09:20 auto arima

  • @artemsukhov
    @artemsukhov Рік тому +1

    Добрый день! Подскажите, где найти Вашу презентацию. На гите не нашел, а говорили, что выложите. Спасибо!

  • @ivanaaa6049
    @ivanaaa6049 3 роки тому +5

    Какой аккуратно сложыенный мальчик. Хочется всклокочить его волосы и потом долго смотреть в его умные глаза.

  • @andregogiko2163
    @andregogiko2163 3 роки тому +8

    Лекция хорошая, но некоторые слайды сильно отстают и выходит что докладчик что-то объясняет, а слайд предыдущий и приходится включать фантазию и придумывать будущее изображение

    • @AleckBoronnikov
      @AleckBoronnikov 3 роки тому +14

      На самом деле это тонкая психологическая подготовка к анализу и предсказанию временного ряда )))

  • @saitaro
    @saitaro 7 років тому +23

    Спасибо. Но имя лектора неплохо бы указать. Всё-таки старался человек=)

  • @RudolfEremyan
    @RudolfEremyan 5 років тому +3

    Otlichnaya lekciya!

  • @Pedrochenko
    @Pedrochenko 9 місяців тому

    Мое почтение, выдать на голубом глазу «сокровищница США» и даже не запнуться 😂😂😂

  • @igordanilov1004
    @igordanilov1004 2 роки тому +2

    Я одного не понял: Мы сначала ухудшаем скоррелированность ряда путем дифференцирования (это видно на графиках автокорр ф-ии) , а потом к такому низкоскоррелированному ряду лепим авторегрессию. Умно? А может не нужно дифференцировать чтобы получилась хорошая корреляция на ряд в прошлом?

    • @Valeria-sx7uv
      @Valeria-sx7uv 2 роки тому +3

      Дифференцировать или нет - определяется моделью Дикки-Фуллера (поиск стационарности). Если у вас ряд стационарен без дифференцирования - все классно и так, можно ARIMA крутить

  • @torcher5023
    @torcher5023 2 роки тому +2

    А Фурье чем не устроил?

  • @СергейГужов-ы1в
    @СергейГужов-ы1в Рік тому +1

    А как зовут лектора? Может есть ссылки на его статьи или место работы?

    • @nik2513
      @nik2513 8 місяців тому

      Он больше в России не работает. К сожалению, из за политики путинского режима умные люди уезжают из нашей страны.

  • @izogelia2277
    @izogelia2277 3 роки тому +4

    так что в итоге? нафиг все эти модели - строим регрессию как раньше?

  • @MIRG-f7n
    @MIRG-f7n 4 роки тому +1

    Спасибо

  • @chichackles
    @chichackles Рік тому

    Жаль, что вопросов не слышно :( Можно было бы их субтитрами дать.

  • @coolbrain
    @coolbrain 2 роки тому +2

    Слайды отстают на 1 .

  • @tlitt6521
    @tlitt6521 2 роки тому +2

    Я искал коинтеграцию
    Почему выпало это видео?

  • @slavpetrovich32
    @slavpetrovich32 4 роки тому +5

    Что-то Том Холланд поплыл к середине лекции: начал путать прогноз с подгонкой модели, перепутал разностный и лаговый операторы. Разностный оператор - штука, берущая конечную разность между соседними значениями ряда, используется при построении аримы. А это лаговый оператор (оператор сдвига), который просто берет соседнее значение

  • @ЛюдмилаКшнясева-я5ш

    Хотим: ARIMAX и VARIMA!

  • @ivanafanaskin6216
    @ivanafanaskin6216 6 місяців тому

    Речь лектора и картинки презентации расходятся по времени

  • @konstantinphd2366
    @konstantinphd2366 5 років тому +6

    Уважаемый Лектор, Вы на слайдах показываете результат оценки ряда, грубо говоря, решая задачу апроксимации. Так вот в этом ничего сложного нет, т.к. реализация случайного процесса это уже неслучайный ряд и поэтому его не сложно аппроксимировать. Вы бы показали пример решения задачи экстраполяции, вот тогда был бы интерес, а так все это тривиальные вещи, к сожалению... С уважением, Константин.

  • @Regressor14
    @Regressor14 2 роки тому +1

    надеюсь его не мобилизовали

  • @soulmma2542
    @soulmma2542 2 роки тому +1

    Я тупой

  • @Mix-d8w
    @Mix-d8w 28 днів тому

    много воды мало конкретики

  • @ilyasikm
    @ilyasikm 5 років тому +8

    Я конечно извиняюсь, но как математик скажу, доцент либо сознательно лукавит, либо для галочки проводит лекцию. Все его модели которые он показывает ни одна на реальных данных не будет работать, это тупой подгон значений под модель. Если растянуть временной ряд, то увидим что прогнозированная кривая строится по прошлым y-1 , т.е. Это уже не прогноз, а рисовалка по прошлым данным, а в реале она будет перерисовываться.

    • @gmragga
      @gmragga 5 років тому +4

      сначала поблагодарю лектора, тк как чисто учебный материал, лекция прекрасна. лайк, подписка.
      что касается критики, хорошая критика. интересно что ответит автор. я бы еще добавил: если я своим умом проанализировал все фичи, зачем мне вообще предсказательная функция? я нвпример могу на бирже торговать в ручном режиме. мой мозг уже обучен этим фичам, т.е. особенностям предметной области.
      интересно же иметь некий достаточно черный ящик, типа ИИ который Сам обучится всем фичам и всем особенностям данных предметной области.

    • @ilyasikm
      @ilyasikm 5 років тому +4

      gmragga я кстати эту критику тоже пишу на основе 10 летнего опыта анализа данных рынка как акций так валюты. Там такие алгоритмы и подходы не работают.

    • @АндрейБойко-г7у
      @АндрейБойко-г7у 5 років тому +2

      Поддерживаю! Ссылаясь на тренд и периодичность, можно предсказать все что подчиняется упомянутым " тренд и периодичность". О чем бред????!!! Зачем предсказывать то что является предсказуемым. Чисто для галочки балоболит. И, кстати, прочитал положительные отзывы - тошнота заказная.

    • @kolomasov
      @kolomasov 4 роки тому +23

      @@АндрейБойко-г7у Не совсем ясно, а чего вы ожидали от обучающей лекции по прогнозированию временных рядов? Основная теория по авторегрессионным моделям (ARIMA и иже с ними), с заходом в конце лекции на современные подходы, когда вместо авторегрессионных моделей используются стандартные ML методы регрессии (линейные: Rige, Lasso или ансаблевые: xgboost, lgbm и т.д.) на большом объеме входных фитчей, использующих в том числе и авто-регрессию в качестве входных фитч. Подсказка что можно использовать стекинг моделей. Для общеобразовательной лекции - самое оно. Дал неплохие источники информации. Описанные им методы уже сейчас хорошо работают для прогнозирования спроса в ритейле, прогнозирования складских запасов, даже иногда для хэджирования рисков при закупке сырья. При чем тут "прогноз на глаз" - 10 000 позиций для сети хотя бы из 100 магазинов на глаз будете в эксельке заполнять что ли? Скорее всего ваши претензии что биткоин не очень такими методами прогнозируется - но это проблемы биткоина (и ваши в конце концов) - но не методов. Для других задач они вполне хорошо работают.

    • @roman_orlov
      @roman_orlov 3 роки тому +3

      Ну, дык у любого инструмента есть границы применимости. Если использовать метод там, где не было дано гарантий, что он будет работать, зачем же потом жаловаться, что метод нерабочий, если он применяется к другим задачам.

  • @_AbUser
    @_AbUser 2 роки тому +4

    Как на приеме у психиатора... Просто сплошным текстом метется все что в голову придет.. Любой ролик по ЦОС за 5 -10 минут введет во все то же самое в том же объеме без лишней терминологии и часовых лирических отступлений... Накидать слов по больше и по умнее - не есть оптимальная форма подачи..

  • @АндрейБойко-г7у
    @АндрейБойко-г7у 5 років тому +4

    Бред! Отзывы от группы таких же бездарей.

  • @maxg2371
    @maxg2371 10 місяців тому

    Когда что-либо делаешь не сам, а сдираешь с англоязычного источника, то не надо позориться тупыми переводами, такими как "сокровищница" (это всегда было казначейство). Позор!

    • @Pedrochenko
      @Pedrochenko 9 місяців тому

      Поделитесь ссылочкой?

    • @maxg2371
      @maxg2371 9 місяців тому

      @@Pedrochenko это вы того болвана, который криво переводит, спрашивайте

  • @AliBaba__
    @AliBaba__ 2 роки тому +2

    Что-за безсвязный диструктив !? С каких пор соплякам дано право учить !!?