Прикладная статистика
Прикладная статистика
  • 346
  • 571 424

Відео

Временные ряды 9.6 Алгоритм Кростона
Переглядів 354Рік тому
Временные ряды 9.6 Алгоритм Кростона
Временные ряды 9.5 Сезонность сложной структуры в R
Переглядів 193Рік тому
Временные ряды 9.5 Сезонность сложной структуры в R
Временные ряды 9.4 Сравнение прогнозов: RC и SPA тесты
Переглядів 176Рік тому
Временные ряды 9.4 Сравнение прогнозов: RC и SPA тесты
Временные ряды 9.3 Сравнение прогнозов, DMтест
Переглядів 145Рік тому
Временные ряды 9.3 Сравнение прогнозов, DMтест
Временные ряды 9.2 Данные прерывающиеся нулями
Переглядів 164Рік тому
Временные ряды 9.2 Данные прерывающиеся нулями
Временные ряды 9.1 Много сезонных составляющих
Переглядів 659Рік тому
Временные ряды 9.1 Много сезонных составляющих
Временные ряды 8.11 CausalImpact
Переглядів 197Рік тому
Временные ряды 8.11 CausalImpact
Временные ряды 8.10 BSTS в R
Переглядів 190Рік тому
Временные ряды 8.10 BSTS в R
Временные ряды 8.9 Обнаружение структурного сдвига в R
Переглядів 187Рік тому
Временные ряды 8.9 Обнаружение структурного сдвига в R
Временные ряды 8.8 Обнаружение выборосов в R
Переглядів 134Рік тому
Временные ряды 8.8 Обнаружение выборосов в R
Временные ряды 8.7 заполнение пропусков в R
Переглядів 166Рік тому
Временные ряды 8.7 заполнение пропусков в R
Временные ряды 8.6 L6 Оценивание эффекта воздействия
Переглядів 91Рік тому
Временные ряды 8.6 L6 Оценивание эффекта воздействия
Временные ряды 8.5 Структурная модель как конструктор
Переглядів 137Рік тому
Временные ряды 8.5 Структурная модель как конструктор
Временные ряды 8.4 Байсовский подход
Переглядів 147Рік тому
Временные ряды 8.4 Байсовский подход
Временные ряды 8.3 Обнаружение структурного сдвига
Переглядів 177Рік тому
Временные ряды 8.3 Обнаружение структурного сдвига
Временные ряды 8.2 аномалии
Переглядів 124Рік тому
Временные ряды 8.2 аномалии
Временные ряды 8.1 Пропуски, аномалии и структурные сдвиги
Переглядів 458Рік тому
Временные ряды 8.1 Пропуски, аномалии и структурные сдвиги
Временные ряды 7.9 регрессия с ARMA ошибками
Переглядів 127Рік тому
Временные ряды 7.9 регрессия с ARMA ошибками
Временные ряды 7.8 Дневные данные, ARIMA и тригонометрические предикторы
Переглядів 110Рік тому
Временные ряды 7.8 Дневные данные, ARIMA и тригонометрические предикторы
Временные ряды 7.7 собираем предикторы и оцениваем лес/бустинг в R
Переглядів 171Рік тому
Временные ряды 7.7 собираем предикторы и оцениваем лес/бустинг в R
Временные ряды 7.6 Оценка двух эффектов
Переглядів 90Рік тому
Временные ряды 7.6 Оценка двух эффектов
Временные ряды 7.5 ARIMA и предикторы
Переглядів 163Рік тому
Временные ряды 7.5 ARIMA и предикторы
Временные ряды 7.4 Лес и бустин
Переглядів 122Рік тому
Временные ряды 7.4 Лес и бустин
Временные ряды 7.3 Доска про дерево
Переглядів 81Рік тому
Временные ряды 7.3 Доска про дерево
Временные ряды 7.2 У нас ещё есть время
Переглядів 98Рік тому
Временные ряды 7.2 У нас ещё есть время
Временные ряды 7.1 Как обойтись без ARIMA и ETS
Переглядів 382Рік тому
Временные ряды 7.1 Как обойтись без ARIMA и ETS
Временные ряды 6.11 SARIMA в R
Переглядів 81Рік тому
Временные ряды 6.11 SARIMA в R
Временные ряды 6.10 SARIMA в R
Переглядів 113Рік тому
Временные ряды 6.10 SARIMA в R
Временные ряды 6.9 Алгоритм Хандакара Хиндмана
Переглядів 105Рік тому
Временные ряды 6.9 Алгоритм Хандакара Хиндмана

КОМЕНТАРІ

  • @nagasakies
    @nagasakies 3 дні тому

    Спасибо большое

  • @woomy_squid
    @woomy_squid 5 днів тому

    И никто не скажет, какого размера выборка считается большой!

  • @woomy_squid
    @woomy_squid 5 днів тому

    Зачем в расчете перцентиля прибавлять к размеру выборки 1?

  • @BeatsAndMetal
    @BeatsAndMetal 6 днів тому

    Шикарное видео, спасибо большое

  • @ЬббЛлл
    @ЬббЛлл 12 днів тому

    Спасибо, замечательно объяснили. Но правда я нихуя не понял

  • @alntruisrtbredford
    @alntruisrtbredford 13 днів тому

    а как это будет работать, если я строю гистограмму по выборке, а распределение похоже на гамма-распределение и на логнормальное (оба несимметричные)? как мне тип распределения выбрать-то? Или я сначала нахожу первые моменты, потом считаю параметры распределения, затем по критерию (Пирсона, Колмогорова и т.д) определяю наиулучшее, а у него у же методом макс. правдоподобия уточняю параметр? p.s кстати, а если параметров распределения несколько, тогда как быть?

  • @kanari_himawari
    @kanari_himawari 13 днів тому

    а почему мат ожидание от Х1 либо Х2 и тд равны мю?

  • @Aampo_pembuat
    @Aampo_pembuat 15 днів тому

    Отлично объяснение для тех кто понимает о чём речь. Для первого объяснения это просто блендер для мозга((. Просто выпишите термины при каждом их появлению в ролике и свяжите первое их упоминание расположение на таймкоде с объяснением термина. Еще можно замерить сколько в один момент в голове зрителя находится ещё не объясненых терминов важных для понимания хода мысли автора, и если вы не ужаснетесь, то вы социопат пытающий зрителей. Фу таким быть.

  • @MailboxB-d6o
    @MailboxB-d6o 18 днів тому

    красный синий , наоборот?

  • @monzikov
    @monzikov 19 днів тому

    Лучшая подача материала. Спасибо большущее.

  • @aranais7554
    @aranais7554 22 дні тому

    датетайм :D

  • @ГерманРыков-ъ6в
    @ГерманРыков-ъ6в 25 днів тому

    Замечательное пояснение! Конечно голая теория немного тяжеловата, но для тех у кого уже есть проекты очень поучительно.

  • @АзаматханАрифханов

    Спасибо большое! Очень понятно объяснили

  • @АннаЛевицкая-ф2й
    @АннаЛевицкая-ф2й Місяць тому

    филипп начните вести пары, а не пить вино в сербии

  • @ВикторияМельникова-р6я

    Спасибо большое за объяснение

  • @im0767
    @im0767 Місяць тому

    спасибо, очень понятно

  • @im0767
    @im0767 Місяць тому

    просто о сложном, спасибо

  • @im0767
    @im0767 Місяць тому

    42

  • @ei2292
    @ei2292 Місяць тому

    Благодарю, очень ясно и доступно

  • @angtuanetblwse8896
    @angtuanetblwse8896 Місяць тому

    А разве в распределении для медведя не должно быть y_i - m ?

  • @mirror_1
    @mirror_1 Місяць тому

    Спасибо !

  • @АртемКаргин-г5л
    @АртемКаргин-г5л Місяць тому

    в течение 10 недель на 2% снизить жир это существенно. Т.к. что если продолжать эксперимент, то можно добиться значимых различий

    • @skovoroda2434
      @skovoroda2434 Місяць тому

      очевидно же, что эффект теряется со временем, иначе через 11 лет люди бы в минус по содержанию жира уходили

    • @marginal5249
      @marginal5249 13 днів тому

      @@skovoroda2434ну максимума он же где то достигает

  • @RenatIunisov
    @RenatIunisov Місяць тому

    Добрый день! А если мы в рамках эксперимента проверяем сразу несколько не выборок, а показателей, например, в рамках двух групп по животным мы будем сравнивать не только рост, а еще и вес, кол-во пятен и тд - это же считается множественным тестированием и нам необходимо также учитывать это, как разные гипотезы применяя различные поправки? То есть, мы можем выбрать 3 группы пользователей и сравнение их между собой приведет к накопленной ошибке 1 рода, а если в рамках двух групп сравнивать несколько показателей? Спасибо

    • @skovoroda2434
      @skovoroda2434 Місяць тому

      Посмотрите про ANOVA тест, если память не изменяет, то это как раз то, что нужно

    • @RenatIunisov
      @RenatIunisov Місяць тому

      @@skovoroda2434 Да, понимаю, про что вы. Спасибо большое! Еще удалось дополнительно уточнить - мы должны делать поправку при сравнении каждой метрики, это как отдельная гипотеза считается и эффект накапливается :)

  • @pororopenguin7094
    @pororopenguin7094 Місяць тому

    спросил чатгпт про разницу между збч и цпт на примере Миши: ### Центральная предельная теорема (ЦПТ) Определение: ЦПТ утверждает, что при достаточно большом количестве независимых случайных величин, распределение их суммы (или среднего) будет стремиться к нормальному распределению, независимо от исходного распределения этих величин. Пример с Мишей: Предположим, что время прихода Миши в школу зависит от множества факторов (как вы указали: (x1), (x2), (x_3), и т.д.). Каждый из этих факторов может быть случайной величиной, имеющей какое-то свое распределение (например, время, которое он тратит на завтрак, может варьироваться от 5 до 15 минут). - Если мы рассматриваем много таких факторов (независимых и одинаково распределенных), даже если каждый из них имеет свое собственное распределение, сумма всех этих величин (время прихода) будет приближаться к нормальному распределению, когда количество факторов становится большим. - Например, если Миша каждый день учитывает 10 различных факторов, то распределение времени его прихода в школу будет стремиться к нормальному, даже если каждый из факторов не имеет нормального распределения. ### Закон больших чисел (ЗБЧ) Определение: ЗБЧ утверждает, что при увеличении числа независимых наблюдений среднее значение случайной величины будет стремиться к математическому ожиданию этой величины. Пример с Мишей: Если Миша каждый день фиксирует свое время прихода в школу и делает это много раз (например, в течение 30 дней), то среднее время его прихода будет стремиться к какому-то постоянному значению (математическому ожиданию). - Например, если в среднем Миша приходит в школу за 20 минут, то, если он будет фиксировать свое время прихода в течение 30 дней, среднее значение этих 30 наблюдений будет стремиться к 20 минутам, даже если в отдельные дни он приходил и позже, и раньше. ### Сравнение на примере Миши - ЦПТ: Если мы рассматриваем множество факторов, влияющих на время прихода Миши, то при большом количестве этих факторов сумма времени прихода будет иметь нормальное распределение. Это позволяет нам делать выводы о вероятностях различных значений времени прихода. - ЗБЧ: Если Миша фиксирует свое время прихода в школу на протяжении нескольких дней, то среднее значение его времени прихода будет приближаться к его истинному среднему времени (математическому ожиданию). Это позволяет ему оценить, насколько стабильно он приходит в школу.

  • @user-du6si1mu9u
    @user-du6si1mu9u 2 місяці тому

    Нажо же так тупо и непонятно обьяснятьт нифига непонятно

  • @romancomit9210
    @romancomit9210 2 місяці тому

    А на бирже можно прогнозить этими методами? Эффективно?

  • @klikv
    @klikv 2 місяці тому

    При классификации ошибки 1 и 2 рода перепутаны 8:45

  • @Катя-ю1х4ш
    @Катя-ю1х4ш 2 місяці тому

    Добрый день! Столкнулась с таким вопросом по данной теме: Почему ошибка первого или второго рода определяется произведением вероятности на интеграл от функции плотности распределения? И никак не могу разобраться с этим, не могли вы, пожалуйста, помочь с этим разобраться?

  • @ИванКатречко-ш5е
    @ИванКатречко-ш5е 2 місяці тому

    Спасибо автору за разбор и отдельно за визуализации 👍. Не могу согласиться с тем, что полученное значение sample_size при использовании функции zt_ind_solve_power необходимо делить на 2, т.к. согласно документации функция в nobs1 возвращает количество наблюдений для выборки 1 группы (nobs1: "number of observations of sample 1"). Соответственно, в sample_size мы получаем размер выборки для 1-ой группы и при ratio = 1 нам для достижения целей исследования потребуется sample_size*2. Тогда общее количество наблюдений будет в два раза больше, а не в два раза меньше как показано в видео.

  • @polblack
    @polblack 2 місяці тому

    Думаю , что не 0.075>0.5, а 0.075 > 0.05

  • @desirius1953
    @desirius1953 2 місяці тому

    Напрягает жестикуляция

  • @desirius1953
    @desirius1953 2 місяці тому

    Случайно поправляет рукав на одной руке

  • @alexandrsomov3998
    @alexandrsomov3998 2 місяці тому

    Изменяя обучающую выборку вы будете получать разные модели в итоге. Так можно сравнивать подходы (типы моделей). И возможно выбирать лучшие параметры. Но для сравнения уже обученных моделей ни один способ не подойдет

  • @xddxddxddxxddd6012
    @xddxddxddxxddd6012 2 місяці тому

    спасибо

  • @ЕкатеринаКиселева-ф8б

    Кажется вместо X4*(-7 4 0 3) должно быть X4*(-7 4 0 1)

  • @Aksinia1599
    @Aksinia1599 2 місяці тому

    Большое спасибо за объяснение!

  • @НиколайЛощинин-м7ч
    @НиколайЛощинин-м7ч 2 місяці тому

    датетайм

  • @lemonorangesorbet
    @lemonorangesorbet 3 місяці тому

    при тестировании отношения правдоподобия для двух параметров надо же передавать в функцию логарифм дисперсии...

  • @НиколайЛощинин-м7ч
    @НиколайЛощинин-м7ч 3 місяці тому

    В лекции ошибка в моменте когда рассматривается чаевые по дням недели в зависимости от пола, в качестве аргумента написанна сумма счета вместо чаевых

  • @MinisterDorado
    @MinisterDorado 3 місяці тому

    4:00 Как лектор так нашел что элементы матрицы Σ будут равны квадратному корню собственных значений матрицы XX^T? Это следует из спектрального разложения и возведение в степень диагональной матрицы равно возведению в степень диагональных элементов?

  • @MinisterDorado
    @MinisterDorado 3 місяці тому

    9:00 Из каких соображений следует, что если матрица положительно полуопределена, то у нее диагональные элементы в матрице D неотрицательны? И откуда потом следует, что если у нее диагональные элементы неотрицательны, то она представима в виде произведения двух матрицу Sigma^T * Sigma?

  • @Светлана-ц9н8б
    @Светлана-ц9н8б 3 місяці тому

    Очень замечательное объяснение!!!

  • @lemonorangesorbet
    @lemonorangesorbet 3 місяці тому

    Выводы для дисперсии по районам неправильные, потому что неверные подписи на графике...

  • @alt5631
    @alt5631 3 місяці тому

    Зачем так сложно объяснять

  • @flexterion
    @flexterion 3 місяці тому

    Фаза 1. Собрать трусы

  • @malwarewoman
    @malwarewoman 3 місяці тому

    Как он пишет зеркально??

    • @violenci
      @violenci 3 місяці тому

      Тот де вопрос

  • @lemonorangesorbet
    @lemonorangesorbet 3 місяці тому

    Почему асимптотический доверительный интервал в примере такой широкий? Не сходится же даже с расчетами на следующем слайде...

  • @AlexeyLukyanchuk
    @AlexeyLukyanchuk 3 місяці тому

    Stepwise algorithm is outlined in Hyndman and Khandakar (2008)

  • @Abdulhamidov_A.S.
    @Abdulhamidov_A.S. 3 місяці тому

    «Семь раз отмерь и один раз отрежь» - вот суть теоремы Чебышёва П.Л.

  • @MinisterDorado
    @MinisterDorado 3 місяці тому

    логичный вопрос, а что если оболочка M будет равняться всему пространсту? Как в таком случае будет находиться проекцтия? Т.е. в нашем случае оболочка будет образовываться 2 векторами x1 и x2, а что будет если будет еще один вектора, который будет дополнять нашу оболочку до полного пространтсва - R^3? Логичный вопрос из этого, а что если количество векторов размерность веткора y будет сильно больше размера выборки?