ЗБЧ и ЦПТ | Вероятность и статистика #3

Поділитися
Вставка
  • Опубліковано 2 лип 2024
  • Покупайте мой курс по А/Б-тестам stepik.org/a/194930 Скидка 20% по промо коду UA-cam
    Приходи тусоваться на канал и в чат в Телеграм t.me/mikhaylovgleb
    Ноутбук: colab.research.google.com/dri...
    Талеб монтекарлит: • Doing Probability with...
    0:00 Начало стрима, леопарды, спецэффекты
    2:10 Как сделать темную тему в колаб
    6:06 Вступительное слово
    9:00 Закон больших чисел
    15:39 Графическая демонстрация ЗБЧ вариант 1
    20:00 Графическая демонстрация ЗБЧ вариант 2 (секси)
    27:13 Работает ли ЗБЧ с нормальным распределением?
    28:58 Работает ли ЗБЧ с равномерным распределением?
    31:08 Работает ли ЗБЧ с жирно хвостовым распределением?
    41:21 Среднестан и Крайнестан
    49:18 Что такое жирный хвост?
    52:48 Центральная предельная теорема
    54:51 Чем отличается статистика от вероятности?
    58:42 Графическая демонстрация ЦПТ
    1:06:40 Почему работает ЦПТ? (Почему получается нормальное распределение?)
    1:15:46 С увеличением размера сэмпла уменьшает стандартное отклонение среднего
    1:21:44 ЦПТ и жирнохвостовые распределения
    1:28:55 Нафига нужна ЦПТ?
    1:34:42 Завершение стрима, шутки, леопарды и т.д.

КОМЕНТАРІ • 24

  • @susannasusanna5329
    @susannasusanna5329 23 дні тому

    Огромное уважение автору! Я пока не слышала более понятного объяснения "Чем отличается статистика от вероятности?". Спасибо за вашу работу, Глеб!

  • @funny-meow150
    @funny-meow150 Рік тому +5

    Видно что автор и сам кайфует и рад поделиться находкой - тем что сложные теоремы (если их сухо излагать) довольно понятны на самом деле. Спасибище Глебу!!!

  • @matveypopkov3414
    @matveypopkov3414 2 роки тому +19

    Глеб, все твои видео просто огонь! Предельно понятно как цпт) учился на Я.П но жаль не ты был лектором) правда соседние группы присылали твои лекции, просто топ)

  • @just-igor
    @just-igor 2 місяці тому

    лайк поставил. коммент для продвижения написал. Спасибо за бесплатный контент. Идем дальше

  • @user-sh8yi2yj7v
    @user-sh8yi2yj7v Рік тому

    Классный материал, отличная подача. Спасибо большое)

  • @iugulava
    @iugulava 11 місяців тому +1

    Спасибо, лучшая лекция по теме.

  • @user-kv9gc7lj8o
    @user-kv9gc7lj8o 2 роки тому

    Отличная лекция! Спасибо за материал!

  • @d14400
    @d14400 2 роки тому

    Темная тема - это просто топчик! Ну и курс огонь

  • @Aporlev
    @Aporlev Рік тому

    Как всегда, смотрю ваши ролики, потому что другие не могу понять😅, спасибо за отличные записи стримов)

  • @user-px8dq3mh2w
    @user-px8dq3mh2w Рік тому

    за Талеба огромное спасибо!

  • @Egor-sm4bl
    @Egor-sm4bl 2 роки тому +2

    Гаусян! Ааааа. Орнул)

  • @GlebMikhaylov
    @GlebMikhaylov  2 роки тому +9

    Я сразу после стрима сделал нормальный эксперимент доказывающий, что стандартное отклонение обратно пропорционально квадратному корню из количества наблюдений. colab.research.google.com/drive/173qlWlc9onkT7Fq-IlM-QHwT6hXOD1Qg?usp=sharing (в самом конце ноутбука)
    А на стриме я натупил). Я считал стандартные отклонения для самих семплов, а надо конечно же для средних! Но в любом случае, самая простая демонстрация этого это то, как я показал: если сэмпл маленький, то гистограмма широкая, если сэмпл увеличивается, то гистограмма сужается, становится более компактной. И это происходит со скоростью единица делить на квадратный корень из размера семпла.

  • @user-wp5jj2jt4o
    @user-wp5jj2jt4o 2 роки тому +2

    Глеб привет! супер лекции! Подача - огонь) Просто царь леопардов 😁
    Подскажи, а какое расширение для темной темы используешь в chrome? А то что-то найти не могу

    • @GlebMikhaylov
      @GlebMikhaylov  2 роки тому

      Спасибо! Это дарк ридер. chrome.google.com/webstore/detail/dark-reader/eimadpbcbfnmbkopoojfekhnkhdbieeh?hl=en

  • @v.sergei
    @v.sergei Рік тому

    🎉

  • @bin5460
    @bin5460 2 роки тому

    Не очень понял о каком генераторе ты говоришь на 54:51 ? (мне показалось, что ты говорил о распределении и именовал его генератором, если так, то почему ?)

    • @GlebMikhaylov
      @GlebMikhaylov  2 роки тому

      Генератором я здесь называю генеральную совокупность

  • @helpds7117
    @helpds7117 2 роки тому

    Не очень понял фразу "одно наблюдение не может повлиять на среднее". Если было 1000 наблюдений в равномерном распределении с средним 0.48. Мы добавили 1 наблюдение с значение 1000. Средние станет 1.48. Т.е. значительно измениться

    • @helpds7117
      @helpds7117 2 роки тому

      Понял)))Очень мало взял. Взял 10000 наблюдений теперь все четка

    • @GlebMikhaylov
      @GlebMikhaylov  2 роки тому +5

      Этим я иллюстрировал разницу между Среднестаном и Крайнестаном. Это значит, что в распределениях близких к нормальному просто не возможно получить одно значение, которое сильно повлияет на среднее. Например возьмем вес. Есть мы наберем 1000 людей и их средний вес будет скажем 70. И теперь добавим к ним самого тяжелого человека на Земле -- сколько это может быть? Ну допустим 400. Среднее увеличиться совсем немного, оно станет 70.33
      А вот если мы пойдем в Крайнестан, и станем измерять например состояние людей. То одно значение тут может полностью изменить среднее. Например мы возьмем 1000 обычных людей состояние которых около нуля, и добавим туда Илона Маска. Как изменится среднее? В среднем все станут миллионерами.
      В зависимости от распределения одно значение может не играть почти никакой роли, а может ставить все с ног на голову.

  • @helpds7117
    @helpds7117 2 роки тому +1

    Будет курс по Data Science?

  • @helpds7117
    @helpds7117 2 роки тому

    t.expanding().mean()

  • @user-so5zo1yt4b
    @user-so5zo1yt4b Рік тому

    Твои видео вызывают назойливое желание бежать к ноуту и кодить!!!