Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Постановка задачи 6:00 точечные оценки 13:00 определение 17:55 что значит недалекая от истины оценка 23:00 расчет мат ожидания для дисперсии 44:10 почему делим на n-1 57:40 пример в ситуации когда нет несмещенной оценки 1:02:00
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала. но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные? p.s. Андрей Михайлович лучший лектор!
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
Спасибо за лекцию! В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p". Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним. "
Морфиус пытается выбраться из матрицы
Не получилось, матрица оказалась вырожденной
Райгородский Андрей Михайлович прекрасный лектор, выражаю свое уважение людям которые способствуют выкладыванию его лекций в интернет и был бы рад выразить ему лично
Только Михайлович :)
@@ValOvchinnikov благодарю)
Постановка задачи 6:00
точечные оценки 13:00 определение 17:55
что значит недалекая от истины оценка 23:00
расчет мат ожидания для дисперсии 44:10
почему делим на n-1 57:40
пример в ситуации когда нет несмещенной оценки 1:02:00
добавили
Великое дело, понял сразу три лекции, прошедших в нашем университете, на которых было просто страшно!
Гений! Отец русской математики!
Огромное спасибо за лекции. А професор Райгородский просто чудо, прекрасный человек и преподаватель.
Интересная лекция. Этот человек может вернуть мне веру в математику
Завидую его студентам!!!!
Так ты тоже считай его студент. Рукой конечно не потрогаешь, но это на любителя, мне кажется.
Странно начинать с точечных оценок, но подача просто шикарная!
лучшее, что есть на ютубе
09:39 - Я думаю здесь было бы правильно пронумеровать элементарные исходы. После первого просмотра кажется, что это один и тот же элементарный исход. И также более подробно остановиться на моменте, что это идентичные случайные величины (Пример, если наша функция распределения ξ = x^2 , то ξ1 = x^2 ξ2 = x^2 ... ξn = x^2), а то многие путаются в обозначениях здесь.
ровно на этом же месте поставил лекцию на паузу и пошел формулировать вопрос про один и тот же элементарный исход на разных случайных величинах, пока не нашел этот комментарий ;) Я так понимаю, что это общая запись типа f(x) подчеркивая просто зависимость функции от аргумента. Но согласен с комментарием выше, доп. ясность бы не помешала.
но я все еще не понимаю, следующее. Случайная величина ξ - это функция, т.е. ξ(w). Зачем нам, имея результаты наблюдений x_1, ... x_n надо вводить множество этих случайных величин ξ_1, ... ξ_n? Почему нельзя также сделать допущение, и сказать что она у нас одна и именно она сгенерировала множество исходов на разных элементарных событиях? ξ(w=w_1) = x_1, ... ξ(w=w_n) = x_n ? и именно эту функцию ξ, ее распределение и что-то там еще мы стараемся восстановить глядя на данные?
p.s. Андрей Михайлович лучший лектор!
СПАСИБО!!! искал пояснение данному моменту, сам запутался, отчего бы им быть разными, а оно вон как…
Что сказать? Человек попал в вечность.
Отличная лекция! Спасибо огромное!!
Максимально обаятельный лектор :)
Спасибо большое.
В определении состоятельности также необходим квантор всеобщности
очень тяжело вникать в различие несмещенной и состоятельной оценок, когда оценивается мат ожидание, как я понял, в несмещенном случае оно появляется по определению несмещенности, а в случае состоятельности по смыслу самой оценки(мат ожидания), даже сформулировать это трудно.
37:00 почему оценка, на которую показывает Андрей Михайлович, является несмещенной? Ведь E(ξ1) = ξ1 - константа, а Тэта это не просто ξ1
Удалось разобраться?
Супер! Огромоное спасибо!
Спасибо большое за лекцию!!!
Спасибо преподавателю
Респект лектору!
11:16 а почему мы не можем считать, что у нас не последовательность случайных величин, а всего одна функция, которая применяется к каждому элементу из омега? почему много функций? зачем?
@@tomas_shelby3301 они же одинаково распределены
@@tomas_shelby3301 о, теперь понятно! большое спасибо:)
А почему логарифм не может равняться многочлену? Подскажите, кто-нибудь, где про это почитать)
Так как производная большого порядка от многочлена равна 0, а от логарифма все производные не равны 0
Потому что равняется бесконечной сумме многочленов, почитать можно про ряды Тейлора
Подскажите!
Получается, есть НЕматематическая статистика ?
Искал доказательство почему n-1 для несмещённой дисперсии в выборках и получил. 🥹 Спасибо!
Есть ли практические занятия, которые относятся к этим лекциям на этом youtube-канале? Если есть, не могли бы указать как найти?
Анатолий, в плейлисте есть записи семинаров по этому курсу. Записи разбора домашних заданий не выкладываются по просьбе преподавателей.
Спасибо за лекцию!
В последнем блоке лекции (пример отсутствия несмещенной оценки) разве мы оцениваем не параметр "p" биномиального распределения? Я к тому, что мы, наверное, должны поверх оценки уже этот логарифм накинуть, а не сразу логарифм от параметра "p" оценивать? Ну т.е. давайте сначала "p" оценим, а потом уже какую-либо функцию от "p".
Поправьте меня, пожалуйста, если я неверно рассуждаю. Что-то кокнуло видимо :)
Андрей Михаилович тут к сожалению не отвечает , попробуйте написать ему на почту с указанием таймкода
@@mipt_study Хорошо :)
Хороший кстати вопрос, напишите потом, если ответят :) Вообще говоря есть теорема (continuous mapping theorem), которая утверждает, что если Xn -> X по вероятности, то g(Xn) -> g(X) по вероятности тоже (для "хороших" функций g). Поэтому действительно такой способ (сначала оценить p с помощью состоятельной оценки, а потом взять логарифм) сработает. Но мне кажется, что тут во-первых была цель показать, что не для всякого выбора параметра есть несмещенная оценка (мы показали, что для логарифма такой оценки нет), а во-вторых, пример несколько искуственный, и тут сразу "понятно", что можно взять логарифм в конце и упростить задачу, но может быть и не очевидно. То есть дано какое-то распределение с параметром, параметр оценить нельзя несмещенной оценкой. Возможно, исходный параметр можно выразить как-то хитро через другой параметр и оценить тот, а потом применить функцию g, но поди ещё пойми, как именно это сделать.
@@KirillTsaregorodtsev Касаемо моего вопроса. Цитата: "Мы искусственно считаем параметром именно логарифм от р. Такой вот параметр. И его нельзя оценить несмещенно. Конечно, сам р отлично оценивается выборочным средним.
"
Просто Иисус математики.
Райгородский великолепен
"Товарищи, всё понятно, что происходит?" - "Нет, капитан!"🤯
Спасибо!
Подскажите а как посмотреть предыдущую лекцию гле базовые.понятия обьясняются?
Закон больших чисел и итд
Наберите в поиске UA-cam Дистанционные занятия МФТИ Теория Вероятностей
Хороший курс
Я плачу
Спасибо, где получить?
Ну он тащер жесткий