C'est juste parfait. Tout est clair, et en plus une bonne interprétation géométrique en parallèle pour encore mieux comprendre le maximum de vraisemblance
Merci beaucoup, et si jamais tu recherches aussi un cours en ligne complet sur les statistiques inférentielles : www.jad-coaching.com/statistiques-inferentielles 👌
Merci beaucoup pour cette vidéo qui est très pédagogique. J'ai une question. Dans l'exemple traité la variance est dit connue mais surtout la même pour toutes les valeurs. C'est qui permet de l'éliminer. Que se passe-t-il si les variances sont différentes ? Est-ce que la moyenne devient différente ? Est-ce que c'est ce qui justifie l'homoscédasticité des données (même variance) pour la régression linéaire ?
Merci beaucoup pour cette vidéo. Juste dans le calcul de l(u), avant de la dériver, il y a un signe - parceque ln((1/b)^n)=n×ln(1/b)=n×(ln(1)-ln(b))=(-1)n×ln(b).
merci pour cette video tres clair mais j ai tout de meme une question je comprends pas bien l'interet de faire tout ces calculs finalement puisque si j ai bien compris ce que ca nous a dit c est que le meilleur estimateur de la moyenne c est la moyenne empirique ? du coup est que on peut conclure que selon la methode du MLE le meilleur estimateur d'un parametre c est son estimation empirique ou pas du tout ?
C'est juste parfait. Tout est clair, et en plus une bonne interprétation géométrique en parallèle pour encore mieux comprendre le maximum de vraisemblance
Merci Virginie !
Un sauveur! L’interprétation géométrique m’a permis de comprendre!! Merci !
🙏
Merci pour cette vidéo très claire , l'explication est propre 👌👌
Merci !
Vidéo extrêmement clair 🙌
L'intuition est incroyable, merci !
Merci !
Excellente explication, merci beaucoup !
Merci beaucoup, et si jamais tu recherches aussi un cours en ligne complet sur les statistiques inférentielles : www.jad-coaching.com/statistiques-inferentielles 👌
Merci infiniment monsieur c'est génial
Merci infiniment tout est clair
Merci à toi !
bonsoir mr d'abord mercii pour cette vidéo et ask tu mets vidéo sur maximum de vraisemblance ( loi gamma )!!!
Merci infiniment Mr
Merci à toi !
excellent vidéo merci!
Merci à toi !
Merci beaucoup pour cette vidéo qui est très pédagogique. J'ai une question. Dans l'exemple traité la variance est dit connue mais surtout la même pour toutes les valeurs. C'est qui permet de l'éliminer. Que se passe-t-il si les variances sont différentes ? Est-ce que la moyenne devient différente ? Est-ce que c'est ce qui justifie l'homoscédasticité des données (même variance) pour la régression linéaire ?
Quand est ce que on utise ce estimateur ??
Merci beaucoup pour cette vidéo.
Juste dans le calcul de l(u), avant de la dériver, il y a un signe - parceque
ln((1/b)^n)=n×ln(1/b)=n×(ln(1)-ln(b))=(-1)n×ln(b).
Tu peux m'envoyer un screenshot sur mon adresse mail : contact@jad-coaching.com
merci
Vraiment cela m'a aidé. J'aimerais avoir votre contact si possible
contact@jad-coaching.com
Tu peux fair aussi pour la loi de berrnoulli
Pour bientôt oui !
merci pour cette video tres clair mais j ai tout de meme une question je comprends pas bien l'interet de faire tout ces calculs finalement puisque si j ai bien compris ce que ca nous a dit c est que le meilleur estimateur de la moyenne c est la moyenne empirique ? du coup est que on peut conclure que selon la methode du MLE le meilleur estimateur d'un parametre c est son estimation empirique ou pas du tout ?
Bien évidemment dans la pratique on utilise directement le résultat sans le démontrer 👌
@@jadcoachingofficial ahh yes merci je comprenais pas mes exos j avais l impression de devoir refaire tout le chemin à chaque fois haha ^^
Est ce que cette méthode est applicable pour les autres lois ?
Oui :)