Moi qui suis une bille totale en maths, ce qui ne m’empêche pas de m’intéresser, je n’arrive pas à comprendre pourquoi on a besoin de parler d’ « hypothèse zéro » ( et pourquoi zéro ?) et de la définir (le bout de bois a été prise dans le sac d’Eléonore), pour ensuite dire qu’on l’invalide. En quoi est-ce plus intéressant que de dire simplement : on va vérifier si ce bout de bois vient de ce sac ou pas, statistiquement parlant ?
C'est juste plus difficile à évaluer d'un point de vue fréquentiste. On voudrait savoir quelle est la probabilité que ce bout de bois ait été tiré du sac, sachant la taille du bout de bois. A la place, on teste l'hypothèse que ce bout de bois appartient au sac, sachant les propriétés du sac. C'est juste plus simple. Dans une approche bayésienne, oui, on prendrai le parti inverse. Une autre façon de voir les choses est que tous les tests d'hypothèse parte du principe qu'il n'y a pas de différence (de distribution, ou de moyenne, etc) entre les groupes observés. Et donc on part juste de ce postulat, en ce disant que si la probabilité d'obtenir nos données si H0 est vraie est faible, alors H0 n'est probablement pas vraie. Vous mettez néanmoins le doigt sur un point fondamental : ce n'est pas parce qu'on rejette H0 qu'on prouve l'hypothèse alternative (Ha). Et donc quand on rejette l'hypothèse nulle avec p = 5%, cela ne veut pas dire du tout qu'on est sûr à 95% que Ha est vraie
Très bien expliqué. Ce choix du seuil de 5% est purement arbitraire ? C’est simplement une norme ? J’ai du mal à m’imaginer ce seuil indépendant du contexte, en particulier de la criticité des conséquences des décisions prises en fonction de ce même seuil.
Oui c'est purement arbitraire. Ça correspond à peu près a 2 écart types. Dans les sciences exactes ils définissent alpha a 3 écarts types, donc beaucoup plus petit. Il y a plein de problèmes et de considérations avec la p-value que je n'ai pas eu le temps de détailler ici, mais effectivement, on pourrait en débattre des heures 😅
@@Lebiostatisticien En tout cas, merci. Cela a piqué ma curiosité. Du coup, je viens de ressortir un HS de la revue "Pour la science" de 2018 sur le Big Data, et il s’y trouve un article intitulé "La malédiction de la VALEUR-P". Bigre ! Je vais m’y plonger de ce pas ! Ce genre de débats est plutôt sain et montre que la science n’est pas un dogme, ce qui fait sa force (et non sa faiblesse comme le pensent certains) et lui permet de progresser.
Lors d'un échange concernant la faible pertinence des études sur de tout petits échantillons, on m'a opposé que l'approche fréquentiste passait à côté de choses que l'approche bayésienne permettait de voir. Par exemple au sujet de l'ivermectine où il y a plein de petites études non conclusives à cause d'une p-value trop faible, mais où on observait tout de même un meilleur résultat pour les patients dans le groupe test que dans le groupe contrôle. De ce que j'ai compris, selon une approche bayésienne, le fait que la p-value soit faible ne suffirait pas à invalider l'intérêt probable du traitement si on observe tout de même un petit mieux dans le groupe test, sur plusieurs études éparses. Est-ce une querelle de chapelles fréquentistes vs bayésiens, ou bien y a-t'il un fond de pertinence là dedans ?
C'est en même temps faux et pas faux. L'approche bayésienne va permettre d'estimer une distribution de tailles d'effets. Cette distribution dépend de plein de trucs. Et concrètement si on a des petits effectifs avec des échantillons hétérogènes bayesvne résoudra rien, sauf si on l'utilise mal
@@Lebiostatisticien Dans le cas présent (toujours l'exemple des études sur l'ivermectine) : la majorité des études avait un groupe test en légèrement meilleure santé que le groupe de contrôle (de mémoire, avec des petits comme des grands effectifs), mais à chaque fois de vraiment pas grand chose (donc p-value à la ramasse)
Bonjour
Génial ta vidéo, j'ai enfin compris la p value et enfin une vidéo claire nette et précise.
Bravo
Le "featuring" de vuillemin 🤣 J'étais pas prêt 😂 Merci pour cette vidéo et ce que vous faites ! 🙂
Génial comme vidéo ! Je pensais avoir compris la p-value mais au final j'ai quand même appris des trucs
Très beau décor à la fin, mais je sens que quelque chose ne va pas, mais je sais pas pourquoi.. 😁
Super phenix, comme le réacteur ?
@@anysbougaa Yes :)
Sympa
Moi qui suis une bille totale en maths, ce qui ne m’empêche pas de m’intéresser, je n’arrive pas à comprendre pourquoi on a besoin de parler d’ « hypothèse zéro » ( et pourquoi zéro ?) et de la définir (le bout de bois a été prise dans le sac d’Eléonore), pour ensuite dire qu’on l’invalide. En quoi est-ce plus intéressant que de dire simplement : on va vérifier si ce bout de bois vient de ce sac ou pas, statistiquement parlant ?
C'est juste plus difficile à évaluer d'un point de vue fréquentiste. On voudrait savoir quelle est la probabilité que ce bout de bois ait été tiré du sac, sachant la taille du bout de bois.
A la place, on teste l'hypothèse que ce bout de bois appartient au sac, sachant les propriétés du sac. C'est juste plus simple. Dans une approche bayésienne, oui, on prendrai le parti inverse.
Une autre façon de voir les choses est que tous les tests d'hypothèse parte du principe qu'il n'y a pas de différence (de distribution, ou de moyenne, etc) entre les groupes observés. Et donc on part juste de ce postulat, en ce disant que si la probabilité d'obtenir nos données si H0 est vraie est faible, alors H0 n'est probablement pas vraie.
Vous mettez néanmoins le doigt sur un point fondamental : ce n'est pas parce qu'on rejette H0 qu'on prouve l'hypothèse alternative (Ha). Et donc quand on rejette l'hypothèse nulle avec p = 5%, cela ne veut pas dire du tout qu'on est sûr à 95% que Ha est vraie
Salut ! C’est Éléanore
Mais elles sont vachement bien tes vidéos en fait! ^^
comment ça, en fait ? XD
@@Lebiostatisticien je savais que ça te ferait réagir XD
@ habile !
Le 5% correspond-t-il à ce qui est à plus de 2 écarts-types (inférieur et supérieur) donc 2 * 2.28% ?
oui, c'est la règle des 68%-95%-99.7%
Bonjour. S'il vous plaît, pouvez-vous nous faire une vidéo sur les bases du package ggplot2? Nous en avons énormément besoin. S'il vous plaît!
Je kiff ton humour
Très bien expliqué.
Ce choix du seuil de 5% est purement arbitraire ? C’est simplement une norme ?
J’ai du mal à m’imaginer ce seuil indépendant du contexte, en particulier de la criticité des conséquences des décisions prises en fonction de ce même seuil.
Oui c'est purement arbitraire. Ça correspond à peu près a 2 écart types. Dans les sciences exactes ils définissent alpha a 3 écarts types, donc beaucoup plus petit. Il y a plein de problèmes et de considérations avec la p-value que je n'ai pas eu le temps de détailler ici, mais effectivement, on pourrait en débattre des heures 😅
@@Lebiostatisticien En tout cas, merci. Cela a piqué ma curiosité.
Du coup, je viens de ressortir un HS de la revue "Pour la science" de 2018 sur le Big Data, et il s’y trouve un article intitulé "La malédiction de la VALEUR-P". Bigre ! Je vais m’y plonger de ce pas !
Ce genre de débats est plutôt sain et montre que la science n’est pas un dogme, ce qui fait sa force (et non sa faiblesse comme le pensent certains) et lui permet de progresser.
🍓 8 juillet 2021 🌧 France 🌤
Salut ! C’est interessant
Lors d'un échange concernant la faible pertinence des études sur de tout petits échantillons, on m'a opposé que l'approche fréquentiste passait à côté de choses que l'approche bayésienne permettait de voir.
Par exemple au sujet de l'ivermectine où il y a plein de petites études non conclusives à cause d'une p-value trop faible, mais où on observait tout de même un meilleur résultat pour les patients dans le groupe test que dans le groupe contrôle.
De ce que j'ai compris, selon une approche bayésienne, le fait que la p-value soit faible ne suffirait pas à invalider l'intérêt probable du traitement si on observe tout de même un petit mieux dans le groupe test, sur plusieurs études éparses.
Est-ce une querelle de chapelles fréquentistes vs bayésiens, ou bien y a-t'il un fond de pertinence là dedans ?
C'est en même temps faux et pas faux. L'approche bayésienne va permettre d'estimer une distribution de tailles d'effets. Cette distribution dépend de plein de trucs. Et concrètement si on a des petits effectifs avec des échantillons hétérogènes bayesvne résoudra rien, sauf si on l'utilise mal
@@Lebiostatisticien Ok, merci ! Donc ça reste du bruit statistique malgré tout, en gros ?
@@alexxkrehmen772 ba ça dépend ce qu'on appelle du bruit statistique :s
@@Lebiostatisticien Dans le cas présent (toujours l'exemple des études sur l'ivermectine) : la majorité des études avait un groupe test en légèrement meilleure santé que le groupe de contrôle (de mémoire, avec des petits comme des grands effectifs), mais à chaque fois de vraiment pas grand chose (donc p-value à la ramasse)
Très cool ^^
Le backflip aurait été apprécié ♥️
Alors je l'ai, mais hors caméra. Vraiment pas de chance ^^
Excellent. Merci
Comme le poney .. j ai compris 🙏🏽😂
Donc les informaticiens expliquent des trucs à un canard et les statisticiens à un poney... non mais pourquoi pas, c'est culturel !
A rapprocher du 6 sigma de Motorola.
Do a backflip!
"Le bout de bois a été coupé par quelqu'un d'autre, qui vient d'un autre sac..."
Il sort d'un sac le gars ? Et ça ? C'est probable ?
xD
Ahah ce titre poneytaclick 😄
C'est simple c'est simple dix fois qu'il le dit et j'ai toujours pas compris je pense que j'ai 80% de chance d'être simplet
Pas du tout, c'est pas forcément facile a appréhender, va voir les videos d'hygiene mentale puis science4all sur le "bayesianisme"
Mais non voyons ! C'est juste un concept un peu particulier
Qu'est-ce que vous n'avez pas compris ?