C'est une surprise de voir si peu de réponses venant de la théorie de la mesure pour répondre à "c'est quoi une probabilité?" C'est une seconde surprise de voir comme les réponses des commentaires appuient sur deux choses: 1) la calculabilité d'une probabilité et 2) une probabilité devrait aider à la décision.
si jamais qqun est intéresse pour calculer, un URL youtube contient 11 caractères tirés d'un alphabet de 64 caractères (a-z, A-Z, 0-9, -, et _ ). Je suis bourré donc je passe mon tour...
En fait, "42" peut se trouver à 10 endroits différents dans la chaîne de caractères, donc 10 possibilités. Les 9 caractères restants sont arbitraires, donc 64^9 possibilités. En tout 10*64^9 URL contiennent "42" sur un total de 64^11 URL possibles, ce qui donne un probabilité de 10/64^2, autrement dit environ 0.244% . Edit: c'est pas tout à fait juste, puisque que l'on compte plusieurs fois les cas où l'on a plusieurs "42" dans notre URL. C'est donc un peu moins que ça. Mais, je pense que l'ordre de grandeur d'une vidéo sur 500 est raisonnablement juste.
@@pierrestober3423 On pourrait affiner cette proba en observant toutes les adresses déjà existantes, vu qu'il ne peut pas y en avoir en double. On pourrait même retirer le concept de proba en trouvant l'algorithme
Je suis dans une école où on apprend la statistique et donc plus particulièrement le fréquentisme et la définition que tu en as donné correspond assez bien à ce qu'on nous inculque. J'ai hâte de voir la suite de tes vidéos mais pour l'instant, ta critique du fréquentisme me laisse un peu sur ma faim. Il me semble toujours que le fréquentisme est une bonne approche pour traiter la plupart des problèmes (notamment ceux pour lesquels il est facile de récolter un grand nombre de données tests randomisées). Et j'ai plutôt le sentiment que les limites du fréquentisme demeurent dans dans ses dérives, lorsqu'on cherche à l'utiliser en dehors de son domaine d'application. Je pense qu'un statisticien qui refuse de considérer une "probabilité de Guerre Mondiale" à cause de l'impossibilité de l'approcher de manière fréquentiste prend son idéologie pour une religion, et c'est là le soucis...
Bonjour et merci pour cette super vidéo. Je souscris à l'essentiel de ton propos, mais j’ai une question. Le fréquentisme exclut de son champ d’analyse les données non indépendantes et identiquement distribuées, alors que les données réelles sont hétérogènes et corrélées. C’est pourquoi le fréquentiste s’appuie sur des protocoles prospectifs randomisés en double aveugle et contre placébo. Tu ajoutes qu’il est dommage de jeter à la poubelle des données qui sortent de ce cadre. Cependant, si on pense à la médecine, cela revient à accepter des données présentant des facteurs de confusion importants, dont les effets contextuels sont mal connus, des données collectées de manière intentionnellement partiale etc. Peux-tu détailler comment exploiter ce type de données dans un cadre Bayésien, qui ne conduit pas à inférer n’importe quoi quant à l’efficacité d’une thérapie par exemple ? Merci beaucoup.
Merci pour la vidéo, juste quelques petits commentaires sur la façon dont je vois les choses : - Déjà je ne parlerais pas de "fréquentiste" ou de "bayésianiste", puisque personne n'est tout l'un ou tout l'autre. Ce n'est pas une religion, chacun change d'approche en fonction de ce qu'il a à traiter comme problème. - Ensuite, si l'économiste avait demandé à David Blackwell non pas la probabilité d'une guerre nucléaire mais la probabilité que le dé qu'il tient dans la main tombe sur 6, Blackwell aurait certainement répondu 1/6 et non pas "ça n'a pas de sens, ce lancé est unique, la probabilité vaut 0 ou 1 seule l'avenir le dira". Mais tu me diras que c'est parce que c'est une expérience qui a déjà été faite de nombreuses fois, et est donc bien adaptée au fréquentisme. Alors admettons maintenant que l'économiste tienne dans sa main 17 dé à 6 faces, 3 à 4 faces, 57 à 12 faces, etc ... L'expérience n'a surement jamais été effectuée, l'issue est unique dans le futur, pourtant n'importe qui trouvera du sens à donner la probabilité que la somme dépasse 100 par exemple. Concernant l'évolution du climat dans le futur, il n'y a pas besoin de faire l'expérience sur une infinité de planètes pour donner un sens aux probabilités des différents scenarii possibles. Une fois la Terre modélisée, i.e. approximée à un certain ordre, l'évolution est donnée physiquement par la somme de plusieurs lois physiques (souvent empiriques) qui ont été chacune éprouvées de façon fréquentiste (tout comme la loi de proba de chaque dé dans l'exemple du dessus). La probabilité d'avoir un certain scénario est donc donné par la combinaison des probabilités données de façon fréquentiste par les lois empiriques, par les erreurs sur les mesures elles aussi fréquentistes, ... Certes cette proba correspond à la proportion de planètes qui auraient suivi ce scénario si on avait eu une infinité de planètes (subissant chacune une distribution homogène de conditions initiales correspondant au jeu de mesure avec erreurs desquels on était parti), mais elle a un sens quant à savoir à quoi s'attendre. - Ensuite en ce qui concerne les big data (puisqu'il me semble que c'est de ça dont tu parles vers 14:30), elles semblent effectivement erratiques puisque de nombreux paramètres varient d'une mesure à l'autre. L'approche fréquentiste ne se "fout" pas de ces données, elle n'a juste pas la puissance de calcul nécessaire pour les traiter rigoureusement. (Ce qui n'empêche pas les chercheurs en économie, sociologie, médecine, ... de quand même penser qu'ils en sont capables, on est d'accord.) Quant à dire que parce qu'elles correspondent à des comportements IRL, elles sont "beaucoup plus informatives que des données artificielles de labo" je ne vois pas pourquoi ça serait vrai. Si une expérience dépend de n paramètres, il faudra n manips en labo pour trouver l'effet de chaque paramètre, i.e. la loi par laquelle chacun influe l'état final. Il faudra beaucoup, beaucoup plus de manips "IRL" c'est-à-dire qui mélangent tous ces paramètres à la fois pour espérer trouver ces n lois. Mais au final on aura exactement le même nombre d'infos, à savoir les n lois en question. Il y a juste un chemin facile et un compliqué. En gros si on avait cherché à déterminer l'influence de la température sur l'ébullition de l'eau en faisant l'expérience une fois à Paris, une fois au Pérou, une fois dans un verre propre, dans un verre sale, avec de l'eau distillée, ... on chercherait encore. Il était beaucoup plus simple de faire varier T, P, les concentrations en impuretés, ... une par une. - La question de la distinction d'approche fréquentiste / bayésienne se pose aujourd'hui parce que 1) on a une telle puissance de calcul, et 2) on arrive à faire des mesures en si grand nombre, qu'essayer de résoudre d'un seul coup toutes les corrélations cachées entre les paramètres qui interviennent dans un phénomène devient envisageable, nécessitant alors une approche bayésienne. Pour moi, il n'y a pas de révolution dans le paradigme scientifique, c'est juste que pour faire de la science, on va pouvoir utiliser maintenant des méthodes qui nous étaient technologiquement inaccessibles jusqu'à présent.
Une probabilité ça peut être deux choses. -Les "chances qu'un événement se produise. L'incertitude est liée à des données qu'on ne maitrise pas ou des modèles incomplets. -La fréquence d’occurrence d'éléments au sein d'une population plus globale. Loi des grands nombre oblige, ces données sont "réelles"
J'aurais bien aimé avoir une réponse sur pourquoi le Monty a une réponse précise et les deux enfants une réponse subjective, et aussi lsur la remarque des problèmes bien/mal posés, de la vidéo de monsieur phy. Merci pour tes vidéos !
On en parle un peu dans l'Axiome de ce soir (le paradoxe des 2 enfants est abordé vers 21h...). Perso, je suis d'accord pour dire que les 2 enfants est pas très bien posé. Mais ça me semble trop fort de dire qu'il est mal posé. Tout comme ça me semble trop fort de dire que le Monty Hall est bien posé...
Première erreur il me semble : confusion entre votre exemple d'étendre le sondage à DAVANTAGE de personnes, et répéter une expérience à l'IDENTIQUE. La loi des grands nombres dit : quand on augmente le nombre de répétitions d'une expérience IDENTIQUE (ce qui n'est que théorique : on ne pourra jamais répéter totalement "à l'identique"), alors la fréquence converge vers la probabilité théorique (avec, certes, aussi un débat très intéressant sur ce qu'est la probabilité "théorique"). Mais de toutes façons, quand on répète un sondage avec davantage de personnes DIFFERENTES, on ne répète pas du tout l'expérience à l'identique : le résultat ne sera qu'une approximation de la loi des grands nombres. Les statisticiens des sondages le savent bien, et ont des outils fréquentistes qui devraient vous plaire, Lê, puisqu'ils permettent même de chiffrer cette nuance et l'incertitude qui va avec. Dans les précédentes séries de vidéos, je trouve que vous réussissiez à être davantage vulgarisateur tout en étant bien davantage exact.
Y a-t-il des cas de convergences ou de divergences entre les 2 approches (bayésiennes et fréquentistes)? Le fréquentisme n'est-il pas une partie du bayésianisme? Ou dans certains cas les 2 approches donnent des résultats complètement différents? Ne peut-on pas affimer que le fréquentisme consiste à "balayer" le plus possible les préjugés du bayésiannisme en vue d'atteindre une convergence vers un idéal? En gros, j'aimerais bien avoir des exemples sur des cas concrets si c'est possible ;) J'ai l'impression que le bayésianisme se concentre sur les cas simples à complexes (paramètres nombreux et incontrôlables) dans la réalité alors que le fréquentisme ne se focalise que sur un idéal avec des paramètres simples et contrôlables mais néanmoins qui ne peut que le spéculer, faute de données insuffisantes face à l'infini et le caractère pas totalement contrôlable de l'environnement donc il ne reflète malgré tout que la réalité en se confrontant à ses limites finalement! Le fréquentisme et le bayésianisme ne sont-il pas finalement complémentaires l'un de l'autre? Par exemple, en jouant sur le paramètre "préjugé" de la formule de Bayes...? Ça me rappelle le fameux équilibre de l'épisode des IA entre les prédictions de l'individu qui ne croit qu'en ses modèles (super t-shirt au passage ;) ) et sa théorie et l'autre individu qui ne se fonde que sur son expérience et le réel...
A propos du théorème central-limite : merci de signaler à quel point on l'utilise à tort et à travers ! J'ai vu apparaitre dans des dizaines de thèses, d'articles, etc (une VRAIE erreur, mais qui passe parfois comme une lettre à la poste dans les publis !) : il aurait fallu écrire "la fréquence f DES ERREURS d'une expérience parfaitement répétable ...". Mais heureusement vous l'avez mentionné vers 22 min. En effet, je ne peux pas m'empêcher de mettre à nouveau en garde : pour ce qui est des données collectées non-pas en répétant une expérience unique, mais en mesurant sur PLUSIEURS INDIVIDUS (ou choses, ou objets, etc...) : ce théorème est vrai quand les phénomènes sont ADDITIFS et indépendants d'une MEME loi de base !!! Or ce n'est évidemment jamais le cas : ça reste un idéal. La preuve : les distributions de données sont presque toujours asymétriques (moment d'ordre trois plus ou moins fort), ne serait-ce que parce que les données sont souvent un "zéro absolu" (souvent zéro lui-même) alors qu'elles n'ont pas de limite absolue vers l'infinie. Bref : théorème GENIAL, mais arrêtons de l'utiliser à tort et à travers (par exemple en calculant les barres "d'intervalle de confiance à 95%" avant même d'avoir vérifié si la distribution est vraiment normale ou pas (ce qui est rarement le cas !!!).
Donc sans avoir vu la vidéo (j'en suis à 0:27), pour répondre à l'exercice du début, je dirais qu'une probabilité est le taux de fois où un événement x va se reproduire si on répète à l'infini une expérience en maintenant identiques tous les paramètres connus à l'instant t où on cherche à la mesurer. Exemple : dire que le candidat du Monty Hall a 66,7 % de remporter la voiture s'il change de rideau, c'est dire que si on reproduit la situation à l'infini, en gardant toujours constants les paramètres connus du candidat, et en laissant fluctuer librement les paramètres dont il n'a pas connaissance, alors dans 66,7 % des cas il remportera la voiture. Je suppose que cette définition (purement intuitive pour ma part) est éminemment fréquentiste, et je parirais que la suite de la vidéo va laisser entendre que différentes approches sont possibles et probablement (sic ^^) qu'une définition bayésienne serait différente. Bref, voyons voir cela. ^^
Merci pour la vidéo. Puisque tu parles du fréquentisme dans ta série sur le bayésianisme, est-ce que tu parleras d'autres sols théoriques pour parler des probabilités comme la Théorie de Dempster-Shafer ? As-tu un avis dessus ?
@@pierrestober3423 C'est une théorie de l'évidence, qui estime aussi l'incertitude. Son modèle passe par les notions de croyance et de plausibilités. Il y a un opérateur de fusion de croyances dans la théorie qui fait assez débat sur ce qu'il calcule exactement. Voilà des slides qui permettent bien de comprendre le propos : www.lgi2a.univ-artois.fr/~mercier/teaching/cours_fc.pdf Y a un formalisme très court sur le Wikipédia français, un peu plus détaillé sur le wiki anglais : fr.wikipedia.org/wiki/Th%C3%A9orie_de_Dempster-Shafer Enfin y a le livre de Glen Shafer qui cadre tout ça (en anglais) : press.princeton.edu/titles/2439.html
c'est très problématique le fréquentisme pour tenter de prédire des évènement qui n'ont aucune mémoire d'homme. genre les supertsunamis ou les super éruptions ou encore les collision cosmique avec des objets de plus de 10 km.je me pose une question depuis pas mal de temps étant étudiant en biologie nous devons constamment comparer des jeux de données issues de nos expériences avec des situations dîtes "normales" à l'aide d'intervalle de confiance au risque de 5% ou de 1% . le problème je trouve c'est que l'on part du principe qu'il existe des jeux de données témoins qui ne subissent pas le facteur dont on recherche l'effet ou le non effet. malheureusement ces jeux de données sont rarement assez hétérogène et rarement assez grand... un professeur nous a dit que la pvalue seule était presque inutile à démontrer ou infirmer une hypothèse nulle même si je n'ai pas bien compris pourquoi.
D'après moi, une probablité c'est une valeur entre 0 et 1 qui exprime à quel point un événement a des chances de se produire étant donné un contexte et une théorie ou modélisation théorique précise. Généralement le contexte suggère, à la manière d'un référentiel galiléen en physique, qu'on se trouve dans une situation idéale où des probabilités données de certains événements permettent d'en déduire les probabilités d'autres événements d'une certaine manière liés aux premiers. La théorie, à ma connaissance soit bayésienne, soit fréquentiste, détermine la manière dont on va comptabiliser la probabilité (j'en saurai sans doute plus après la vidéo): soit en fonction de ce qu'on sait déjà (données de l'expérience ou d'un énoncé), soit en fonction du résultat moyen lorsqu'on effectue un grand nombre de fois une expérience. Je sens que c'est pas trop ça: il va falloire revoire ça...
"Qu'est-ce qu'une probabilité"... C'est un peu le point de départ de l'exposition "Comme par hasard" de la Maison des Mathématiques et de l'Informatiques à Lyon. Bon l'expo est très grand public voire jeune public, mais il y a des vidéos de mini-interviews de 2 min où l'on pose cette question à différentes personnes: chercheurs en maths/proba, mais aussi philosophes, artistes, ... La diversité des réponses est vraiment sympa!
Une probabilité c'est la traduction dune variable discrète (0 ou 1) dont on ne connaît pas la valeur, en un nombre réel entre 0 et 1. Ce nombre est peut être approximé de différentes façons selon les informations qu'on a.
c'est tout sauf une définition, ça. Une définition c'est du clair, net et précis. ce que tu dis est trop général (il y a d'autres opérateurs qui peuvent vérifier les mêmes propriétés ou particularités), et pas juste (une probabilité est un opérateur qui s'applique à toutes les variables aléatoires, pas que les discrètes)
Une probabilité, c'est un nombre compris entre 0 et 1 qui exprime le pourcentage de chance qu'un évènement se produise. Je m'en serais sorti comment au concours de Normal Sup avec cette réponse ?
Une probabilité est une application d'un espace mesuré dans R, positive, Sigma-addtve, tel que le poids de l'ensemble vide soit nulle et de masse totale 1. (Oui je répète ce qu'on m'a dit à mon premier cours de proba en licence, sans vraiment réfléchir ^^')
En même temps, c'est la manière la plus « safe » de répondre, comme ça tu n'as pas à donner d'interprétation du sens épistémologique qu'à une probabilité. À noter que j'ai réussi à trouver une manière encore plus générale et condensée de définir une probabilité, en modifiant cette définition de licence (due à Kolmogorov) via la notion de multiensemble, sorte d'ensemble qui autorise chaque élément à apparaître plusieurs fois (le nombre de fois qu'il appartient à ce multiensemble s'appelle la multiplicité) : *Soit Ω un ensemble appelé l'univers, une probabilité P sur Ω est une mesure (finie) positive sur Ω telle que P(Ω) = 1.* On ne peut plus simple et court. Alors bien sûr, il faut définir la notion de mesure finie positive : *Soit Ω un ensemble, une mesure (finie) positive est une forme linéaire continue positive définie sur l'espace des multiensembles (M(Ω), ‖·‖_∞)* Encore une fois, définition très courte. Bon elle n'a pas simple pour qui ne maitrise pas l'analyse (forme linéaire continue positive…) ou les multiensembles (surtout vu en tant qu'espace vectoriel…), mais ça restera toujours plus simple que de devoir définir immédiatement les tribus puis un espace mesuré, et la notion un peu arbitraire de sigma-additivité (ou pire, sigma-sous-additivité si tu définis une mesure extérieure). P.S. : M(Ω) est l'ensemble des multiensembles de support Ω, c'est un espace vectoriel si on autorise les multiplicités à être à valeurs dans le corps ℝ plutôt que ℕ, que l'on peut munir de la norme infinie qui est le sup des valeurs absolues des multiplicités. On a alors que la linéarité continue dans ma définition de mesure implique la sigma-additivité de la définition classique (il me semble même qu'il y a équivalence, mais je ne l'ai pas démontré).
Question: Pour être honnète, vu mon incapacité à comprendre tous ces aspects matheux et liés aux probabilités, j'ai pas compris grand chose, mais avec le reste de ce que je sais et les liens entre courants et philosophies que je connais, est ce que vous seriez d'accord de dire quelque chose du genre: - Le fréquentisme se rapporte d'avantage à une approche rationaliste de la science. - Le bayésianisme se rapporte d'avantage à une approche matérialiste de la science.
Non, le truc c'est qu'avec le fréquentisme, on commence par une hypothèse dont il faut trouver la probabilité à partir de données, tandis qu'avec le bayésianisme, on commence par trouver les données et on en sort les probabilités de toutes les théories. Le fréquentisme est biaisé, car il se concentre sur une seule théorie à la fois, ce qui empêche de trouver la théorie la plus probable à tous les coups.
@@redswap Voui... et donc ma question^^ Merci pour simplifier ça c'est beaucoup plus clair, et ça va dans le sens de ce que je "préssens" bayésiennement^^ mais ducoup la question que je me pose c'est que le "méta" part d'ou alors? Je suis un matérilaiste qui à tendance à associer des biais de ce genre au rationalisme (comme un enfant du matérilaisme), mais dans des discussions plus philosophiques, scientifiques et politiques. Vu que je suis une bille en maths et probas/stats, ben je me demandais si des gens un peu "dans mon monde" avait cette intuition aussi, plus ou moins argumentée, ou si je pars trop loin et que je fais dans le biais de confirmation anti-rationaliste.
C'est une technique mathématique pour faire des projections chiffrées sur de futurs évènements ? Une technique pour faire des prévisions sur un système existant sortants des données plus ou moins prédictibles. Une technique pour faire des prédictions de façon plus efficaces ?
(N'ai pas encore vu la suite de la vidéo) Une probabilité est une mesure positive de somme 1 sur l'espace tout entier. Une probabilité peut être interprétée comme la fréquence de sélection d'un ensemble lors d'un tirage aléatoire idd dans l'espace en question. L'hypothèse iid étant très forte, cette interprétation est très limitante pour les probabilités. On peut aussi les concevoir comme une quantification de notre incertitude quant au fait - lors d'un unique tirage aléatoire - de savoir si on a tiré dans un ensemble donné de l'espace ou non.
Réponse à 00:23 En gros j'inverse la loi des grands nombres, La probabilité d'un résultat donné est naïvement la fréquence de ce résultat aléatoire apres un grand nombre de tirages aléatoire ( meme si parfois impossible de le faire en pratique)
Ce que tu appelles fréquentisme, je l'appellerais plutôt statistique mathématique il me semble (cf Wikipedia par exemple) (par opposition à la statistique bayésienne, et puis ce n'est qu'une question de terminologie). Par contre la statistique mathématique n'impose nullement de travailler avec des données iid! On a bien le droit de travailler avec des modèles statistiques plus compliqués que ça! Là où je te rejoins par contre, c'est que la statistique mathématique s'interdit les a priori et doit donc toujours proposer des résultats valables "quel que soit le vrai modèle" (la vraie valeur p dans ton exemple). En ce sens c'est une approche pessimiste et qui nécessite beaucoup de données...
Me considérant dans le "camp" des fréquentiste et ayant travaillé dans l'environnement et le nucléaire, les fréquentistes sont bien obligés de travailler avec les "bayésiens". Dans le nucléaire, on estime des probabilités d'événements encore jamais survenus par d'autres méthodes (exemple : les "arbres des causes possibles identifiées"). Le problème est que le futur leur donne tort ... presque TOUT LE TEMPS ! Bref : quand on ne peut pas faire de fréquentisme, il faut quand même avancer avec autre chose. Mais c'est souvent tellement mauvais... que dès qu'on peut faire du fréquentisme, il ne faut absolument pas s'en priver : c'est le moins pire de tout.
A la question initiale : qu'est-ce qu'une probabilité ? je répondrai, avant de regarder la suite de la vidéo (ni ailleurs) : Pour moi, il faut d'abord définir un évènement aléatoire : c'est un évènement qui peut se dérouler, ou non, sans qu'on ne puisse savoir à l'avance si justement il va se dérouler. La probabilité de cet évènement aléatoire, c'est un nombre (compris entre 0 et 1) que l'on donne pour quantifier ce que nous savons sur sa réalisation. Par définition, plus on s'approche de 0, plus on pense que celui-ci ne va pas se produire, plus on s'approche de 1, plus on pense que celui-ci va se produire. On peut aussi la définir via la répétition des expériences (la fameuse "loi des grands nombres"): La probabilité d'un évènement aléatoire, c'est le nombre vers lequel converge le rapport (nombre de réalisations de l'évènement)/(nombre d'essais) lorsque le nombre d'essai tend vers l'infini. (Mais la 2e définition nécessite un temps et des ressources infinies, ça manque un peu de côté pratique...)
est ce qu'on ne pourrait pas envisager le fréquentisme et le bayésianisme comme étant deux perspectives, l'une s'attachant à une connaissance globale et l'autre locale ? Dans le sens où, sans autre information de contexte mais disposant de données massives, un fréquentiste s'il devait s'appliquer à inférer sur toute une population se tromperait moins, là où son adversaire se tromperait moins, s'il dispose de données contextuelles, à inférer sur un individu, donc 'localement' ? Et la façon de s'approcher du local du fréquentisme, malgré ses limites, serait le profiling que fait Netflix par exemple? Bien que chaque 'niche' doivent être définie grace aux données d'un groupe niche suffisamment massif.
10:19 Intervalle de confiance... Arghhh mon vieux coeur.... Merci Lê je crois que je ne m'étais pas senti aussi vieux depuis la dernière fois que j'ai revu Ulysse 31! Bon j'avoue je suis tout sauf un mathématicien et ce depuis belle lurette, seulement un random physicien/chimiste et malgré bien des questionnement l'empreinte laissée semble el et bien indélébile, du moins jusqu'à ce jour. 6/20 à l'ENS? toujours mieux que mon 0.5/15+5/5 lors de mon oral de physique à l'ENSPCI il ya 25 ans, merci l'électromagnétisme; "Quelqu'un aurait-il l'amabilité de m'indiquer la sortie?" Mille mercis pour tes vidéos, mais bordel que le "c'est pas scientifique" me hérisse le poil. Tout est question de démarche et non d'a priori à mon humble avis. (se) questionner toujours et encore....
Je fais l'exercice : qu'est-ce qu'une probabilité ? Je me trompe peut être, mais il y a deux réponses selons moi : 1) la probabilité fréquentistes : c'est la régularité qu'un événement A se produise dans un contexte C. Si À se produit souvent quand C, alors la probabilité est élevé. Pour le mesurer il faut créer C plein de fois et compter le nombre de A qui apparaissent. 2) la probabilité bayesienne : c'est la crédence que je porte à un événement A sachant un contexte C. Si, avec mes apriori je pense que A à de forte chance d'arriver dans C, alors la probabilité est élevé. Pour le mesurer il faut utiliser la formule de Bayes et connaitre ses apriori. J'espère qu'après avoir suivi tes vidéos et celles d'hygiène mental, etc... J'arrive à avoir une meilleure note que 6/20
bon, ben, merci de me faire découvrir que je suis fréquentiste (en supposant qu'on puisse affirmer cela sans être mathématicien ou statisticien! ) à 12:35 je ne peux pas m'empêcher d'être d'accord avec Blackwell... si on parle d'un événement unique, j’appellerais ça une possibilité et pas un probabilité... si on lance un pièce une et une seule fois, elle tombera soit sur pile ou soit sur face, pas à 50% sur les deux, et on ne saura le résultat qu'après l'avoir lancée. J'aurais même envie de dire qu'on s'en fout effectivement de calculer la probabilité d'une catastrophe nucléaire, climatique ou lié au IA... de toute façon ça ne peut pas être précis! MAIS, ça ne devrait pas non plus nous empêcher d'en faire une maximum pour limité les chance que ça se réalise! on pourrait rétorquer que si on connais le niveau de menace, on peut réagir en conséquence, mais si c'était le cas, tout le monde devrais être en pleine panique en voyant qu'il ne reste que 2 minutes avant la fin de l'humanité : fr.wikipedia.org/wiki/Horloge_de_la_fin_du_monde (ils se basent sur quoi d'ailleurs pour obtenir ce résultat? Bayes se cache là derrière, ou pas du tout?)
Pour pouvoir réduire les chances d'un événement catastrophique, il faut pouvoir les quantifier ces chances, non ? Il me semble que ces chances correspondent à la vision bayésienne des probabilités, qui sont liées à l'incertitude. Tu es peut-être bayésien après tout.
@@pierrestober3423 pas forcément, par exemple si je décide de porter la ceinture et respecter les limitations de vitesse, alors que je ne le faisait pas avant, ça réduira mes risques personnel de mourir en voiture! Même si je ne connais pas la valeur exacte du risque sans ses précautions, ni de combien je diminue ce risque Et je parle bien d'un cas personnel et donc unique, qui ne sera pas identique la moyenne nationale ou autre stats ne tenant pas compte des habitudes personnelles... Même si c'est vrai que ses moyennes peuvent aider à avoir un ordre de grandeur relativement précis, ce qui n'est pas le cas sur d''autres événements plus complexe et "vraiment" unique
Georges Abitbol j’ai juste l’impression que Lê aime bien crier « Laplace ! ». En tout cas me semble qu’il l'a déjà dans une autre vidéo (voir plus ;) ).
La probabilité c'est la qualité de nos espérances, l'apparence de la vérité, la contradiction entre les gains ou les pertes, Mais c'est surtout l'inattendu.
J'ai trouvé cette vidéo super! J'ai une remarque qui n'est pas une critique mais plutôt une suggestion : saurais-tu mieux articuler? Tes vidéos sont généralement très denses et complexes, et ce serait plus facile de se concentrer sur le fond en saisissant plus facilement ce qui est dit. C'est d'autant plus dommage que tu t'exprimes très bien mais tu manges la moitié des mots.
Je sais que la vidéo date, mais je me prend quand même au jeu. Ce que je pense etre une probabilité (à 0:30), c'est, lors de la prédiction du résultat d'un évennement, le rapport entre le nombre de fois qu'un résultats possibles devrait se produire et le nombre de résultats possibles total.
Je me considère comme fréquentiste. Cependant je pense que le fréquentisme et le bayésianisme ne veut pas dire la même chose pour tout le monde, donc je vais préciser ma position : Je pense que la notion de probabilité doit être construite conceptuellement sur la notion de fréquence pour avoir un sens utile. Je pense que ta définition du fréquentiste est ok, mais avec quelques problèmes : Il n’existe pas de "vraie probabilité", la probabilité est toujours relatives à un ensemble de connaissances . (Et c’est une propriété du "modèle", pas du "territoire", fréquentistes ou pas) Mais on peut par contre imaginer qu’il y a une "vraie fréquence". C’est important parce que même si la notion de probabilité est bâtit sur la notion de fréquence, les deux notions ne s’appliquent pas aux mêmes types objets. La probabilité que j’ai de faire pile lors de mon prochain lancé est de 1/2. Mais la fréquence à laquelle je vais faire pile lors de mon prochain lancé est soit 0 soit 1. Même si la notion de probabilité est construite sur la notion de fréquence, cela ne veut pas dire qu’une probabilité (même "réelle") est une fréquence (même une fréquence à la limite en +oo), les deux choses ne s’appliquent pas au même type d’objet. Ensuite je ne pense pas qu’on puisse déterminer la probabilité d’un évènement concret sans aucun postulat métaphysique. Ça ne me semble pas spécialement être un problème du fréquentisme, je pense que toutes formes d’inductions nécessites des hypothèses métaphysiques. Il y a vraiment beaucoup à en dire, mais c’est sans doute pas le lieu adapté alors je vais m’arrêter là pour le moment ^^.
Ce serait bien d'expliquer en quoi le frequentiste s'oppose au bayesianiste. Pourquoi parler quasiment de croyances qui s'opposent. Pour moi selon l'objet étudié et les informations que l'on veut étudier on appliquera des raisonnements frequentiste ou bayésien et il existe de nombreux cas où les deux approches donnent le même résultats (peut être tous les cas si aucune erreur n'est commise?). Dans cette vidéo on entend que le frequentiste fait des erreurs et que s'il n'en fait pas il ne se prononce pas là où le bayésien produits un résultat lequel sera refusé par le frequentiste.
Yatil une différence dans le formalisme mathématique de ces deux approches ou nestce quune question dinterprétation ? Si oui quelle structure est le fondement de la statistique bayésienne ? Quels résultats du fréquentisme sont dispensables dès lors que lon renonce à cette approche ?
Bonjour, ma réponse: Probabilité et possibilité: la probabilité est l'ensemble des possibilités induites par un système logoique dans le sens où la logique est cohérente. Approfondissement: Une probabilté est un ensemble de solutions répondant à une équation. (équation: ensemble de constantes et de variables satisfaisant une réponse systémique) On notera que l'infini est un ensemble de solutions non limitées est qu'en dehors de la dimension temporelle elles sont existantes et que dans la dimension temporelle via l'humain qui voyage linéairement en son sein elle ne peut pas être imaginé puisqu'il est impossible d'imaginer toutes les solutions infinies en un laps de temps défini par définition. Éclatement conceptuel: La possibilité est l'ouverture à un système dimensionnel qui par définition restreint sa propre conception à un système. En d'autres termes c'est la possibilité d'engendrer un système différent du précédent. Ouverture: Qu'est-ce qui définit une possibilité, c'est la probabilité. Et qu'est-ce qui la détermine, c'est le temps. Dit différemment ce qui détermine l'emplacement d'un électron plutôt qu'à un autre emplacement: c'est le temps et qu'est-ce qui détermine sa position c'est la variable (fonction d'onde probabiliste) Reste la question pourquoi une réponse plutôt qu'une autre: c'est la possibilité. Et dit autrement qu'est ce qui peut prédire la position d'un électron? La réponse est simple c'est l'observateur :) La réponse dépend de la question et lorsqu'il y a plusieurs réponses satisfaisant la même question alors l'observateur indirectement en choisit une. Et qu'est-ce qui permet à un observateur de choisir une réponse à une autre équivalente: C'est l'induction *1. (*1 En logique, l'induction est un raisonnement qui se propose de chercher des lois générales à partir de l'observation de faits particuliers, sur une base probabiliste.) Drazdil. ua-cam.com/video/HpR5WWn9b_o/v-deo.html&start_radio=1
A mon avis, une probabilité correspond à un pari fait par un humain. Il se peut que la question à laquelle le pari se réfère possède une réponse déterminée. Mais dans ma définition, l'humain qui prend ce pari, lui, ne peut pas connaître cette réponse avec certitude. Je dirais donc qu'une probabilité est une forme de réponse non complète mais contenant le maximum d'informations compressées en un résultat final chiffré. Pour une situation qui s'est déjà produite dans des conditions qui nous semblent identiques on peut déterminer la probabilité du résultat à venir à l'aide des résultats précédents. Par exemple si je cherche à connaître la probabilité pour une pièce truquée de tomber sur face plutôt que sur pile, je peux faire un grand nombre de fois l'expérience et postuler que la probabilité de tomber sur face pour le prochain lancer est le rapport entre le nombre de fois où la pièce est tombée sur face et le nombre de lancers que j'ai effectué. Finalement une probabilité comme je l'entends est la meilleure réponse que l'on peut fournir à une question dont on ne connaît pas la réponse
8:47 La reproductibilité n'est pas une exigence fréquentiste mais une exigence d'objectivité : ce n'est pas le fait qu'une expérience soit suffisamment répétée qui importe, mais que le résultat ne dépende pas d'un expérimentateur ou d'un cadre local donné. 15:38 Je précise que le "Je sais que je ne sais pas" socratique n'est pas de l'indifférence, mais de la modestie épistémique.
Les probas sont un outil mathématique permettant de quantifier les possibles, de raisonner sur la base de cette quantification, et qui peut s'appliquer à plein de choses différentes (dont la notion d'incertitude ou encore celle de chance objective) suivant la façon de comprendre ce qu'on entend par "possible"
0:20 : Une probabilités et une fréquence à priori (Une statistique est une fréquence à posteriori) d'un Evénement; Mais peut être aussi le résultat d'un calcul contenant des fréquences à priori, ce que j’appellerais une probabilité opérationnel. (La formule de Bayes serait une Probabilité opérationnel selon cette définition.)
Une mesure. La théorie ne mentionne rien de plus. Intuitivement je dirais que ça mesure les degrés de certitude des différentes alternatives possibles. Cependant, puisque la théorie ne dit rien sur ce que mesure une probabilité, j'aurais tendance a penser que le degré de certitude mesuré ne dépend pas de la source de l'incertitude: incertitude fondamentale (existence d'un aléa vrai), incertitude lié a un manque d'information (inférieure épistémique?) ou lié à un manque de ressource calculatoire (incertitude computationnelle?), ou peut être encore autre chose. Bon c'est ma réponse un peu rapide. J'ajouterai juste qu'il portait être important de percevoir cette mesure comme un model de ce qu'on sait du monde. (Pas très clair ce que je raconte...) Sur ce je retourne à la vidéo.
Je voudrais juste reequilibrer un peu la balance sur ce que la video dit par rapport aux limites du frequentisme. NON, le frequentisme (et le theoreme central limite, et les stats qui en decoulent) ne se limite pas au cas IID (independent et identiquement distribue), encore heureux ! Il existe pleins de variantes (observations non-stationnaires, corrélées, dont la loi varie en fonction du temps...) du theoreme central limite ou de resultats du meme genre. Il y a meme une branche des stats qui s'appelle "statistiques des processus" et qui s’intéresse (entre autres) précisément a des situations ou l'hypothese IID n'est pas verifiee. Du coup (a mon humble avis) l'argument frequentisme = IID est extremement reducteur et ne tient pas vraiment...
Je suis en total désaccord ! Ta définition du fréquentisme est correcte, mais le raisonnement logique qui suit est faux. L'exemple de la probabilité de guerre est parfait pour le démontrer. Pour cela, je t'invite tout d'abord a reflechir au probleme suivant : les lois de la physique (f=ma par exemple) ont elles etaient trouvees, et meme confirmees de maniere frequentiste ? Bien sur que oui. Pourtant l'evenement "la balle tombe exactement ici" n'est jamais arrivé (tout comme la 3e guerre mondiale). Pour le faire a la "Le", je t'invite a faire pause 5 min dans ta lecture du commentaire pour resoudre ce petit paradoxe. ... Voila la solution au pb selon moi : il y a bien une convergence frequentiste, mais pas de l'evenement qu'on croit. Ce qui converge c'est la LOI "f=ma". En d'autre terme, on pourrait verifier que la difference entre le modele empirique (f,a) definit par les mesures, et le modele proposé (f = ma) converge bien vers 0. Cette difference etant entendu en terme d'une distance entre les lois de probabilites. Et bien pour l'evenement "3e guerre mondiale", c'est la meme chose. Il est tout a fait possible de plonger cet evenement dans un modele plus general, dont ont pourrait verfier experimentalement qu'il converge de maniere frequentiste. A ce moment, nous aurions 2 sources d'incertitude bien distinctes : 1) l'erreur modèle : il est clair que notre theorie ne pourrait pas coller aux donnees de maniere parfaite : cela donne un NIVEAU DE CONFIANCE dans la theorie (en.wikipedia.org/wiki/Minimum_distance_estimation), en terme d'une *DISTANCE* (et non pas d'une proba, bien sur !) 2) l'incertitude intrinseque au phenomeme (puisqu'il est stochastique) : ca c'est une *PROBABILITE* !! On pourrait rajouter : 3) l'incertitude lie a l'impossibilité de resoudre numeriquement le pb de maniere parfaite. Donc il faudrait répondre au président : "la théorie avec le meilleur niveau de confiance (il faut donner la valeur pour bien faire) nous dit que la probabilite d'une guerre est de P. Mais bon c'est tellement compliqué a calculer qu'en fait on n'en sait rien :) ". En espérant être lu. PS : * tous les modeles sont faux * MDE > 0 * ceux qui sont utiles ne sont pas les bayesiens * Minimum distance estimation >> BAYES Et toc !
@@seb9739 Au contraire, je dis qu'on a les données pour le faire. Si tu prends l'exemple de la prediction de "ou va tomber une balle". On a sans doute jamais observé exactement l'evenement qui va arriver. Cependant, on a un modèle qui lie le lieu ou la balle va arriver a sa vitesse initiale. *Ce modele a bien etait verifié de maniere frequentiste*. Grace a ce modele, je peux bel et bien faire une prevision sur "ou va tomber la balle", si j'ai mesuré sa vitesse initiale.
@@seb9739 Par exemple, tu pourrais inventer un modele qui lie la probabilite de guerre avec le niveau des echanges commerciaux sur les annees qui precedent les guerres.
@@seb9739 On ne connait que rarement le modele exact de la realite, mais il est tres facile d'inventer des modeles (approchés). Ensuite, il existe des methodes frequentistes, aussi bien que bayesiennes pour comparer les modeles, cad trouver celui qui est le plus proche de la réalité. Dans le cas bayesien, on utilise la formule de bayse afin de faire evoluer la probabilite de chaque modele. Cela implique qu'on parte d'une estimation a priori de la probabilite de chaque modele. Dans le cas frequentiste, on formule plutot le pb sous la forme d'un probleme d'optimisation. Il n'y a besoin pas d'apriori.
Une probabilité permet de mesurer son incertitude sur un résultat produit par un évènement aléatoire (dont on ne peut raisonnablement pas connaitre l'issue à l'avance ).
Je ne suis pas sûr, mais il me semble que tu ne parles pas de l'existence de moments d'ordre deux, (qu'on oublie souvent de préciser, et c'est compréhensible) nécessaire à la beaucoup de choses que tu dis ici.
Je crois que c'est clair à la manière avec laquelle les théorèmes sont cités que pleins de détails sont omis. Même les notions de convergence ne sont pas abordées
Je pense que Lê circonvient à ce problème en parlant d'estimation de _probabilités_ : or, dans un tel cas, l'hypothèse de moments d'ordre 2 est automatiquement satisfaite et on n'a donc plus à s'en soucier… ;-)
Par exemple, la chance d’obtenir une face sur un dés. Pour aller plus loin, un ou plusieurs cas en fonction de tous des cas pour un ou plusieurs coups. Mais je pense que un ou plusieurs cas en fonction de tous des cas est peut être une meilleur définition. ou bien une ou plusieurs solutions en fonction de l'ensemble des solutions. pour ceux qui préfèrent se vocabulaire. En même temps personne ne nous oblige a prendre en compte l’ensemble des solution c'est totalement arbitraire.
La probabilité de X, c'est la proportion des univers (au sens physique du terme) alternatifs où X est vrai, parmi ceux qui produisent les même données que si X était vrai.
Une probabilité est un nombre qu'on calcule ou qu'on estime par intuition, qui exprime notre certitude de quelque fait. Il est subjectif, il est une mesure de notre croyance en quelque chose.
Bon, je vais étonner tout le monde avec une définition de probabilité (presque ?) jamais vue, mais que je pense néanmoins intéressante. Contrairement à la vision fréquentiste, je ne vais pas définir la probabilité comme la fréquence limite d'un événement lorsque l'on répète une expérience aléatoire de manière identique et indépendante un grand nombre de fois « qui tend vers l'infini » (notion que je rejette dans le cadre de notre monde fini). Mais je vais quand même me baser sur la fréquence. *Soit Ω l'univers de tous les mondes physiquement possibles (c'est-à-dire qu'ils ne violent pas les lois de la physique), la probabilité est une application qui associe à toute partie A de Ω, appelée événement, la fréquence de A dans Ω, c'est-à-dire le nombre card(A) / card(Ω).* Oui, cela suppose équiprobabilité de tous les mondes physiques possibles. En outre, il faut connaitre les lois de la physique, qui se déterminent… via des méthodes probabilistes (qu'elles soient bayésiennes ou fréquentistes). Mais ce dernier problème de circularité se retrouve aussi sous une forme ou une autre dans les autres interprétations des probabilités. Cette notion est très théorique, mais elle me parait déjà beaucoup plus exacte et utile que la probabilité fréquentiste, car elle permet notamment de considérer des événements qui n'ont jamais eu lieu dans le passé, mais qui sont physiquement possibles et donc dont on peut compter les mondes possibles pour en obtenir une probabilité. De plus, on va généralement rechercher une probabilité conditionnelle sachant notre monde actuel - c'est-à-dire que l'on ne va considérer que les mondes physiquement possibles _à partir de notre monde physique actuel_ - ce qui réduit considérablement le nombre de possibilités et donc la difficulté du comptage. En estimant la proportion de mondes possibles qui correspondent au nôtre (en fonction des connaissances que l'on en a) et la proportion des différents mondes qui pourraient en découler, on pourrait aboutir en pratique à une utilisation bayésienne de cette définition si on veut faire des calculs.
Une probabilité est la proportion de tirages, sur une quantité infinie de tirages, dans lesquels un événement se produit dans un univers des possibles donné.
Quelque chose me déranger... comment le fréquentiste peut se résoudre à rejeter une hypothèse alors qu'il ne peut jamais être sûr avec une probabilité de 1 qu'il a juste ? Est-ce que la p-value sert à quantifier la fiabilité des résultat et donc nuancer ce rejet ?
Pour la définition early d'une proba : Si on répétait une situation avec uniquement les données qu'on a, on s'attendrait avoir ce nombre de réussite/echec. En fait plus une probabilité est proche de 1/2, moins on a de données mesurables. une probabilité c'est la mesure de notre ignorance. (bon live avec Mr Phi)
Sujet : notre savoir, nos a priori, est/sont toujours le fruit d'expériences fréquentistes. Je ne me place pas comme pro-fréquentiste. Il est cependant incorrect que dire que l'on ne peut pas calculer la probabilité de Y="une guerre nucléaire dans 5 ans" car on ne peut pas répéter un événement inédit du futur. En effet Y peut s'exprimer comme fonction d'autres variables aléatoires et si l'on décompose le problème assez finement il est possible d'exprimer Y=f(X1,...,XN) où les Xi sont des événements répétables (du passé). En décomposant à l'essentiel je suppose que l'on peut même revenir assez vite au fondement de la physique (quantique). Dans l'exemple en question cela dépendra de la possession ou non d'une bombe, d'un sujet de conflit, d'une réaction humaine face à un conflit. On peut ensuite re-décomposer ces événements, par exemple les réactions humaine sont le sujet de la sociologie, psychologie... sciences où l'on peut répéter... et ainsi de suite l'on peut de file en aiguille arriver à des événements répétables et finalement "simuler" la fréquence de Y. Autrement dit notre savoir, nos a priori, est/sont toujours le fruit d'expériences fréquentistes. (NB dire je ne sais pas, c'est à dire postuler une loi a priori non-informative revient à mettre le "poids" uniquement sur des expériences (passé ou futur ou à venir) et ceci ne pourrait être considéré comme une approche Bayesienne qui ne peut être vraiment définit que lorsque l'on peut introduire des a priori informatifs). Enfin je dirai que le Bayésianisme est une approche permettant d'aboutir à des "approximations" lorsque l'on est incapable de revenir de manière raisonnable à une décomposition en événements fréquentistes car trop complexe, ce qui est relativement souvent le cas.
Une probabilité est un coefficient, variant entre 0 et 1, permettant de caractériser (au mieux) l'issue d'une expérience aléatoire. Elle ne permet pas de donner l'issue de l'exp. aléatoire, puisque c'est impossible par définition, mais permet de distinguer si certaines issues se produisent plus souvent que d'autres, lorsqu'on répète l'expérience de nombreuses fois.
Une probabilité c'est une grandeur que l'on attribue à une affirmation pouvant être vraie ou fausse. Elle est alors égale au nombre de cas de l'ensemble des possibles (c'est à dire l'ensemble des possibilité de notre réalité sachant la réalité que nous connaissons) où cette affirmation est vraie divisé par le nombre de cas de l'ensemble des possibles.
qu'est-ce qu'une probabilité? je dirais que la probabilité d'une issue d'un événement est le nombre de fois ou cette issue est observée en moyenne quand l'événement survient
J'étudie depuis quelques mois les stats fréquentistes, la théorie des sondages et l'analyse de signal basée sur ça, et ça me semble être une bonne vulgarisation de ce que c'est, oui ... après je suis certainement pas allé assez loin pour voir si c'est caricatural
L'expérimentaliste en moi dirait : un probabilité est un nombre associé à un événement qui correspond à la notion suivante : si on répète une expérience un grand nombre de fois, alors la fraction de "l’événement a été observé" sur le nombre d'expérience tend vers la probabilité
Pour moi, c'est la fraction qui définit le rapport entre le nombre de fois où notre affirmation est vraie, et les essais totaux, si on pouvait faire un nombre d'essais tendant vers l'infini.
Réponse intuitive. Je dirais que c'est à quel point on doit faire confiance à qqch dans le cas d'un éventuel pari... Mais cela nécessite 'e fait de pouvoir savoir ensuite affiner cette probabilité...
Un prof m'avait très justement fait remarquer que ce n'est pas juste d'utiliser l'appellation "théorème central limite" puisque ce n'est pas le théorème qui est central mais bien la limite. Selon moi, il faudrait mieux l'appeler "théorème limite centrale" mais l'article wikipedia du théorème a l'air de dire que c'est une appellation "impropre". Un avis sur la question ?
Une probabilité est un moyen de quantifier le hasard et/ou l'inconnu, en divisant l'ensemble des possibles en parts pondérées en fonction des données à disposition. Voilà pour ma Def
Le taux d'emprunt de ma banque est un chiffre entre 0 et 1 et il permet d'orienter mes choix (est-ce que je fais un emprunt ou non, combien j'emprunte etc...) et avec une logique cartésienne (faut que j'évite d'emprunter plus que je ne peux rembourser). Pareil pour une vitesse qui m'oriente sur ma décision d'accélérer ou non. Et à l'inverse je peux aussi trouver probabilités qui ne vérifient pas ta définition. La position des électrons est définie par une distribution de probabilité et pourtant je pense pas que beaucoup de personnes utilisent cette probabilité pour orienter des choix avec une logique cartésienne.
0:20 ^^ une probabilité est une estimation chiffrée de la vraisemblance d'une prédiction pour un événement prédiction faites sur la base de connaissances que l'on utilise comme prémisses et d'une question qui sert à déterminer ce que l'on veut prédire
Plutôt que de voir la probabilité comme la fréquence limite d'un processus infini, ne peut-on pas définir la probabilité d'un évènement comme le rapport entre le nombre de théories qui vérifient l'évènement et le nombre total de théories ? J'ai l'impression que c'est calculatoirement équivalent à la définition fréquentiste, tout en étant plus adaptés aux cas où la répétition du processus n'a pas de sens.
0:28 Pas sûr que ma réponse intuitive soit si intuitive que ça, mais je tente quand même : Je dirais que la probabilité d'un évènement est une grandeur extensive (un peu comme en physique), dans le sens où, si on considère deux évènements *disjoints* A et B, la probabilité de leur union vaut la somme des probabilités : P(A u B) = P(A) + P(B) Je dirais ensuite que la fréquence d'observation d'évènements est la manifestation de cette propriété intrinsèque qu'est leur probabilité, c'est en quelque sorte une propriété émergente. Mais bon, peut-être que dans 23 minutes j'aurai envie de baffer le moi du passé pour ne pas avoir su l'étendue de son ignorance mais préféré la montrer à tout le monde =P
une probabilité : branche ou ensemble du spectre de la mesure de l'éventualité d'une prédiction qui tient du doute. Je dirais que c'est ca intuitivement.
une probabilité est une évaluation de la situation future sur base des éléments que nous connaissons et qui peuvent nous permettre de faire une prédiction voilà j'ai joué le jeu
Une probabilité, c'est : - (intuitivement) une estimation de la chance qu'un évènement se produise ; - (après quelques secondes de réflexion) la limite du rapport entre un nombre d'expériences dites réussies sur le nombre d'expériences effectuées, lorsque ce dernier tend vers l'infini.
Une probabilité est ce qui permet de nous éclairer là où les modèles, les lois manquent, là où nos connaissances sont freinées par l'épreuve du réel. C'est un calcul qui permet de modéliser un classement dans nos croyances, du plus possible au moins possible. D'avoir une idée qu'on pourrait presque qualifier de "prudente" vis-à-vis des résultats d'un événement. Au secours, ça devient vite hardcore.
Je tente ma chance : le rapport entre la fréquence de survenue d’un événement et la somme des fréquences de tous les autres événements que peut produire une même cause...
Une probabilité chiffre les différents taux de résultats (ou ensemble des résultats) qu'aurait une expérience si elle était réalisée une infinité de fois.
Je dirais que c'est une mesure d'un univers Oméga qui a tout sous-ensemble de l'univers associe un nombre entre 0 et 1, où la mesure de l'univers est 1 et la mesure de l'ensemble vide 0..?
Si l'on transforme l'énigme des 2 enfants en l'énigme des trois enfants (ce serait par exemple que la personne annonce avoir 2 filles et que l'on cherche à estimer la probabilité que le 3e enfant soit un garçon), est-ce que les deux résultats seraient réellement différents et si oui comment/pourquoi ?
Dans la précédente énigme, (la personne a deux enfants dont au moins une fille, quelle est la probabilité que l’autre enfant soit aussi une fille ?) si avec ton calcul tu trouvais 1/3, alors le même calcul donne sauf erreur de ma part que si la personne a trois enfants dont au moins deux filles,la probabilité que l’autre enfant soit aussi une fille est de 1/4, et donc pour un garçon, 3/4. Pour les détails du calcul, j’ai défini l’événement A : avoir 3 filles et l’événement B : avoir au moins 2 filles P(A) = (1/2)ˆ3=1/8 P(B) = p(A) + 3*(1/2)ˆ2*(1/2)=1/2 P(B|A)=1 D’où en appliquant la formule de Bayes, p(A|B)=1/4 Ici la probabilité recherchée est p(non A|B)=1-p(A|B)=3/4
C'est un nombre entre 0 et 1 permettant d'évaluer la proportion d'apparition d'un évènement. C'est le cas par exemple quand on juge la probabilité qu'un dès soit sur 6. On regarde la proportion que le dès aille sur 6 par rapport au fait qu'il n'y aille pas.
C'est une surprise de voir si peu de réponses venant de la théorie de la mesure pour répondre à "c'est quoi une probabilité?"
C'est une seconde surprise de voir comme les réponses des commentaires appuient sur deux choses: 1) la calculabilité d'une probabilité et 2) une probabilité devrait aider à la décision.
BRAVO pour ce commentaire.
Un peu trop théorique, ça manque un peu d'exemples concrets pour les neuneus comme moi.
42 dans l'URL, c'était quoi la probabilité de ça ?
question vague, il faut donner des limites à la question, entre autre, qu'appelez vous "ça" ?
si jamais qqun est intéresse pour calculer, un URL youtube contient 11 caractères tirés d'un alphabet de 64 caractères (a-z, A-Z, 0-9, -, et _ ). Je suis bourré donc je passe mon tour...
En fait, "42" peut se trouver à 10 endroits différents dans la chaîne de caractères, donc 10 possibilités. Les 9 caractères restants sont arbitraires, donc 64^9 possibilités. En tout 10*64^9 URL contiennent "42" sur un total de 64^11 URL possibles, ce qui donne un probabilité de 10/64^2, autrement dit environ 0.244% .
Edit: c'est pas tout à fait juste, puisque que l'on compte plusieurs fois les cas où l'on a plusieurs "42" dans notre URL. C'est donc un peu moins que ça. Mais, je pense que l'ordre de grandeur d'une vidéo sur 500 est raisonnablement juste.
@@pierrestober3423 On pourrait affiner cette proba en observant toutes les adresses déjà existantes, vu qu'il ne peut pas y en avoir en double. On pourrait même retirer le concept de proba en trouvant l'algorithme
En tout cas la probabilité que ça arrive au moins une fois est très grande donc c'est pas surprenant
Je suis dans une école où on apprend la statistique et donc plus particulièrement le fréquentisme et la définition que tu en as donné correspond assez bien à ce qu'on nous inculque.
J'ai hâte de voir la suite de tes vidéos mais pour l'instant, ta critique du fréquentisme me laisse un peu sur ma faim. Il me semble toujours que le fréquentisme est une bonne approche pour traiter la plupart des problèmes (notamment ceux pour lesquels il est facile de récolter un grand nombre de données tests randomisées). Et j'ai plutôt le sentiment que les limites du fréquentisme demeurent dans dans ses dérives, lorsqu'on cherche à l'utiliser en dehors de son domaine d'application. Je pense qu'un statisticien qui refuse de considérer une "probabilité de Guerre Mondiale" à cause de l'impossibilité de l'approcher de manière fréquentiste prend son idéologie pour une religion, et c'est là le soucis...
Bonjour et merci pour cette super vidéo. Je souscris à l'essentiel de ton propos, mais j’ai une question. Le fréquentisme exclut de son champ d’analyse les données non indépendantes et identiquement distribuées, alors que les données réelles sont hétérogènes et corrélées. C’est pourquoi le fréquentiste s’appuie sur des protocoles prospectifs randomisés en double aveugle et contre placébo. Tu ajoutes qu’il est dommage de jeter à la poubelle des données qui sortent de ce cadre. Cependant, si on pense à la médecine, cela revient à accepter des données présentant des facteurs de confusion importants, dont les effets contextuels sont mal connus, des données collectées de manière intentionnellement partiale etc. Peux-tu détailler comment exploiter ce type de données dans un cadre Bayésien, qui ne conduit pas à inférer n’importe quoi quant à l’efficacité d’une thérapie par exemple ? Merci beaucoup.
On y vient... Ca prend du temps, mais on y vient ;)
@@le_science4all Super !
Merci pour la vidéo, juste quelques petits commentaires sur la façon dont je vois les choses :
- Déjà je ne parlerais pas de "fréquentiste" ou de "bayésianiste", puisque personne n'est tout l'un ou tout l'autre. Ce n'est pas une religion, chacun change d'approche en fonction de ce qu'il a à traiter comme problème.
- Ensuite, si l'économiste avait demandé à David Blackwell non pas la probabilité d'une guerre nucléaire mais la probabilité que le dé qu'il tient dans la main tombe sur 6, Blackwell aurait certainement répondu 1/6 et non pas "ça n'a pas de sens, ce lancé est unique, la probabilité vaut 0 ou 1 seule l'avenir le dira". Mais tu me diras que c'est parce que c'est une expérience qui a déjà été faite de nombreuses fois, et est donc bien adaptée au fréquentisme.
Alors admettons maintenant que l'économiste tienne dans sa main 17 dé à 6 faces, 3 à 4 faces, 57 à 12 faces, etc ... L'expérience n'a surement jamais été effectuée, l'issue est unique dans le futur, pourtant n'importe qui trouvera du sens à donner la probabilité que la somme dépasse 100 par exemple.
Concernant l'évolution du climat dans le futur, il n'y a pas besoin de faire l'expérience sur une infinité de planètes pour donner un sens aux probabilités des différents scenarii possibles.
Une fois la Terre modélisée, i.e. approximée à un certain ordre, l'évolution est donnée physiquement par la somme de plusieurs lois physiques (souvent empiriques) qui ont été chacune éprouvées de façon fréquentiste (tout comme la loi de proba de chaque dé dans l'exemple du dessus).
La probabilité d'avoir un certain scénario est donc donné par la combinaison des probabilités données de façon fréquentiste par les lois empiriques, par les erreurs sur les mesures elles aussi fréquentistes, ...
Certes cette proba correspond à la proportion de planètes qui auraient suivi ce scénario si on avait eu une infinité de planètes (subissant chacune une distribution homogène de conditions initiales correspondant au jeu de mesure avec erreurs desquels on était parti), mais elle a un sens quant à savoir à quoi s'attendre.
- Ensuite en ce qui concerne les big data (puisqu'il me semble que c'est de ça dont tu parles vers 14:30), elles semblent effectivement erratiques puisque de nombreux paramètres varient d'une mesure à l'autre.
L'approche fréquentiste ne se "fout" pas de ces données, elle n'a juste pas la puissance de calcul nécessaire pour les traiter rigoureusement. (Ce qui n'empêche pas les chercheurs en économie, sociologie, médecine, ... de quand même penser qu'ils en sont capables, on est d'accord.)
Quant à dire que parce qu'elles correspondent à des comportements IRL, elles sont "beaucoup plus informatives que des données artificielles de labo"
je ne vois pas pourquoi ça serait vrai.
Si une expérience dépend de n paramètres, il faudra n manips en labo pour trouver l'effet de chaque paramètre, i.e. la loi par laquelle chacun influe l'état final.
Il faudra beaucoup, beaucoup plus de manips "IRL" c'est-à-dire qui mélangent tous ces paramètres à la fois pour espérer trouver ces n lois.
Mais au final on aura exactement le même nombre d'infos, à savoir les n lois en question. Il y a juste un chemin facile et un compliqué.
En gros si on avait cherché à déterminer l'influence de la température sur l'ébullition de l'eau en faisant l'expérience une fois à Paris, une fois au Pérou, une fois dans un verre propre, dans un verre sale, avec de l'eau distillée, ... on chercherait encore.
Il était beaucoup plus simple de faire varier T, P, les concentrations en impuretés, ... une par une.
- La question de la distinction d'approche fréquentiste / bayésienne se pose aujourd'hui parce que 1) on a une telle puissance de calcul, et 2) on arrive à faire des mesures en si grand nombre, qu'essayer de résoudre d'un seul coup toutes les corrélations cachées entre les paramètres qui interviennent dans un phénomène devient envisageable, nécessitant alors une approche bayésienne.
Pour moi, il n'y a pas de révolution dans le paradigme scientifique, c'est juste que pour faire de la science, on va pouvoir utiliser maintenant des méthodes qui nous étaient technologiquement inaccessibles jusqu'à présent.
Une probabilité ça peut être deux choses.
-Les "chances qu'un événement se produise. L'incertitude est liée à des données qu'on ne maitrise pas ou des modèles incomplets.
-La fréquence d’occurrence d'éléments au sein d'une population plus globale. Loi des grands nombre oblige, ces données sont "réelles"
ben oui mais j'ai justement l'impression que Lê veut qu'on se positionne. Puisqu'il est vrai que ce sont deux choses différentes.
Ça je ne pouvais pas le savoir avant de voir la vidéo^^'
c'est moi ou Lê a fait exprès de ne pas prononcer le nom "Gauss" dans cette vidéo ^^
J'aurais bien aimé avoir une réponse sur pourquoi le Monty a une réponse précise et les deux enfants une réponse subjective, et aussi lsur la remarque des problèmes bien/mal posés, de la vidéo de monsieur phy. Merci pour tes vidéos !
On en parle un peu dans l'Axiome de ce soir (le paradoxe des 2 enfants est abordé vers 21h...).
Perso, je suis d'accord pour dire que les 2 enfants est pas très bien posé. Mais ça me semble trop fort de dire qu'il est mal posé. Tout comme ça me semble trop fort de dire que le Monty Hall est bien posé...
"Une probabilité est une valeur que l'on associe à notre espérance qu'une proposition soit vraie."
Je regarde la suite :D
Première erreur il me semble : confusion entre votre exemple d'étendre le sondage à DAVANTAGE de personnes, et répéter une expérience à l'IDENTIQUE. La loi des grands nombres dit : quand on augmente le nombre de répétitions d'une expérience IDENTIQUE (ce qui n'est que théorique : on ne pourra jamais répéter totalement "à l'identique"), alors la fréquence converge vers la probabilité théorique (avec, certes, aussi un débat très intéressant sur ce qu'est la probabilité "théorique"). Mais de toutes façons, quand on répète un sondage avec davantage de personnes DIFFERENTES, on ne répète pas du tout l'expérience à l'identique : le résultat ne sera qu'une approximation de la loi des grands nombres. Les statisticiens des sondages le savent bien, et ont des outils fréquentistes qui devraient vous plaire, Lê, puisqu'ils permettent même de chiffrer cette nuance et l'incertitude qui va avec. Dans les précédentes séries de vidéos, je trouve que vous réussissiez à être davantage vulgarisateur tout en étant bien davantage exact.
Y a-t-il des cas de convergences ou de divergences entre les 2 approches (bayésiennes et fréquentistes)? Le fréquentisme n'est-il pas une partie du bayésianisme? Ou dans certains cas les 2 approches donnent des résultats complètement différents? Ne peut-on pas affimer que le fréquentisme consiste à "balayer" le plus possible les préjugés du bayésiannisme en vue d'atteindre une convergence vers un idéal? En gros, j'aimerais bien avoir des exemples sur des cas concrets si c'est possible ;) J'ai l'impression que le bayésianisme se concentre sur les cas simples à complexes (paramètres nombreux et incontrôlables) dans la réalité alors que le fréquentisme ne se focalise que sur un idéal avec des paramètres simples et contrôlables mais néanmoins qui ne peut que le spéculer, faute de données insuffisantes face à l'infini et le caractère pas totalement contrôlable de l'environnement donc il ne reflète malgré tout que la réalité en se confrontant à ses limites finalement! Le fréquentisme et le bayésianisme ne sont-il pas finalement complémentaires l'un de l'autre? Par exemple, en jouant sur le paramètre "préjugé" de la formule de Bayes...? Ça me rappelle le fameux équilibre de l'épisode des IA entre les prédictions de l'individu qui ne croit qu'en ses modèles (super t-shirt au passage ;) ) et sa théorie et l'autre individu qui ne se fonde que sur son expérience et le réel...
A propos du théorème central-limite : merci de signaler à quel point on l'utilise à tort et à travers ! J'ai vu apparaitre dans des dizaines de thèses, d'articles, etc (une VRAIE erreur, mais qui passe parfois comme une lettre à la poste dans les publis !) : il aurait fallu écrire "la fréquence f DES ERREURS d'une expérience parfaitement répétable ...". Mais heureusement vous l'avez mentionné vers 22 min. En effet, je ne peux pas m'empêcher de mettre à nouveau en garde : pour ce qui est des données collectées non-pas en répétant une expérience unique, mais en mesurant sur PLUSIEURS INDIVIDUS (ou choses, ou objets, etc...) : ce théorème est vrai quand les phénomènes sont ADDITIFS et indépendants d'une MEME loi de base !!! Or ce n'est évidemment jamais le cas : ça reste un idéal. La preuve : les distributions de données sont presque toujours asymétriques (moment d'ordre trois plus ou moins fort), ne serait-ce que parce que les données sont souvent un "zéro absolu" (souvent zéro lui-même) alors qu'elles n'ont pas de limite absolue vers l'infinie. Bref : théorème GENIAL, mais arrêtons de l'utiliser à tort et à travers (par exemple en calculant les barres "d'intervalle de confiance à 95%" avant même d'avoir vérifié si la distribution est vraiment normale ou pas (ce qui est rarement le cas !!!).
Bravo mon ami ! J'ai réussit a comprendre un problème qui date des années 80s !!!!!!!
Donc sans avoir vu la vidéo (j'en suis à 0:27), pour répondre à l'exercice du début, je dirais qu'une probabilité est le taux de fois où un événement x va se reproduire si on répète à l'infini une expérience en maintenant identiques tous les paramètres connus à l'instant t où on cherche à la mesurer. Exemple : dire que le candidat du Monty Hall a 66,7 % de remporter la voiture s'il change de rideau, c'est dire que si on reproduit la situation à l'infini, en gardant toujours constants les paramètres connus du candidat, et en laissant fluctuer librement les paramètres dont il n'a pas connaissance, alors dans 66,7 % des cas il remportera la voiture.
Je suppose que cette définition (purement intuitive pour ma part) est éminemment fréquentiste, et je parirais que la suite de la vidéo va laisser entendre que différentes approches sont possibles et probablement (sic ^^) qu'une définition bayésienne serait différente. Bref, voyons voir cela. ^^
Merci pour la vidéo.
Puisque tu parles du fréquentisme dans ta série sur le bayésianisme, est-ce que tu parleras d'autres sols théoriques pour parler des probabilités comme la Théorie de Dempster-Shafer ? As-tu un avis dessus ?
je connais pas, mais ça m'intéresse
@@pierrestober3423 C'est une théorie de l'évidence, qui estime aussi l'incertitude. Son modèle passe par les notions de croyance et de plausibilités. Il y a un opérateur de fusion de croyances dans la théorie qui fait assez débat sur ce qu'il calcule exactement.
Voilà des slides qui permettent bien de comprendre le propos : www.lgi2a.univ-artois.fr/~mercier/teaching/cours_fc.pdf
Y a un formalisme très court sur le Wikipédia français, un peu plus détaillé sur le wiki anglais : fr.wikipedia.org/wiki/Th%C3%A9orie_de_Dempster-Shafer
Enfin y a le livre de Glen Shafer qui cadre tout ça (en anglais) : press.princeton.edu/titles/2439.html
merci bcp, je jetterai un coup aux slides. Il faut dire que l'article wikipedia n'est pas éclairant.
Je ne connais pas. Merci des liens!
c'est très problématique le fréquentisme pour tenter de prédire des évènement qui n'ont aucune mémoire d'homme. genre les supertsunamis ou les super éruptions ou encore les collision cosmique avec des objets de plus de 10 km.je me pose une question depuis pas mal de temps étant étudiant en biologie nous devons constamment comparer des jeux de données issues de nos expériences avec des situations dîtes "normales" à l'aide d'intervalle de confiance au risque de 5% ou de 1% . le problème je trouve c'est que l'on part du principe qu'il existe des jeux de données témoins qui ne subissent pas le facteur dont on recherche l'effet ou le non effet. malheureusement ces jeux de données sont rarement assez hétérogène et rarement assez grand... un professeur nous a dit que la pvalue seule était presque inutile à démontrer ou infirmer une hypothèse nulle même si je n'ai pas bien compris pourquoi.
D'après moi, une probablité c'est une valeur entre 0 et 1 qui exprime à quel point un événement a des chances de se produire étant donné un contexte et une théorie ou modélisation théorique précise. Généralement le contexte suggère, à la manière d'un référentiel galiléen en physique, qu'on se trouve dans une situation idéale où des probabilités données de certains événements permettent d'en déduire les probabilités d'autres événements d'une certaine manière liés aux premiers. La théorie, à ma connaissance soit bayésienne, soit fréquentiste, détermine la manière dont on va comptabiliser la probabilité (j'en saurai sans doute plus après la vidéo): soit en fonction de ce qu'on sait déjà (données de l'expérience ou d'un énoncé), soit en fonction du résultat moyen lorsqu'on effectue un grand nombre de fois une expérience. Je sens que c'est pas trop ça: il va falloire revoire ça...
Comme toujours c'est passionnant !
"Qu'est-ce qu'une probabilité"... C'est un peu le point de départ de l'exposition "Comme par hasard" de la Maison des Mathématiques et de l'Informatiques à Lyon. Bon l'expo est très grand public voire jeune public, mais il y a des vidéos de mini-interviews de 2 min où l'on pose cette question à différentes personnes: chercheurs en maths/proba, mais aussi philosophes, artistes, ... La diversité des réponses est vraiment sympa!
Très amusant de visionner cette vidéo par les temps qui courent.
Une probabilité c'est la traduction dune variable discrète (0 ou 1) dont on ne connaît pas la valeur, en un nombre réel entre 0 et 1.
Ce nombre est peut être approximé de différentes façons selon les informations qu'on a.
c'est tout sauf une définition, ça. Une définition c'est du clair, net et précis.
ce que tu dis est trop général (il y a d'autres opérateurs qui peuvent vérifier les mêmes propriétés ou particularités), et pas juste (une probabilité est un opérateur qui s'applique à toutes les variables aléatoires, pas que les discrètes)
Une probabilité, c'est un nombre compris entre 0 et 1 qui exprime le pourcentage de chance qu'un évènement se produise. Je m'en serais sorti comment au concours de Normal Sup avec cette réponse ?
Pas si tu tombes sur mes examinateurs 😅
@@le_science4all Ahah j'aurais au moins tenté ma chance !
Une probabilité est une application d'un espace mesuré dans R, positive, Sigma-addtve, tel que le poids de l'ensemble vide soit nulle et de masse totale 1.
(Oui je répète ce qu'on m'a dit à mon premier cours de proba en licence, sans vraiment réfléchir ^^')
En même temps, c'est la manière la plus « safe » de répondre, comme ça tu n'as pas à donner d'interprétation du sens épistémologique qu'à une probabilité.
À noter que j'ai réussi à trouver une manière encore plus générale et condensée de définir une probabilité, en modifiant cette définition de licence (due à Kolmogorov) via la notion de multiensemble, sorte d'ensemble qui autorise chaque élément à apparaître plusieurs fois (le nombre de fois qu'il appartient à ce multiensemble s'appelle la multiplicité) :
*Soit Ω un ensemble appelé l'univers, une probabilité P sur Ω est une mesure (finie) positive sur Ω telle que P(Ω) = 1.*
On ne peut plus simple et court.
Alors bien sûr, il faut définir la notion de mesure finie positive :
*Soit Ω un ensemble, une mesure (finie) positive est une forme linéaire continue positive définie sur l'espace des multiensembles (M(Ω), ‖·‖_∞)*
Encore une fois, définition très courte. Bon elle n'a pas simple pour qui ne maitrise pas l'analyse (forme linéaire continue positive…) ou les multiensembles (surtout vu en tant qu'espace vectoriel…), mais ça restera toujours plus simple que de devoir définir immédiatement les tribus puis un espace mesuré, et la notion un peu arbitraire de sigma-additivité (ou pire, sigma-sous-additivité si tu définis une mesure extérieure).
P.S. : M(Ω) est l'ensemble des multiensembles de support Ω, c'est un espace vectoriel si on autorise les multiplicités à être à valeurs dans le corps ℝ plutôt que ℕ, que l'on peut munir de la norme infinie qui est le sup des valeurs absolues des multiplicités. On a alors que la linéarité continue dans ma définition de mesure implique la sigma-additivité de la définition classique (il me semble même qu'il y a équivalence, mais je ne l'ai pas démontré).
Aaah la réponse que j'attendais 😍
Question:
Pour être honnète, vu mon incapacité à comprendre tous ces aspects matheux et liés aux probabilités, j'ai pas compris grand chose, mais avec le reste de ce que je sais et les liens entre courants et philosophies que je connais, est ce que vous seriez d'accord de dire quelque chose du genre:
- Le fréquentisme se rapporte d'avantage à une approche rationaliste de la science.
- Le bayésianisme se rapporte d'avantage à une approche matérialiste de la science.
Non, le truc c'est qu'avec le fréquentisme, on commence par une hypothèse dont il faut trouver la probabilité à partir de données, tandis qu'avec le bayésianisme, on commence par trouver les données et on en sort les probabilités de toutes les théories. Le fréquentisme est biaisé, car il se concentre sur une seule théorie à la fois, ce qui empêche de trouver la théorie la plus probable à tous les coups.
@@redswap Voui... et donc ma question^^
Merci pour simplifier ça c'est beaucoup plus clair, et ça va dans le sens de ce que je "préssens" bayésiennement^^ mais ducoup la question que je me pose c'est que le "méta" part d'ou alors? Je suis un matérilaiste qui à tendance à associer des biais de ce genre au rationalisme (comme un enfant du matérilaisme), mais dans des discussions plus philosophiques, scientifiques et politiques. Vu que je suis une bille en maths et probas/stats, ben je me demandais si des gens un peu "dans mon monde" avait cette intuition aussi, plus ou moins argumentée, ou si je pars trop loin et que je fais dans le biais de confirmation anti-rationaliste.
C'est une technique mathématique pour faire des projections chiffrées sur de futurs évènements ? Une technique pour faire des prévisions sur un système existant sortants des données plus ou moins prédictibles. Une technique pour faire des prédictions de façon plus efficaces ?
(N'ai pas encore vu la suite de la vidéo)
Une probabilité est une mesure positive de somme 1 sur l'espace tout entier.
Une probabilité peut être interprétée comme la fréquence de sélection d'un ensemble lors d'un tirage aléatoire idd dans l'espace en question. L'hypothèse iid étant très forte, cette interprétation est très limitante pour les probabilités. On peut aussi les concevoir comme une quantification de notre incertitude quant au fait - lors d'un unique tirage aléatoire - de savoir si on a tiré dans un ensemble donné de l'espace ou non.
Réponse à 00:23
En gros j'inverse la loi des grands nombres,
La probabilité d'un résultat donné est naïvement la fréquence de ce résultat aléatoire apres un grand nombre de tirages aléatoire ( meme si parfois impossible de le faire en pratique)
définition "circulaire". lol.
Ce que tu appelles fréquentisme, je l'appellerais plutôt statistique mathématique il me semble (cf Wikipedia par exemple) (par opposition à la statistique bayésienne, et puis ce n'est qu'une question de terminologie).
Par contre la statistique mathématique n'impose nullement de travailler avec des données iid! On a bien le droit de travailler avec des modèles statistiques plus compliqués que ça!
Là où je te rejoins par contre, c'est que la statistique mathématique s'interdit les a priori et doit donc toujours proposer des résultats valables "quel que soit le vrai modèle" (la vraie valeur p dans ton exemple). En ce sens c'est une approche pessimiste et qui nécessite beaucoup de données...
Me considérant dans le "camp" des fréquentiste et ayant travaillé dans l'environnement et le nucléaire, les fréquentistes sont bien obligés de travailler avec les "bayésiens". Dans le nucléaire, on estime des probabilités d'événements encore jamais survenus par d'autres méthodes (exemple : les "arbres des causes possibles identifiées"). Le problème est que le futur leur donne tort ... presque TOUT LE TEMPS !
Bref : quand on ne peut pas faire de fréquentisme, il faut quand même avancer avec autre chose. Mais c'est souvent tellement mauvais... que dès qu'on peut faire du fréquentisme, il ne faut absolument pas s'en priver : c'est le moins pire de tout.
A la question initiale : qu'est-ce qu'une probabilité ? je répondrai, avant de regarder la suite de la vidéo (ni ailleurs) :
Pour moi, il faut d'abord définir un évènement aléatoire : c'est un évènement qui peut se dérouler, ou non, sans qu'on ne puisse savoir à l'avance si justement il va se dérouler.
La probabilité de cet évènement aléatoire, c'est un nombre (compris entre 0 et 1) que l'on donne pour quantifier ce que nous savons sur sa réalisation. Par définition, plus on s'approche de 0, plus on pense que celui-ci ne va pas se produire, plus on s'approche de 1, plus on pense que celui-ci va se produire.
On peut aussi la définir via la répétition des expériences (la fameuse "loi des grands nombres"): La probabilité d'un évènement aléatoire, c'est le nombre vers lequel converge le rapport (nombre de réalisations de l'évènement)/(nombre d'essais) lorsque le nombre d'essai tend vers l'infini.
(Mais la 2e définition nécessite un temps et des ressources infinies, ça manque un peu de côté pratique...)
4:18 j'ai ressenti un pic d'énergie hooliganistique à ce moment précis, je sais pas pourquoi
est ce qu'on ne pourrait pas envisager le fréquentisme et le bayésianisme comme étant deux perspectives, l'une s'attachant à une connaissance globale et l'autre locale ? Dans le sens où, sans autre information de contexte mais disposant de données massives, un fréquentiste s'il devait s'appliquer à inférer sur toute une population se tromperait moins, là où son adversaire se tromperait moins, s'il dispose de données contextuelles, à inférer sur un individu, donc 'localement' ? Et la façon de s'approcher du local du fréquentisme, malgré ses limites, serait le profiling que fait Netflix par exemple? Bien que chaque 'niche' doivent être définie grace aux données d'un groupe niche suffisamment massif.
Probabilité = anticipation de stats ?
10:19 Intervalle de confiance... Arghhh mon vieux coeur.... Merci Lê je crois que je ne m'étais pas senti aussi vieux depuis la dernière fois que j'ai revu Ulysse 31! Bon j'avoue je suis tout sauf un mathématicien et ce depuis belle lurette, seulement un random physicien/chimiste et malgré bien des questionnement l'empreinte laissée semble el et bien indélébile, du moins jusqu'à ce jour. 6/20 à l'ENS? toujours mieux que mon 0.5/15+5/5 lors de mon oral de physique à l'ENSPCI il ya 25 ans, merci l'électromagnétisme; "Quelqu'un aurait-il l'amabilité de m'indiquer la sortie?"
Mille mercis pour tes vidéos, mais bordel que le "c'est pas scientifique" me hérisse le poil. Tout est question de démarche et non d'a priori à mon humble avis. (se) questionner toujours et encore....
Je fais l'exercice : qu'est-ce qu'une probabilité ?
Je me trompe peut être, mais il y a deux réponses selons moi :
1) la probabilité fréquentistes : c'est la régularité qu'un événement A se produise dans un contexte C. Si À se produit souvent quand C, alors la probabilité est élevé. Pour le mesurer il faut créer C plein de fois et compter le nombre de A qui apparaissent.
2) la probabilité bayesienne : c'est la crédence que je porte à un événement A sachant un contexte C. Si, avec mes apriori je pense que A à de forte chance d'arriver dans C, alors la probabilité est élevé. Pour le mesurer il faut utiliser la formule de Bayes et connaitre ses apriori.
J'espère qu'après avoir suivi tes vidéos et celles d'hygiène mental, etc... J'arrive à avoir une meilleure note que 6/20
bon, ben, merci de me faire découvrir que je suis fréquentiste (en supposant qu'on puisse affirmer cela sans être mathématicien ou statisticien! )
à 12:35 je ne peux pas m'empêcher d'être d'accord avec Blackwell... si on parle d'un événement unique, j’appellerais ça une possibilité et pas un probabilité... si on lance un pièce une et une seule fois, elle tombera soit sur pile ou soit sur face, pas à 50% sur les deux, et on ne saura le résultat qu'après l'avoir lancée.
J'aurais même envie de dire qu'on s'en fout effectivement de calculer la probabilité d'une catastrophe nucléaire, climatique ou lié au IA... de toute façon ça ne peut pas être précis!
MAIS, ça ne devrait pas non plus nous empêcher d'en faire une maximum pour limité les chance que ça se réalise!
on pourrait rétorquer que si on connais le niveau de menace, on peut réagir en conséquence, mais si c'était le cas, tout le monde devrais être en pleine panique en voyant qu'il ne reste que 2 minutes avant la fin de l'humanité :
fr.wikipedia.org/wiki/Horloge_de_la_fin_du_monde
(ils se basent sur quoi d'ailleurs pour obtenir ce résultat? Bayes se cache là derrière, ou pas du tout?)
Pour pouvoir réduire les chances d'un événement catastrophique, il faut pouvoir les quantifier ces chances, non ? Il me semble que ces chances correspondent à la vision bayésienne des probabilités, qui sont liées à l'incertitude. Tu es peut-être bayésien après tout.
@@pierrestober3423 pas forcément, par exemple si je décide de porter la ceinture et respecter les limitations de vitesse, alors que je ne le faisait pas avant, ça réduira mes risques personnel de mourir en voiture!
Même si je ne connais pas la valeur exacte du risque sans ses précautions, ni de combien je diminue ce risque
Et je parle bien d'un cas personnel et donc unique, qui ne sera pas identique la moyenne nationale ou autre stats ne tenant pas compte des habitudes personnelles...
Même si c'est vrai que ses moyennes peuvent aider à avoir un ordre de grandeur relativement précis, ce qui n'est pas le cas sur d''autres événements plus complexe et "vraiment" unique
Pourquoi je crie Laplace avant Lê moi ? :'(
J'ai pas la ref ! Quelqu'un peut expliquer ?
Georges Abitbol j’ai juste l’impression que Lê aime bien crier « Laplace ! ». En tout cas me semble qu’il l'a déjà dans une autre vidéo (voir plus ;) ).
La probabilité c'est la qualité de nos espérances, l'apparence de la vérité, la contradiction entre les gains ou les pertes, Mais c'est surtout l'inattendu.
Probabilité : étude et tentative d’établissement des proportions des différentes possibilités de conclusions d’un phénomène avant sa finalisation ?
Mais c'est vrai ça Jamy ! Qu'est-ce que c'est ?
Dommage que ne soit pas abordé la notion de probabilité complexe
peut eter parce que ca n'existe pas :/
@@charoox tu es partisan de la Terre plate?
Pk loi des grands nombres et pas glivenko cantelli
J'ai trouvé cette vidéo super!
J'ai une remarque qui n'est pas une critique mais plutôt une suggestion : saurais-tu mieux articuler? Tes vidéos sont généralement très denses et complexes, et ce serait plus facile de se concentrer sur le fond en saisissant plus facilement ce qui est dit. C'est d'autant plus dommage que tu t'exprimes très bien mais tu manges la moitié des mots.
Je sais que la vidéo date, mais je me prend quand même au jeu.
Ce que je pense etre une probabilité (à 0:30), c'est, lors de la prédiction du résultat d'un évennement, le rapport entre le nombre de fois qu'un résultats possibles devrait se produire et le nombre de résultats possibles total.
C'est probablement un nombre entre 0 et 1 qui permet de quantifier notre incertitude envers une théorie...
C'est sûr à 100% !
Mais pour définir "incertitude" tu es obligé d'utiliser les probabilités, donc c'est une définition circulaire.
@@sylvainsanesti3499 C'est fait exprès avec 100% de certitude !
Je me considère comme fréquentiste.
Cependant je pense que le fréquentisme et le bayésianisme ne veut pas dire la même chose pour tout le monde, donc je vais préciser ma position :
Je pense que la notion de probabilité doit être construite conceptuellement sur la notion de fréquence pour avoir un sens utile.
Je pense que ta définition du fréquentiste est ok, mais avec quelques problèmes :
Il n’existe pas de "vraie probabilité", la probabilité est toujours relatives à un ensemble de connaissances . (Et c’est une propriété du "modèle", pas du "territoire", fréquentistes ou pas) Mais on peut par contre imaginer qu’il y a une "vraie fréquence".
C’est important parce que même si la notion de probabilité est bâtit sur la notion de fréquence, les deux notions ne s’appliquent pas aux mêmes types objets.
La probabilité que j’ai de faire pile lors de mon prochain lancé est de 1/2. Mais la fréquence à laquelle je vais faire pile lors de mon prochain lancé est soit 0 soit 1. Même si la notion de probabilité est construite sur la notion de fréquence, cela ne veut pas dire qu’une probabilité (même "réelle") est une fréquence (même une fréquence à la limite en +oo), les deux choses ne s’appliquent pas au même type d’objet.
Ensuite je ne pense pas qu’on puisse déterminer la probabilité d’un évènement concret sans aucun postulat métaphysique. Ça ne me semble pas spécialement être un problème du fréquentisme, je pense que toutes formes d’inductions nécessites des hypothèses métaphysiques.
Il y a vraiment beaucoup à en dire, mais c’est sans doute pas le lieu adapté alors je vais m’arrêter là pour le moment ^^.
Une probabilité quantifie l'écart entre ce qui est possible qu'il soit et ce qui est ?
"mais si les données dont nous EN disposons..." j'ai un doute sur la justesse de la formule... Sinon EXCELLENT épisode! Comme toujours!
Ce serait bien d'expliquer en quoi le frequentiste s'oppose au bayesianiste. Pourquoi parler quasiment de croyances qui s'opposent. Pour moi selon l'objet étudié et les informations que l'on veut étudier on appliquera des raisonnements frequentiste ou bayésien et il existe de nombreux cas où les deux approches donnent le même résultats (peut être tous les cas si aucune erreur n'est commise?). Dans cette vidéo on entend que le frequentiste fait des erreurs et que s'il n'en fait pas il ne se prononce pas là où le bayésien produits un résultat lequel sera refusé par le frequentiste.
Yatil une différence dans le formalisme mathématique de ces deux approches ou nestce quune question dinterprétation ? Si oui quelle structure est le fondement de la statistique bayésienne ? Quels résultats du fréquentisme sont dispensables dès lors que lon renonce à cette approche ?
Bonjour, ma réponse:
Probabilité et possibilité: la probabilité est l'ensemble des possibilités induites par un système logoique dans le sens où la logique est cohérente.
Approfondissement: Une probabilté est un ensemble de solutions répondant à une équation. (équation: ensemble de constantes et de variables satisfaisant une réponse systémique)
On notera que l'infini est un ensemble de solutions non limitées est qu'en dehors de la dimension temporelle elles sont existantes
et que dans la dimension temporelle via l'humain qui voyage linéairement en son sein elle ne peut pas être imaginé puisqu'il est impossible d'imaginer toutes les solutions infinies en un laps de temps défini par définition.
Éclatement conceptuel: La possibilité est l'ouverture à un système dimensionnel qui par définition restreint sa propre conception à un système. En d'autres termes c'est la possibilité d'engendrer un système différent du précédent.
Ouverture: Qu'est-ce qui définit une possibilité, c'est la probabilité. Et qu'est-ce qui la détermine, c'est le temps. Dit différemment ce qui détermine l'emplacement d'un électron plutôt qu'à un autre emplacement: c'est le temps et qu'est-ce qui détermine sa position c'est la variable (fonction d'onde probabiliste) Reste la question pourquoi une réponse plutôt qu'une autre: c'est la possibilité. Et dit autrement qu'est ce qui peut prédire la position d'un électron? La réponse est simple c'est l'observateur :)
La réponse dépend de la question et lorsqu'il y a plusieurs réponses satisfaisant la même question alors l'observateur indirectement en choisit une.
Et qu'est-ce qui permet à un observateur de choisir une réponse à une autre équivalente: C'est l'induction *1.
(*1 En logique, l'induction est un raisonnement qui se propose de chercher des lois générales à partir de l'observation de faits particuliers, sur une base probabiliste.)
Drazdil.
ua-cam.com/video/HpR5WWn9b_o/v-deo.html&start_radio=1
A mon avis, une probabilité correspond à un pari fait par un humain. Il se peut que la question à laquelle le pari se réfère possède une réponse déterminée. Mais dans ma définition, l'humain qui prend ce pari, lui, ne peut pas connaître cette réponse avec certitude.
Je dirais donc qu'une probabilité est une forme de réponse non complète mais contenant le maximum d'informations compressées en un résultat final chiffré.
Pour une situation qui s'est déjà produite dans des conditions qui nous semblent identiques on peut déterminer la probabilité du résultat à venir à l'aide des résultats précédents. Par exemple si je cherche à connaître la probabilité pour une pièce truquée de tomber sur face plutôt que sur pile, je peux faire un grand nombre de fois l'expérience et postuler que la probabilité de tomber sur face pour le prochain lancer est le rapport entre le nombre de fois où la pièce est tombée sur face et le nombre de lancers que j'ai effectué. Finalement une probabilité comme je l'entends est la meilleure réponse que l'on peut fournir à une question dont on ne connaît pas la réponse
8:47 La reproductibilité n'est pas une exigence fréquentiste mais une exigence d'objectivité : ce n'est pas le fait qu'une expérience soit suffisamment répétée qui importe, mais que le résultat ne dépende pas d'un expérimentateur ou d'un cadre local donné.
15:38 Je précise que le "Je sais que je ne sais pas" socratique n'est pas de l'indifférence, mais de la modestie épistémique.
Les probas sont un outil mathématique permettant de quantifier les possibles, de raisonner sur la base de cette quantification, et qui peut s'appliquer à plein de choses différentes (dont la notion d'incertitude ou encore celle de chance objective) suivant la façon de comprendre ce qu'on entend par "possible"
0:20 : Une probabilités et une fréquence à priori (Une statistique est une fréquence à posteriori) d'un Evénement;
Mais peut être aussi le résultat d'un calcul contenant des fréquences à priori, ce que j’appellerais une probabilité opérationnel.
(La formule de Bayes serait une Probabilité opérationnel selon cette définition.)
Une mesure. La théorie ne mentionne rien de plus. Intuitivement je dirais que ça mesure les degrés de certitude des différentes alternatives possibles. Cependant, puisque la théorie ne dit rien sur ce que mesure une probabilité, j'aurais tendance a penser que le degré de certitude mesuré ne dépend pas de la source de l'incertitude: incertitude fondamentale (existence d'un aléa vrai), incertitude lié a un manque d'information (inférieure épistémique?) ou lié à un manque de ressource calculatoire (incertitude computationnelle?), ou peut être encore autre chose.
Bon c'est ma réponse un peu rapide. J'ajouterai juste qu'il portait être important de percevoir cette mesure comme un model de ce qu'on sait du monde. (Pas très clair ce que je raconte...)
Sur ce je retourne à la vidéo.
Je voudrais juste reequilibrer un peu la balance sur ce que la video dit par rapport aux limites du frequentisme. NON, le frequentisme (et le theoreme central limite, et les stats qui en decoulent) ne se limite pas au cas IID (independent et identiquement distribue), encore heureux ! Il existe pleins de variantes (observations non-stationnaires, corrélées, dont la loi varie en fonction du temps...) du theoreme central limite ou de resultats du meme genre. Il y a meme une branche des stats qui s'appelle "statistiques des processus" et qui s’intéresse (entre autres) précisément a des situations ou l'hypothese IID n'est pas verifiee.
Du coup (a mon humble avis) l'argument frequentisme = IID est extremement reducteur et ne tient pas vraiment...
Hm j'aurais aimé que tu parles de Mr Nassim nicholas Taleb... mais bonne vidéo cimer chef !
Je suis en total désaccord ! Ta définition du fréquentisme est correcte, mais le raisonnement logique qui suit est faux. L'exemple de la probabilité de guerre est parfait pour le démontrer.
Pour cela, je t'invite tout d'abord a reflechir au probleme suivant : les lois de la physique (f=ma par exemple) ont elles etaient trouvees, et meme confirmees de maniere frequentiste ? Bien sur que oui. Pourtant l'evenement "la balle tombe exactement ici" n'est jamais arrivé (tout comme la 3e guerre mondiale). Pour le faire a la "Le", je t'invite a faire pause 5 min dans ta lecture du commentaire pour resoudre ce petit paradoxe.
...
Voila la solution au pb selon moi : il y a bien une convergence frequentiste, mais pas de l'evenement qu'on croit. Ce qui converge c'est la LOI "f=ma". En d'autre terme, on pourrait verifier que la difference entre le modele empirique (f,a) definit par les mesures, et le modele proposé (f = ma) converge bien vers 0. Cette difference etant entendu en terme d'une distance entre les lois de probabilites.
Et bien pour l'evenement "3e guerre mondiale", c'est la meme chose. Il est tout a fait possible de plonger cet evenement dans un modele plus general, dont ont pourrait verfier experimentalement qu'il converge de maniere frequentiste. A ce moment, nous aurions 2 sources d'incertitude bien distinctes :
1) l'erreur modèle : il est clair que notre theorie ne pourrait pas coller aux donnees de maniere parfaite : cela donne un NIVEAU DE CONFIANCE dans la theorie (en.wikipedia.org/wiki/Minimum_distance_estimation), en terme d'une *DISTANCE* (et non pas d'une proba, bien sur !)
2) l'incertitude intrinseque au phenomeme (puisqu'il est stochastique) : ca c'est une *PROBABILITE* !!
On pourrait rajouter :
3) l'incertitude lie a l'impossibilité de resoudre numeriquement le pb de maniere parfaite.
Donc il faudrait répondre au président : "la théorie avec le meilleur niveau de confiance (il faut donner la valeur pour bien faire) nous dit que la probabilite d'une guerre est de P. Mais bon c'est tellement compliqué a calculer qu'en fait on n'en sait rien :) ".
En espérant être lu.
PS :
* tous les modeles sont faux
* MDE > 0
* ceux qui sont utiles ne sont pas les bayesiens
* Minimum distance estimation >> BAYES
Et toc !
#DebattonsMieux svp
@@Fangh44 : tu as vu que je parodiais son T-shirt ?
@@seb9739 Au contraire, je dis qu'on a les données pour le faire. Si tu prends l'exemple de la prediction de "ou va tomber une balle". On a sans doute jamais observé exactement l'evenement qui va arriver. Cependant, on a un modèle qui lie le lieu ou la balle va arriver a sa vitesse initiale. *Ce modele a bien etait verifié de maniere frequentiste*. Grace a ce modele, je peux bel et bien faire une prevision sur "ou va tomber la balle", si j'ai mesuré sa vitesse initiale.
@@seb9739 Par exemple, tu pourrais inventer un modele qui lie la probabilite de guerre avec le niveau des echanges commerciaux sur les annees qui precedent les guerres.
@@seb9739 On ne connait que rarement le modele exact de la realite, mais il est tres facile d'inventer des modeles (approchés). Ensuite, il existe des methodes frequentistes, aussi bien que bayesiennes pour comparer les modeles, cad trouver celui qui est le plus proche de la réalité. Dans le cas bayesien, on utilise la formule de bayse afin de faire evoluer la probabilite de chaque modele. Cela implique qu'on parte d'une estimation a priori de la probabilite de chaque modele. Dans le cas frequentiste, on formule plutot le pb sous la forme d'un probleme d'optimisation. Il n'y a besoin pas d'apriori.
Une probabilité permet de mesurer son incertitude sur un résultat produit par un évènement aléatoire (dont on ne peut raisonnablement pas connaitre l'issue à l'avance ).
Je ne suis pas sûr, mais il me semble que tu ne parles pas de l'existence de moments d'ordre deux, (qu'on oublie souvent de préciser, et c'est compréhensible) nécessaire à la beaucoup de choses que tu dis ici.
Je crois que c'est clair à la manière avec laquelle les théorèmes sont cités que pleins de détails sont omis. Même les notions de convergence ne sont pas abordées
Je pense que Lê circonvient à ce problème en parlant d'estimation de _probabilités_ : or, dans un tel cas, l'hypothèse de moments d'ordre 2 est automatiquement satisfaite et on n'a donc plus à s'en soucier… ;-)
Pourquoi sur le T-shirt, une proba est strictement comprise entre 0 et 1 ? Quid des événements certains et impossibles ?
Par exemple, la chance d’obtenir une face sur un dés.
Pour aller plus loin, un ou plusieurs cas en fonction de tous des cas pour un ou plusieurs coups.
Mais je pense que un ou plusieurs cas en fonction de tous des cas est peut être une meilleur définition.
ou bien une ou plusieurs solutions en fonction de l'ensemble des solutions. pour ceux qui préfèrent se vocabulaire.
En même temps personne ne nous oblige a prendre en compte l’ensemble des solution c'est totalement arbitraire.
Super vidéo, merci bcp ;-)
La probabilité de X, c'est la proportion des univers (au sens physique du terme) alternatifs où X est vrai, parmi ceux qui produisent les même données que si X était vrai.
Une probabilité est la chance qu'un événement arrivent sur un nombre total de possibilités
Une probabilité est une évaluation du taux de réalisation d'une hypothèse par rapport aux autres hypothèses possible sur un sujet donné
Une probabilité est un nombre qu'on calcule ou qu'on estime par intuition, qui exprime notre certitude de quelque fait. Il est subjectif, il est une mesure de notre croyance en quelque chose.
Bon, je vais étonner tout le monde avec une définition de probabilité (presque ?) jamais vue, mais que je pense néanmoins intéressante. Contrairement à la vision fréquentiste, je ne vais pas définir la probabilité comme la fréquence limite d'un événement lorsque l'on répète une expérience aléatoire de manière identique et indépendante un grand nombre de fois « qui tend vers l'infini » (notion que je rejette dans le cadre de notre monde fini). Mais je vais quand même me baser sur la fréquence.
*Soit Ω l'univers de tous les mondes physiquement possibles (c'est-à-dire qu'ils ne violent pas les lois de la physique), la probabilité est une application qui associe à toute partie A de Ω, appelée événement, la fréquence de A dans Ω, c'est-à-dire le nombre card(A) / card(Ω).*
Oui, cela suppose équiprobabilité de tous les mondes physiques possibles. En outre, il faut connaitre les lois de la physique, qui se déterminent… via des méthodes probabilistes (qu'elles soient bayésiennes ou fréquentistes). Mais ce dernier problème de circularité se retrouve aussi sous une forme ou une autre dans les autres interprétations des probabilités.
Cette notion est très théorique, mais elle me parait déjà beaucoup plus exacte et utile que la probabilité fréquentiste, car elle permet notamment de considérer des événements qui n'ont jamais eu lieu dans le passé, mais qui sont physiquement possibles et donc dont on peut compter les mondes possibles pour en obtenir une probabilité. De plus, on va généralement rechercher une probabilité conditionnelle sachant notre monde actuel - c'est-à-dire que l'on ne va considérer que les mondes physiquement possibles _à partir de notre monde physique actuel_ - ce qui réduit considérablement le nombre de possibilités et donc la difficulté du comptage.
En estimant la proportion de mondes possibles qui correspondent au nôtre (en fonction des connaissances que l'on en a) et la proportion des différents mondes qui pourraient en découler, on pourrait aboutir en pratique à une utilisation bayésienne de cette définition si on veut faire des calculs.
Une probabilité est la proportion de tirages, sur une quantité infinie de tirages, dans lesquels un événement se produit dans un univers des possibles donné.
Quelque chose me déranger... comment le fréquentiste peut se résoudre à rejeter une hypothèse alors qu'il ne peut jamais être sûr avec une probabilité de 1 qu'il a juste ?
Est-ce que la p-value sert à quantifier la fiabilité des résultat et donc nuancer ce rejet ?
Tu gères :o
Pour la définition early d'une proba :
Si on répétait une situation avec uniquement les données qu'on a, on s'attendrait avoir ce nombre de réussite/echec. En fait plus une probabilité est proche de 1/2, moins on a de données mesurables. une probabilité c'est la mesure de notre ignorance. (bon live avec Mr Phi)
4/20 😅
Sujet : notre savoir, nos a priori, est/sont toujours le fruit d'expériences fréquentistes.
Je ne me place pas comme pro-fréquentiste. Il est cependant incorrect que dire que l'on ne peut pas calculer la probabilité de Y="une guerre nucléaire dans 5 ans" car on ne peut pas répéter un événement inédit du futur. En effet Y peut s'exprimer comme fonction d'autres variables aléatoires et si l'on décompose le problème assez finement il est possible d'exprimer Y=f(X1,...,XN) où les Xi sont des événements répétables (du passé). En décomposant à l'essentiel je suppose que l'on peut même revenir assez vite au fondement de la physique (quantique). Dans l'exemple en question cela dépendra de la possession ou non d'une bombe, d'un sujet de conflit, d'une réaction humaine face à un conflit. On peut ensuite re-décomposer ces événements, par exemple les réactions humaine sont le sujet de la sociologie, psychologie... sciences où l'on peut répéter... et ainsi de suite l'on peut de file en aiguille arriver à des événements répétables et finalement "simuler" la fréquence de Y.
Autrement dit notre savoir, nos a priori, est/sont toujours le fruit d'expériences fréquentistes. (NB dire je ne sais pas, c'est à dire postuler une loi a priori non-informative revient à mettre le "poids" uniquement sur des expériences (passé ou futur ou à venir) et ceci ne pourrait être considéré comme une approche Bayesienne qui ne peut être vraiment définit que lorsque l'on peut introduire des a priori informatifs).
Enfin je dirai que le Bayésianisme est une approche permettant d'aboutir à des "approximations" lorsque l'on est incapable de revenir de manière raisonnable à une décomposition en événements fréquentistes car trop complexe, ce qui est relativement souvent le cas.
Une probabilité est un coefficient, variant entre 0 et 1, permettant de caractériser (au mieux) l'issue d'une expérience aléatoire. Elle ne permet pas de donner l'issue de l'exp. aléatoire, puisque c'est impossible par définition, mais permet de distinguer si certaines issues se produisent plus souvent que d'autres, lorsqu'on répète l'expérience de nombreuses fois.
Ya une définition rigoureuse pour ça non ?
Apparemment la question serait de trouver une définition "intuitive" qui ne fasse pas intervenir de sigma algèbre, mais des concepts plus "usuels"
Une probabilité c'est une grandeur que l'on attribue à une affirmation pouvant être vraie ou fausse. Elle est alors égale au nombre de cas de l'ensemble des possibles (c'est à dire l'ensemble des possibilité de notre réalité sachant la réalité que nous connaissons) où cette affirmation est vraie divisé par le nombre de cas de l'ensemble des possibles.
qu'est-ce qu'une probabilité? je dirais que la probabilité d'une issue d'un événement est le nombre de fois ou cette issue est observée en moyenne quand l'événement survient
J'étudie depuis quelques mois les stats fréquentistes, la théorie des sondages et l'analyse de signal basée sur ça, et ça me semble être une bonne vulgarisation de ce que c'est, oui ... après je suis certainement pas allé assez loin pour voir si c'est caricatural
L'expérimentaliste en moi dirait : un probabilité est un nombre associé à un événement qui correspond à la notion suivante : si on répète une expérience un grand nombre de fois, alors la fraction de "l’événement a été observé" sur le nombre d'expérience tend vers la probabilité
Pour moi, c'est la fraction qui définit le rapport entre le nombre de fois où notre affirmation est vraie, et les essais totaux, si on pouvait faire un nombre d'essais tendant vers l'infini.
Réponse intuitive. Je dirais que c'est à quel point on doit faire confiance à qqch dans le cas d'un éventuel pari... Mais cela nécessite 'e fait de pouvoir savoir ensuite affiner cette probabilité...
Un prof m'avait très justement fait remarquer que ce n'est pas juste d'utiliser l'appellation "théorème central limite" puisque ce n'est pas le théorème qui est central mais bien la limite. Selon moi, il faudrait mieux l'appeler "théorème limite centrale" mais l'article wikipedia du théorème a l'air de dire que c'est une appellation "impropre". Un avis sur la question ?
Une probabilité est un moyen de quantifier le hasard et/ou l'inconnu, en divisant l'ensemble des possibles en parts pondérées en fonction des données à disposition.
Voilà pour ma Def
Salut. Tu pourrais donner un exemple ?
Je suis à 0:19
Qu'est ce qu'une probabilité:
Un nombre entre 0 et 1 qui permet d'orienter tes choix avec une logique cartésienne.
Je peux mettre le taux d'emprunt de ma banque dans le lot avec cette définition. Ou n'importe quelle vitesse en fraction de la vitesse de la lumière.
@@Tyboth35 j'ai jamais dit qu'un nombre entre 0 et 1 est forcément une probabilité
Le taux d'emprunt de ma banque est un chiffre entre 0 et 1 et il permet d'orienter mes choix (est-ce que je fais un emprunt ou non, combien j'emprunte etc...) et avec une logique cartésienne (faut que j'évite d'emprunter plus que je ne peux rembourser). Pareil pour une vitesse qui m'oriente sur ma décision d'accélérer ou non. Et à l'inverse je peux aussi trouver probabilités qui ne vérifient pas ta définition. La position des électrons est définie par une distribution de probabilité et pourtant je pense pas que beaucoup de personnes utilisent cette probabilité pour orienter des choix avec une logique cartésienne.
( Évitez d'utiliser le terme "cartésien", c'est tellement galvaudé et utilisé à toutes les sauces qu'il vaut mieux un autre mot. ^^)
0:20 ^^
une probabilité est une estimation chiffrée de la vraisemblance d'une prédiction pour un événement
prédiction faites sur la base de connaissances que l'on utilise comme prémisses et d'une question qui sert à déterminer ce que l'on veut prédire
Plutôt que de voir la probabilité comme la fréquence limite d'un processus infini, ne peut-on pas définir la probabilité d'un évènement comme le rapport entre le nombre de théories qui vérifient l'évènement et le nombre total de théories ? J'ai l'impression que c'est calculatoirement équivalent à la définition fréquentiste, tout en étant plus adaptés aux cas où la répétition du processus n'a pas de sens.
0:28
Pas sûr que ma réponse intuitive soit si intuitive que ça, mais je tente quand même :
Je dirais que la probabilité d'un évènement est une grandeur extensive (un peu comme en physique), dans le sens où, si on considère deux évènements *disjoints* A et B, la probabilité de leur union vaut la somme des probabilités : P(A u B) = P(A) + P(B)
Je dirais ensuite que la fréquence d'observation d'évènements est la manifestation de cette propriété intrinsèque qu'est leur probabilité, c'est en quelque sorte une propriété émergente.
Mais bon, peut-être que dans 23 minutes j'aurai envie de baffer le moi du passé pour ne pas avoir su l'étendue de son ignorance mais préféré la montrer à tout le monde =P
une probabilité : branche ou ensemble du spectre de la mesure de l'éventualité d'une prédiction qui tient du doute.
Je dirais que c'est ca intuitivement.
Une probabilité est une fonction qui permet d'estimer le ratio de résultats d'une expérience si elle était effectuée un très grand nombre de fois
une probabilité est une évaluation de la situation future sur base des éléments que nous connaissons et qui peuvent nous permettre de faire une prédiction
voilà j'ai joué le jeu
gnagna mr je sais tout !
La probabilités et le taux de chance de succès d’un fais prévu/prédit
Donc le taux de chance d une prédiction
Une probabilité, c'est :
- (intuitivement) une estimation de la chance qu'un évènement se produise ;
- (après quelques secondes de réflexion) la limite du rapport entre un nombre d'expériences dites réussies sur le nombre d'expériences effectuées, lorsque ce dernier tend vers l'infini.
Une probabilité est ce qui permet de nous éclairer là où les modèles, les lois manquent, là où nos connaissances sont freinées par l'épreuve du réel. C'est un calcul qui permet de modéliser un classement dans nos croyances, du plus possible au moins possible. D'avoir une idée qu'on pourrait presque qualifier de "prudente" vis-à-vis des résultats d'un événement.
Au secours, ça devient vite hardcore.
Je tente ma chance : le rapport entre la fréquence de survenue d’un événement et la somme des fréquences de tous les autres événements que peut produire une même cause...
Une probabilité chiffre les différents taux de résultats (ou ensemble des résultats) qu'aurait une expérience si elle était réalisée une infinité de fois.
Je dirais que c'est une mesure d'un univers Oméga qui a tout sous-ensemble de l'univers associe un nombre entre 0 et 1, où la mesure de l'univers est 1 et la mesure de l'ensemble vide 0..?
Si l'on transforme l'énigme des 2 enfants en l'énigme des trois enfants (ce serait par exemple que la personne annonce avoir 2 filles et que l'on cherche à estimer la probabilité que le 3e enfant soit un garçon), est-ce que les deux résultats seraient réellement différents et si oui comment/pourquoi ?
Dans la précédente énigme, (la personne a deux enfants dont au moins une fille, quelle est la probabilité que l’autre enfant soit aussi une fille ?) si avec ton calcul tu trouvais 1/3, alors le même calcul donne sauf erreur de ma part que si la personne a trois enfants dont au moins deux filles,la probabilité que l’autre enfant soit aussi une fille est de 1/4, et donc pour un garçon, 3/4.
Pour les détails du calcul, j’ai défini l’événement A : avoir 3 filles et l’événement B : avoir au moins 2 filles
P(A) = (1/2)ˆ3=1/8
P(B) = p(A) + 3*(1/2)ˆ2*(1/2)=1/2
P(B|A)=1
D’où en appliquant la formule de Bayes, p(A|B)=1/4
Ici la probabilité recherchée est p(non A|B)=1-p(A|B)=3/4
C'est un nombre entre 0 et 1 permettant d'évaluer la proportion d'apparition d'un évènement. C'est le cas par exemple quand on juge la probabilité qu'un dès soit sur 6. On regarde la proportion que le dès aille sur 6 par rapport au fait qu'il n'y aille pas.