Comprendre l'Entropie : Tout ce que vous devez savoir

Поділитися
Вставка
  • Опубліковано 9 січ 2025

КОМЕНТАРІ •

  • @df6778
    @df6778 6 місяців тому +1

    Beaucoup de pédagogie, de concision et de clarté dans vos explication. Bravo ! On peut aussi voir l'entropie comme la quantité d'information qui manque pour décrire complètement un système. S'il me manque beaucoup d'information, l'acquisition de l'information correspond à un niveau de surprise élevé, donc à une entropie élevée.

    • @nayelprepa
      @nayelprepa  6 місяців тому

      Merci pour votre retour positif! C’est très agréable. En effet, l’entropie peut s’interpréter de plusieurs façon en théorie de l’information, dont celle que vous mentionnez. Merci pour votre complément!

  • @habibkettana4887
    @habibkettana4887 Рік тому +1

    Bravo Nayel, une très bonne présentation. Merci, ne lâche pas.

  • @zephythor8562
    @zephythor8562 2 місяці тому

    Très chouette explication, claire et détaillée. Par contre, mon TDAH a eu beaucoup de mal à s'adapter aux images parasites et aux changements de plans pendant les explications, surtout dans les 5 premières minutes.

  • @rosadjb3194
    @rosadjb3194 Рік тому

    Tu expliques très clairement,merci.

  • @aymericdoucet6289
    @aymericdoucet6289 5 місяців тому +2

    "Expliquer très simplement" 😅ça reste abstrait pour les non-matheux. Mais il y a un problème, la vidéo disait que vous alliez expliquer ce qu'est l'entropie : vous ne l'avez pas expliqué, par contre vous avez expliqué comment la calculer, ce qui est autre chose. Merci tout de même ;)

    • @zephythor8562
      @zephythor8562 2 місяці тому

      A mon humble avis, il l'a expliqué assez clairement et s'est servi des math pour illustrer son propos. Lorsqu'un système a une enthropie forte, c'est qu'il est instable et donc peu prévisible.

  • @medaminemasmoudi9033
    @medaminemasmoudi9033 7 місяців тому +1

    bravo déjà. Mais toute la coïncidence entre l'intuition que l'entropie quantifie le désordre et les résultats du calcul est basée sur le choix de la fonction logarithme. Par exemple dans le cas ou on a une proba nulle pour face, ce que vous avez appelé convention pour dire que p(F)*log(1/p(F))=0 peut être interprété comme une limite (xln(x) tend vers 0 en 0) et ça repose dans ce cas sur le choix particulier de la fonction logarithme. Donc ma question est la suivante: d'ou vient cette idée du logarithme?

    • @nayelprepa
      @nayelprepa  7 місяців тому

      C’est une bonne question. Intuitivement on aimerait que l’entropie représente la quantité d’information fournie par la variable aléatoire. Une approche pour quantifier cette idée c’est d’imaginer le nombre de « questions binaires» qu’il faut poser à la source (la variable aléatoire) pour connaître l’information qu’elle délivre. On fait donc apparaître un log en base 2 par cette intuition.
      Imagine que ta variable aléatoire ait un support de n valeurs distinctes. Combien de questions binaires faut il poser pour connaître sa prochaine valeur ? Par dichotomie on remarque que la réponse est log_2(n).

  • @younesselfatehy8654
    @younesselfatehy8654 Рік тому

    Merci

  • @noob21337
    @noob21337 Рік тому +1

    Oh ! je comprends un peu plus un vieux poly de physique ( S = kb log(Gamma) pour les connaisseurs ) , merci.

    • @nayelprepa
      @nayelprepa  Рік тому +2

      Avec plaisir Haris ! Il faut toujours essayer de comprendre l'intuition derrière les concepts mathématiques, ça permet de gagner en autonomie face aux exos. Et puis c'est joli de bien comprendre.

  • @jeffparis2419
    @jeffparis2419 Рік тому

    Dans la présentation au départ , la notion utilisée est la surprise de survenue d une variable aléatoire mais curieusement, si l on considère un ensemble de points aléatoire dans un plan , la surprise est d en trouver 3 alignés , c est à dire trouver une régularité, or dans l exposé on part déjà d une régularité : 10% en l occurrence , c est tout le problème de l approche théorique vs l approche empirique et dans quel ordre pour aborder l entropie
    NB: dans mon exemple la détection de d une régularité revient à un lance de pièce , un événement donc …

    • @nayelprepa
      @nayelprepa  Рік тому

      L’entropie est une notion assez complexe avec une définition mathématique précise mais qui est utilisée en physique pour décrire des concepts comme l’agitation moléculaire pas tout le temps rattaché à des concepts probabilistes. D’où cette « ambiguïté » dans la définition théorique vs empirique.

    • @jeffparis2419
      @jeffparis2419 Рік тому

      @@nayelprepa Merci pour la réponse, il y donc un pré requis important à discuter car c est la correspondance entre empirisme (ou géométrie) et concept (ou équation) qui devrait toujours valider une théorie

  • @rouibahamor2113
    @rouibahamor2113 Рік тому +2

    je n'ai rien compri

  • @michelforest6435
    @michelforest6435 Рік тому

    Ça me fait vraiment marrer ces coupeurs de cheveux en quatre ! Ils galèrent et pataugent dans des formules à n'en plus finir pour leurrer un public acquis de gogos idolâtres de la "science". Quelle clownerie !
    Par ce fait, ils compensent leur manque d'intuition et vont même jusqu'à l'éteindre totalement pour se forger une forme de maîtrise bidon. Ils remplissent des tableaux noirs qu'ils affichent en fond et font sourire la Nature. Les animaux pensent bien mieux et bien plus vite.

    • @nayelprepa
      @nayelprepa  Рік тому +4

      Merci Michel pour votre commentaire éclairant !

  • @cmoiabdou4851
    @cmoiabdou4851 5 місяців тому

    C'est nul, que du blabla au tour de 2 mots

    • @nayelprepa
      @nayelprepa  5 місяців тому +1

      Merci pour ton commentaire. Si tu peux faire une meilleure vidéo, je serai le premier à en apprécier le contenu. Merci pour ta bienveillance.

  • @HafsHafs-d1v
    @HafsHafs-d1v Рік тому

    on dirait que vous parlez chinois