Le codage de Huffman | Olivier Levêque

Поділитися
Вставка
  • Опубліковано 9 вер 2016
  • Le codage de Huffman permet de compresser des données, à l'instar du codage de Shannon-Fano, en exploitant la redondance des données.
    Intervenant : Olivier Levêque, professeur à l'EPFL
    ipg.epfl.ch/~leveque/
    Édition : El Mahdi El Mhamdi et Lê Nguyên Hoang.
    Le codage de Shannon-Fano | Olivier Levêque
    • Le codage de Shannon-F...
    L'entropie en théorie de l'information
    • L'entropie en théorie...

КОМЕНТАРІ • 25

  • @Ciryion
    @Ciryion 4 роки тому +10

    Mec tu nous sauve la vie pour le graphe merci ! Très très bonne vidéo

  • @chiminim424
    @chiminim424 5 місяців тому +1

    Vous êtes juste le meilleurs vous expliquez tellement bien et en passant bonne année et merci de la vidéo.

  • @spider279
    @spider279 2 роки тому

    Excellent , meilleure methode du net pour le codage de Huffman vraiment mercie et BRAVOO, je suis très satisfait

  • @kidpc9954
    @kidpc9954 6 років тому +1

    merci beaucoup pour l'explication!!!

  • @univkmo2460
    @univkmo2460 4 роки тому

    merci pour votre explication

  • @lemessager1676
    @lemessager1676 4 роки тому

    Merci beaucoup !

  • @mhamed1197
    @mhamed1197 3 роки тому +3

    Si on ne peut pas faire mieux que le code de Huffman, pourquoi la longueur du code de Huffman de la phrase utilisé dans la vidéo de l'entropie (DONU DINA DIT-ON DU DOS...) est plus grande que son code de Shannon-Fano (90/32 > 84/32) ?

  • @chaimaeel4448
    @chaimaeel4448 6 років тому +2

    Merci

  • @oussamadarsi7517
    @oussamadarsi7517 7 років тому +4

    est ce qu'il existe un seul modèle de ce codage qu'on doit ts l'avoir? ou bien chacun peut avoir son propre code ??

    • @crazygeekman4068
      @crazygeekman4068 7 років тому +2

      fr.wikipedia.org/wiki/Codage_de_Huffman#Code_canonique
      " Pour les mêmes symboles d'entrée, plusieurs codes de Huffman différents peuvent être obtenus."

  • @nonameagain6085
    @nonameagain6085 3 роки тому +7

    Vous avez fait une erreur ? Si vous suivez bien l'algo de Huffman, vous auriez du changer le 12 et le 8, ce qui donnerait R = 0, ... et cela est simplement logique car si on suit votre exemple, après avoir transformé votre phrase en bits, plusieurs décodages sont possibles ...

    • @tristianjaden1389
      @tristianjaden1389 3 роки тому

      i realize it is pretty off topic but does anyone know a good site to stream newly released series online?

    • @marceaulena-schroll1240
      @marceaulena-schroll1240 5 місяців тому

      @@tristianjaden1389soap2day

  • @christianacacia5127
    @christianacacia5127 3 роки тому +1

    Et les espaces...ne doivent-ils pas être encodés?

  • @alycamara5118
    @alycamara5118 4 роки тому

    super

  • @camillefray9548
    @camillefray9548 5 років тому +1

    Bonjour, quand est ce que Huffman et Shannon Fano ont une performance égale ?

    • @tsualaflorian3181
      @tsualaflorian3181 4 роки тому

      Quand l'entropie du message à compresser vaut 0 ie H(x) = 0.

  • @medilies
    @medilies 4 роки тому

    J'ai adoré l'exemple lol

  • @diablobeats4771
    @diablobeats4771 2 роки тому

    my goat ( better than my teacher no cap )

  • @herminemadenefokou8560
    @herminemadenefokou8560 Рік тому

    Et le codage DTC ce fait comment ?
    ce fait comment

  • @zoutb7947
    @zoutb7947 2 роки тому +1

    Pourquoi vous avez fait 4×3×3 ???

    • @TheItalo1000
      @TheItalo1000 Рік тому +2

      4 (la quantité de lettres avec le même numéro d'apparition dans la phrase) x
      3 (le numéro de fois que ces lettres apparaîtront) x 3 (le numéro de bits nécessaires pour leur représenter)
      J'espère que vous comprendrez =)

  • @athystechnology5899
    @athystechnology5899 Рік тому

    Ta méthode pour Shannon-Fanon n'est pas correcte ?

  • @bloso6702
    @bloso6702 Рік тому

    jojo réf ?

  • @JoyberTech
    @JoyberTech 3 місяці тому

    il y a codage arithmétique qu'est plus performant.