Entropía y Teoría de la Información

Поділитися
Вставка
  • Опубліковано 21 гру 2012
  • Charla a cargo del investigador Javier García del Gilab Lab de la UdG, sobre el papel de la entropía en la teoría de la información. Es una introducción divulgativa y con ejemplos.

КОМЕНТАРІ • 76

  • @alejandroxalabarder7940
    @alejandroxalabarder7940 6 років тому +12

    Genial! soy ingeniero de telecomunicaciones e informático y aunque algunas cosas las sabía todavía he aprendido algo en esta magnífica lección!

    • @charliedeshawn7290
      @charliedeshawn7290 3 роки тому

      Dont know if you guys cares but if you are stoned like me during the covid times then you can stream pretty much all of the new series on instaflixxer. I've been watching with my gf lately :)

    • @carterignacio913
      @carterignacio913 3 роки тому

      @Charlie Deshawn Definitely, been using instaflixxer for months myself :D

  • @RobertoEspinho
    @RobertoEspinho 9 років тому +2

    Muy muy bueno. Gracias Javier.

  • @carlitoxheavy15
    @carlitoxheavy15 7 років тому +1

    Wouh. Muchas gracias por el vídeo. Saludos desde Chile!

  • @daniaisabelahumadapardo227
    @daniaisabelahumadapardo227 11 років тому +1

    Excelente !! no se imagina cuanto me ayudo!! gracias

  • @666FK
    @666FK 8 років тому

    excelente vídeo, mejor no pudo estar, gracias!

  • @Mithrandirkun
    @Mithrandirkun 7 років тому

    Muy bueno, un aporte muy interesante.
    Al final entiendes el sentido real de lo que es la compresion, que es, que el numero o valor menos probable tenga un "peso" mayor de bits y los numeros más probables un "peso" menor, con lo cual se ahorra espacio de almacenamiento.

  • @manolopajaroborras2205
    @manolopajaroborras2205 10 років тому

    Que charla tan buena he profundizado mis conocimiento y esto me ha ayudado muy bueno lo que planteas soy docente de teoria general de sistemas y esto me a aportado mucho

  • @box1702
    @box1702 10 років тому +2

    Excelente , al tiempo de pausar el video he ido tomando apuntes , realmente muy interesante. Gracias. From Houston, TX. US

  • @valeropascualgallego3132
    @valeropascualgallego3132 10 років тому +1

    Me ha gustado, pues es una inmersión rápida en el tema que da forma a unas ideas básicas y creo que puede animar a la gente a buscar y aprender de forma autodidacta más sobre el asunto. Enhorabuena.

  • @xxkev1nx
    @xxkev1nx 10 років тому +1

    que crack para explicar la entropía!! gracias!

  • @FlavioNicolasRossi
    @FlavioNicolasRossi 9 років тому +1

    Gracias por la explicación!

  • @jimmyfernandohurtadotoral8521
    @jimmyfernandohurtadotoral8521 7 місяців тому

    Hola. Soy neurocirujano con maestría en medicina del dolor. Siento que en mi consulta he superado ampliamente el algoritmo de Huffman. Quisiera demostrarlo en un estudio con 10.000 pacientes a partir de enero del 2024. Si mi solicitud le interesa, podemos diseñar un proyecto para demostrarlo y predecir en comportamiento de mi consulta. Gracias.

  • @uncanaldemierda1
    @uncanaldemierda1 4 роки тому +1

    genial, me encantó!

  • @PipeCarrillf
    @PipeCarrillf 3 роки тому

    Saludos de Colombia

  • @belac0r92
    @belac0r92 11 років тому +1

    Realmente muy bueno. Podrías hacer una conferencia acerca de la física teórica? Creo que es algo apasionante para los profanos a la física.

  • @gad45678
    @gad45678 8 років тому

    Hola Javier, ¿En la descompresión como sabes cuantos bits tienes que leer para cada pixel si no existe un separador logico entre los pixeles?
    Gracias.

  • @LaureanoLuna
    @LaureanoLuna 11 років тому

    Maravillosa introducción.
    Infiero que la entropía de Shannon podría definirse como la información no revelada en una distribución de probabilidad. Eso explicaría que sea 0 cuando hay un resultado seguro y máxima cuando la distribución es uniforme,
    Uno se queda pensando cómo demostrar que el nº de preguntas s/n no puede ser menor que H.

  • @hfrqs
    @hfrqs 4 роки тому

    Excelente video drozz

  • @aguilarjulianandres
    @aguilarjulianandres 3 роки тому

    En el caso de jerarquía hay un error, el valor del número de preguntas medio es 2.58. No sé de dónde sale el 2.83, sin embargo, en el caso partícular ese caso tiene menos preguntas que el siguiente, peeero en un caso general no es así. Gracias.

  • @normavieyra265
    @normavieyra265 2 місяці тому

    Gracias.

  • @granderrotam1922
    @granderrotam1922 6 років тому

    ¡Cómo te lo curras! Me he enterado bastante bien (creo) y desconocía prácticamente todo.
    Me gusta la eléctrónica y también programar; lo mismo algún día lo aplico para algo... ¡Bueno!; lo ideal sería encontrar el número mínimo de preguntas para asegurarme haber entendido a mi mujer y/o tener un método para comprimir sus instrucciones.
    Muchas gracias. ;)

    • @Javier_Garcia
      @Javier_Garcia  6 років тому +2

      Ostras, si encuentras un método para comprender a las mujeres, compártelo por aquí y que a muchos nos iría bien :)

  • @robertobenito4438
    @robertobenito4438 5 років тому

    Un vídeo estupendo. Tengo una duda, probablemente asociada a mi falta de conocimientos: la búsqueda jerárquica del ejemplo, justo después de la búsqueda binaria ¿no daría un valor promedio de 2,58 en lugar del 2,83 que pones (que es mejor marca que la de Shannon-Fano, pero peor que la de Huffman)? En cualquier caso, el sentido general está muy claro, muchísimas gracias por compartirlo.

  • @wisnerss
    @wisnerss 11 років тому

    Felicitaciones te entendí muy bien la entropia. buen trabajo

  • @MrNomeetiquetes
    @MrNomeetiquetes 7 років тому

    Estaría bien que hicieras un vídeo del modelo de ising en 1D javier. saludos y muy buenos vídeos

  • @diegoazanza7355
    @diegoazanza7355 8 років тому

    Todo muy bien explicado gracias.
    Solo en la tabla del min. 54 la columna información está mal, usando I = -log(Pn) no sale eso.

  • @cristianerodriguezr7083
    @cristianerodriguezr7083 5 років тому

    Entiendo que la entropía es causar el mayor desorden (movimiento) posible al inicio para en el desenlace hallar orden, es decir ir de lo complejo a lo más simple... No se si pueda me explico bien sobre lo que creo que entendí o no entendí la idea principal? Gracias

  • @gastonviero2525
    @gastonviero2525 6 років тому

    Javier, te quería consultar sobre el concepto de entropia.
    Si todos los sistemas tienden al desorden, como se explica la formación de galaxias, sistemas planetarios y la formación de vida hasta llegar a el ser humano que es un sistema altamente ordenado?
    Muchas gracias por los vídeos.

  • @IAVIC
    @IAVIC Рік тому

    Javier es un crack

  • @jorgerivasriver8587
    @jorgerivasriver8587 4 роки тому

    Maestro, estoy fascinado por los videos de tus cursos, son excelentes y he visto algunos bocetos de tus conferencias, debido al formato uno se puede de la información de tus presentaciones, por lo que le pregunto ¿habría la posibilidad de obtener esas presentaciones en la descripción de tus videos? para seguir los videos con las presentaciones que se proyectan

  • @JavArro
    @JavArro 5 років тому

    Muy bien.

  • @patriciof.calatayud9861
    @patriciof.calatayud9861 3 роки тому

    Javier, muchas gracias por el video. Me queda una duda, ¿cuál es el significado de la diferencia entre Huffman y Entropía? ¿Es la cantidad de preguntas mayor que la cantidad de información?

  • @ceroaleph3092
    @ceroaleph3092 7 років тому

    ¡Hola! Profesor Javier Garcia.
    Tengo una pregunta, desde mi completa ignorancia.
    En el último ejemplo, el de la compresión de la imagen, el algoritmo propone:
    00 -> 1
    10 -> 00
    11 - > 010
    01 -> 011
    Pero ¿no será mejor comprimir de la siguiente manera?:
    00 -> 0
    10 -> 1
    11 -> 10
    01 -> 11
    Con lo que el código final quedaría mucho más corto.
    De antemano, muchas gracias por la respuesta.

  • @hackmeplus
    @hackmeplus 6 років тому

    Recomendacion de algun libro sobre el tema?

  • @Monterrey1167
    @Monterrey1167 4 роки тому +1

    Excelente Presentacion!!!! Estimado Profesor, podria compartir la presentacion via email. Estudio Licenciatura en Negocios Internacionales y es de gran utilidad su exposicion.

  • @MrNomeetiquetes
    @MrNomeetiquetes 7 років тому

    javier, tienes algún posdoct o doctorado en inteligencia artificial o algo por el estilo, veo que tienes vídeos referentes a este tema

  • @fisikmedik5003
    @fisikmedik5003 6 років тому

    Hola! He aprendido. ¿Será que podeis compartir la presentación?

  • @IssacHernandez-ql2tw
    @IssacHernandez-ql2tw Рік тому

    Me sorprendi -log_2(0.0000001), una sorpresa en bits!

  • @pablotapiales286
    @pablotapiales286 5 років тому +2

    44:08 Iluminati !!!!!, Iluminati !!!!!,

  • @madisanz
    @madisanz 6 років тому

    Buenísimo!!!! podes compartir el pdf de la charla, así se puede ver mas en detalle? gracias

    • @Javier_Garcia
      @Javier_Garcia  6 років тому

      Gracias Margarita. Han pasado unos años y no sé dónde tengo el pdf, sorry.

  • @eltuquu
    @eltuquu 11 років тому

    muy bueno este tutorial sobre lateoria de la informacion, seria posible obtener esas diapositivas, soy estudiante y me gustaria exponer este tema tan interesante en mi salon de clases

  • @dioniciocardus9223
    @dioniciocardus9223 7 років тому

    en base 8 solo se puede escribir hasta el 7 sin agregar otra letra letra

  • @pablotapiales286
    @pablotapiales286 5 років тому

    O sea que la información de encontrar una receta de croquetas aquí seria infinita?

  • @another12another
    @another12another 4 роки тому

    Buenas, alguien amablemente puede pasar el PDF?

  • @JCMartzN
    @JCMartzN 11 років тому

    Escucho y olvido, veo y recuerdo, hago y aprendo

  • @enriquearcias9220
    @enriquearcias9220 5 років тому

    Por que 0 por infinito es 0? lo hacen por intuición?

  • @juancarlosdiazsalgado9644
    @juancarlosdiazsalgado9644 11 місяців тому

    La información que uno capta, es de probabilidad cero, porque uno no alcanza a ver el tablero donde escribe y explica.

  • @enriquearcias9220
    @enriquearcias9220 5 років тому

    Excelente, pero mucho se inventa los casos y eso hace que diverjan las ideas

  • @PipeCarrillf
    @PipeCarrillf 3 роки тому

    El covid estaba pegando duro en ese entonces tambn

  • @juanabad5889
    @juanabad5889 6 років тому

    la información tiene su equivalente en energía ! ??????????

  • @gatritioponsoutoni1742
    @gatritioponsoutoni1742 Рік тому

    No se ve nada lo que escribe en la pizarra

  • @pablotapiales286
    @pablotapiales286 5 років тому

    No entendí una pepa, pero bueno tampoco soy del tema, entre buscando recetas de croquetas y salio esto, igual esta bueno ya encontré un libro para saber algo de este tema

  • @lionelmartinez6810
    @lionelmartinez6810 Рік тому

    Creo que has confundido la entropía con la capacidad de un canal que es la información mutua máximizada por el tipo de variable aleatoria de la entrada que a su vez es la entropía de la entrada menos la entropía de la entrada condicionada por la salida. Cuando te preguntan cómo es que el código de Huffman da un número mayor que la entropía (en realidad sería la capacidad del canal) es porque la información mutua hay que calcularla para la variable aleatoria de entrada que lo maximiza no con la del problema en cuestión. Huffman te da la máxima para un tipo de variable aleatoria dada por eso la capacidad del canal es una cota inferior.

    • @lionelmartinez6810
      @lionelmartinez6810 Рік тому

      es decir, que la capacidad del canal te da el mínimo número de preguntas pudiendo elegir el tipo de la variable aleatoria de entrada (por eso es del canal) mientras que Huffman te da el mínimo número de preguntas para un tipo de variable aleatoria en concreto que puede no ser la óptima.

  • @PipeCarrillf
    @PipeCarrillf 3 роки тому

    Vaya titulo de video!!!

  • @fansdee-mastersensei1155
    @fansdee-mastersensei1155 4 роки тому

    13043

  • @Mary-cy5pp
    @Mary-cy5pp 2 роки тому

    . MARI

  • @nicolaslucero9621
    @nicolaslucero9621 8 років тому

    las camara estan puestas en una pesima ubicacion y falta mas luz para que pueda verse claramente lo que se explica. NO ME GUSTO

  • @htvelazquez
    @htvelazquez 8 років тому +1

    el "simbolo" es omega, letra del alfabeto griego!!

    • @Javier_Garcia
      @Javier_Garcia  8 років тому +1

      +Hernán Velázquez Gracias! Es que ya me hago viejo y no me acuerdo de las cosas :)

    • @htvelazquez
      @htvelazquez 8 років тому

      +Javier Garcia todavía no lo he terminado pero me ha esclarecido bastante un tema que no llegaba a entender del todo bien! Gracias :D

    • @Javier_Garcia
      @Javier_Garcia  8 років тому

      +Hernán Velázquez Me alegro mucho!

  • @LaureanoLuna
    @LaureanoLuna 10 років тому

    Javier, cuando dices que es más probable que el que está en un bar viendo fútbol sea hombre, te apresuras a decir que no quieres ser machista (lo que soobra xq estás hablando de estadística). Pero en 0:18:16 atribuyes un comportamiento violento a todos los hombres y solo a ellos, y no te das cuenta de que eso es sexista; toca en un bar a una mujer y es muy posible que te pegue una torta. Pero si te la pega la mujer está socialmente bien visto. Reproduces ese sexismo contra el varón.

    • @Erebo1981
      @Erebo1981 10 років тому

      Deja de buscarle tres pies al gato y haz criticas constructivas.

    • @LaureanoLuna
      @LaureanoLuna 10 років тому

      0Erebo0 Es una necesidad social denunciar la discriminación que sufre el varón y luchar contra ella. Y lo primero es concienciarse de que existe. A las primeras feministas les negaban que la mujer estuviera discriminada. Tú me recuerdas a esos que lo negaban...

    • @Erebo1981
      @Erebo1981 10 років тому

      Laureano Luna Tu me recuerdas a una persona muy amargada que no sabe distinguir entre una gracia y un comportamiento sexista.

    • @LaureanoLuna
      @LaureanoLuna 10 років тому

      0Erebo0 Pues me avergüenza un poco recordarte a ti mismo, la verdad.

  • @lobo
    @lobo 11 років тому

    El señor este? que falta de respeto

  • @AlvaroMarinH.
    @AlvaroMarinH. Рік тому

    Qué man tan desordenado!