¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!

Поділитися
Вставка
  • Опубліковано 11 січ 2025

КОМЕНТАРІ • 22

  • @joseaquileosancheza.5254
    @joseaquileosancheza.5254 9 днів тому

    Excelente la forma de explicar el concepto. Gracias por compartir el conocimiento.

  • @Arddash
    @Arddash 2 місяці тому

    Profe, es que no hace falta pedir que nos suscribamos a su canal cuando la calidad de los videos es tan buena como los suyos. Excelente edición, dicción, gráficos, pizarrón digital, etc. Mil gracias de verdad por tanta dedicación y cuidados en el material. Estoy muy contento con su materia!

  • @andreamoreno4290
    @andreamoreno4290 Рік тому +1

    Gracias profe!! No desistas nunca de realizar estas explicaciones de manera tan sencilla y práctica y en español. Siempre muy agradecida.

  • @matiasasses9841
    @matiasasses9841 11 місяців тому +3

    Excelente como siempre Pepe! Ojalá continúes con esta serie de NLP hasta llegar a los grandes modelos de lenguaje!! Muchas gracias!! Abrazo

    • @PepeCantoralPhD
      @PepeCantoralPhD  9 місяців тому +1

      Hola @matiasasses9841 , muchas gracias por tu comentario! Mi intención es en la próximas semanas, precisamente llegar a cubrir e implementar en código al menos versiones miniatura de transformers. Un abrazo!

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Рік тому +1

    Que impresionante! Muchas gracias Pepe.

    • @PepeCantoralPhD
      @PepeCantoralPhD  Рік тому

      Como siempre Leonardo, agradezco enormemente tu apoyo al canal desde su inicio! Muchos saludos!

  • @Neo_SF
    @Neo_SF Рік тому

    Muy buen video. Entender qué es un embeddings fue algo que me costó algo de trabajo asimilar, pero tu explicación me parece muy clara. Sigue así profe.

  • @mauespinola
    @mauespinola 8 місяців тому

    muy claro, gracias
    hay pocas explicaciones tan sencillas de entender

  • @oskarguarneros4067
    @oskarguarneros4067 3 місяці тому

    Super bien explicado Master!!! 🫡

  • @anonimomccn
    @anonimomccn Рік тому

    Excelente el video pepe, muy buena la explicación.

  • @DragonBZeta
    @DragonBZeta Рік тому +2

    Genial!

  • @leadnauta
    @leadnauta 8 місяців тому +2

    Gracias

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores 6 місяців тому

    Hola Pepe una consulta en la función los más similares estoy utilizando para la distancia del coseno un valor mayor 0.5 cuál sería el valor apropiado?

  • @israelaaronpino6843
    @israelaaronpino6843 9 місяців тому

    Una pregunta la unidad de medida que representa la cercanía de una palabra hacia otra está dado por el universo de los datos o por otra cosa?, que hace que una palabra esté más cerca de la otra? en el fondo como se construye esta unidad de medida de la distancia?

  • @javier2luna
    @javier2luna 9 місяців тому

    representar 200 dimensiones en SOLO dos dimensiones parece muy realista

  • @ChristianESL
    @ChristianESL Рік тому

    arriba MNA!!

  • @respanol1970
    @respanol1970 2 місяці тому

    Buen video, pero es importante puntualizar que la mayoría de los algoritmos de word embeddings son probabilísticos y, por lo tanto, inherentemente incapaces de producir los mismos resultados en experimentos repetidos, a menos que sus procesos aleatorios se hagan deterministas, lo cual, sin embargo, puede distorsionar los resultados experimentales .

  • @lagrangianomodeloestandar2724
    @lagrangianomodeloestandar2724 Рік тому +2

    Hicieron el paper Meta Learning for Compositionally,MLC en Nature,básicamente dicen que han encontrado una forma de modificar un Seq2Seq y crear un modelo que supera incluso a los humanos(25 que hicieron el experimento) en generalizar predicciones....Si puede explicarlo mejor aquí....😂