Це відео не доступне.
Перепрошуємо.

¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!

Поділитися
Вставка
  • Опубліковано 25 жов 2023
  • Bienvenidos a este nuevo video en el que vamos a explorar el emocionante mundo de los "Word Embeddings" o incrustaciones de palabras. Pero no nos detendremos en la teoría; ¡Vamos a llevarlo a la práctica utilizando GloVe!
    Puntos Clave:
    Introducción a los "Word Embeddings" y su importancia en el Procesamiento del Lenguaje Natural (PLN) O Natural Language Processing.
    Implementación de funciones Python para resolver analogías, encontrar palabras similares y visualizar mapas de palabras.
    Tecnologías Utilizadas:
    GloVe (Global Vectors for Word Representation) como modelo de incrustación de palabras preentrenado.
    Python para la implementación de funciones de análisis y visualización.
    Lo Que Aprenderás:
    Cómo cargar y utilizar embeddings preentrenados con GloVe.
    Cómo implementar funciones Python para responder preguntas como "hombre es a mujer como rey es a...?".
    Cómo visualizar las relaciones semánticas entre palabras en un mapa.

КОМЕНТАРІ • 19

  • @PaoloReyes
    @PaoloReyes 8 годин тому

    Increible, me encontré embeddings aplicados en otras áreas como las ímagenes, lo que le llaman "Pixel Embeddings" y mi cerebro simplemente no puede entender ni siquera que deberían representar. Estaría genial que hablaras de esto en próximos videos :)

  • @andreamoreno4290
    @andreamoreno4290 9 місяців тому +1

    Gracias profe!! No desistas nunca de realizar estas explicaciones de manera tan sencilla y práctica y en español. Siempre muy agradecida.

  • @matiasasses9841
    @matiasasses9841 6 місяців тому +3

    Excelente como siempre Pepe! Ojalá continúes con esta serie de NLP hasta llegar a los grandes modelos de lenguaje!! Muchas gracias!! Abrazo

    • @PepeCantoralPhD
      @PepeCantoralPhD  4 місяці тому +1

      Hola @matiasasses9841 , muchas gracias por tu comentario! Mi intención es en la próximas semanas, precisamente llegar a cubrir e implementar en código al menos versiones miniatura de transformers. Un abrazo!

  • @leadnauta
    @leadnauta 3 місяці тому +2

    Gracias

  • @mauespinola
    @mauespinola 3 місяці тому

    muy claro, gracias
    hay pocas explicaciones tan sencillas de entender

  • @exulonk7517
    @exulonk7517 9 місяців тому

    Pepe. Quiero que siempre recomiendo tu canal. Sobre todo los chicos que entran en la carrera de Ingeniería Informática y que sienten interés por Deep Learning o Inteligencia Artificial en general. Muy buenos vídeos, me estas inspirando mucho a hacer algo parecido en un futuro.

  • @Neo_SF
    @Neo_SF 9 місяців тому

    Muy buen video. Entender qué es un embeddings fue algo que me costó algo de trabajo asimilar, pero tu explicación me parece muy clara. Sigue así profe.

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores 9 місяців тому +1

    Que impresionante! Muchas gracias Pepe.

    • @PepeCantoralPhD
      @PepeCantoralPhD  9 місяців тому

      Como siempre Leonardo, agradezco enormemente tu apoyo al canal desde su inicio! Muchos saludos!

  • @anonimomccn
    @anonimomccn 9 місяців тому

    Excelente el video pepe, muy buena la explicación.

  • @javier2luna
    @javier2luna 4 місяці тому

    representar 200 dimensiones en SOLO dos dimensiones parece muy realista

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores Місяць тому

    Hola Pepe una consulta en la función los más similares estoy utilizando para la distancia del coseno un valor mayor 0.5 cuál sería el valor apropiado?

  • @DragonBZeta
    @DragonBZeta 9 місяців тому +2

    Genial!

  • @israelaaronpino6843
    @israelaaronpino6843 4 місяці тому

    Una pregunta la unidad de medida que representa la cercanía de una palabra hacia otra está dado por el universo de los datos o por otra cosa?, que hace que una palabra esté más cerca de la otra? en el fondo como se construye esta unidad de medida de la distancia?

  • @ChristianESL
    @ChristianESL 9 місяців тому

    arriba MNA!!

  • @lagrangianomodeloestandar2724
    @lagrangianomodeloestandar2724 9 місяців тому +2

    Hicieron el paper Meta Learning for Compositionally,MLC en Nature,básicamente dicen que han encontrado una forma de modificar un Seq2Seq y crear un modelo que supera incluso a los humanos(25 que hicieron el experimento) en generalizar predicciones....Si puede explicarlo mejor aquí....😂