Це відео не доступне.
Перепрошуємо.

Sequence to Sequence (Seq2Seq): ¡Traductor Inglés a Español! (Parte 1)

Поділитися
Вставка
  • Опубліковано 25 лют 2024
  • En este video, nos sumergiremos en los fundamentos teóricos detrás del modelo Sequence to Sequence (Secuencia a Secuencia), una arquitectura revolucionaria en el campo del Procesamiento del Lenguaje Natural (PLN).
    En este video cubriremos:
    - Los principios básicos de los modelos Seq2Seq y cómo funcionan.
    - La estructura y componentes de los modelos Seq2Seq, incluyendo los codificadores y decodificadores RNN.
    - Aplicaciones típicas de los modelos Seq2Seq en tareas como traducción automática, resumen automático de textos y más.
    - Un vistazo preliminar a la importancia de la Atención en modelos Seq2Seq, preparando el terreno para nuestro próximo video.
    Este tutorial está diseñado para facilitar una comprensión clara y profunda de los modelos Seq2Seq, como preparación para aplicaciones más avanzadas y su implementación práctica.
    Referencia al paper original:
    Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to Sequence Learning with Neural Networks. In Advances in Neural Information Processing Systems 27 (pp. 3104-3112).

КОМЕНТАРІ • 10

  • @alan_twt2786
    @alan_twt2786 4 місяці тому +2

    estos videos son muy buenos, explicados paso a paso todo, no me imagino el trabajo que tienen por detrás.
    Espero siga creciendo el canal!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  4 місяці тому

      Muchas gracias por tu comentario y apoyo al canal! Ahí vamos, mi intención es seguir publicando contenido. Espero poder terminar y publicar el video de transformers e implementaciones en código, en las próximas semanas. Muchos saludos!

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores 5 місяців тому +1

    Muchas gracias Pepe, Que tema más interesante!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  4 місяці тому

      Muchas gracias como siempre por todo el apoyo Leonardo, Saludos!

  • @reinerromero7265
    @reinerromero7265 5 місяців тому +1

    Muchas gracias.😀

  • @elgazeta
    @elgazeta 5 місяців тому +1

    Excelente Pepe

  • @LeonardoEnriqueMorenoFlores
    @LeonardoEnriqueMorenoFlores 5 місяців тому +1

    Tengo una curiosidad enorme por ver la construcción de la RNN y las celdas LSTM!!

    • @PepeCantoralPhD
      @PepeCantoralPhD  4 місяці тому

      Sí sí, yo espero ya tenerlos listos durante abril! Muchos saludos!