Це відео не доступне.
Перепрошуємо.

¿Por qué estas REDES NEURONALES son tan POTENTES? 🤔 | TRANSFORMERS Parte 2

Поділитися
Вставка
  • Опубліковано 13 лис 2021
  • ¿Qué hay tras el entrenamiento de IAs como GPT-3, Alphafold 2 o DALL-E? ¿Qué hace especial a sus redes neuronales? Los Transformers son el tipo de arquitectura de Deep Learning que mejor rendimiento ha dado en los últimos años. ¿Pero por qué? ¿Qué los hacen tan especiales? La respuesta la encontramos en lo altamente paralelizable que es su arquitectura, que permite sacar el máximo partido a los procesadores multinúcleos. Pero, esto tiene un coste, y es que si no hacemos nada los Transformers serían incapaces de entender el orden de los datos con los que los entrenamos. Y de ahí la importancia de soluciones como los Encoding de Posicionamiento. ¡Veamos cómo funcionan!
    -- 📣 ¡IMPORTANTE! --
    ► ¡Regístrate al Samsung Dev Day y no te pierdas mi ponencia!
    bit.ly/SDD2021... - 18 Noviembre, 18:30
    -- ¡LINKS INTERESANTES! --
    ► Serie Introducción al NLP y Transformers (DotCSV)
    Parte 1 - • 🔴 INTRO al Natural Lan...
    Parte 2 - • 🔴 INTRO al Natural Lan...
    Parte 3 - • ¿Qué es un TRANSFORMER...
    ► Explicación con más detalle Positional Encoding:
    kazemnejad.com...
    -- ¡MÁS DOTCSV! ---
    📣 NotCSV - ¡Canal Secundario!
    / notcsv
    💸 Patreon : / dotcsv
    👓 Facebook : / ai.dotcsv
    👾 Twitch!!! : / dotcsv
    🐥 Twitter : / dotcsv
    📸 Instagram : / dotcsv
    - ¡MÁS CIENCIA! --
    🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
    scenio.es/colab...

КОМЕНТАРІ • 290

  • @DotCSV
    @DotCSV  2 роки тому +83

    ► Serie Introducción al NLP y Transformers (DotCSV)
    ⭐Parte 1 - ua-cam.com/video/Tg1MjMIVArc/v-deo.html - Introducción a Tokens.
    ⭐Parte 2 - ua-cam.com/video/RkYuH_K7Fx4/v-deo.html - Introducción a Embeddings.
    ⭐Parte 3 - ua-cam.com/video/aL-EmKuB078/v-deo.html - Introducción a Mec. Atención

    • @MarioAlbertoRomeroSandoval
      @MarioAlbertoRomeroSandoval 2 роки тому +2

      Justo estaba esperando la segunda parte 😎

    • @josecudris5078
      @josecudris5078 2 роки тому +2

      Genial ésta serie dotcsv, sinceramente sería muy complicado entender este tipo de arquitectura sin una buena explicación detallada como lo son todos los videos de este canal. Épico

    • @drios200
      @drios200 2 роки тому

      Ahora el universo tiene sentido :p

    • @drios200
      @drios200 2 роки тому

      Me solté riendo con lo de discreto xD

    • @patojp3363
      @patojp3363 2 роки тому

      El mejor!!! Gracias

  • @charly9544
    @charly9544 2 роки тому +188

    "Detrás de estas tecnologías hay un transformer"
    Yo imaginándome a Bumblebee generando palabras

    • @asusasd2557
      @asusasd2557 2 роки тому +2

      yo tambien

    • @zzzz5517
      @zzzz5517 11 місяців тому +1

      Si existe una tecnologia llamada bumblebee xd

    • @Darkbotsz5
      @Darkbotsz5 6 місяців тому +1

      Es un Camaro.

  • @eduforero
    @eduforero 2 роки тому +275

    Porque tienen un gran líder. ⚡Optimus Prime. ⚡

    • @cheernesto85
      @cheernesto85 2 роки тому +5

      Vine por este comentario

    • @RominaSosaSchnoerr
      @RominaSosaSchnoerr 2 роки тому +2

      Jajajajaja

    • @wilmerh.munoz.2303
      @wilmerh.munoz.2303 2 роки тому +3

      Jajajaja, no mames wey esto es ciencia 😊🤣🤣😹🤭

    • @Rusenshi
      @Rusenshi 2 роки тому +12

      Y el nuevo modelo de NVIDIA se llama Megatron, un digno rival

    • @jfbaezv
      @jfbaezv 2 роки тому +1

      Jajajajajajajajaja

  • @zure2874
    @zure2874 2 роки тому +63

    "Sigamos con los transformers"
    Yo: Bien... sigue optimus prime

  • @Cuperino
    @Cuperino 2 роки тому +54

    ¡Sigue profundizando Dot! ¡El tema es fascinante y tu explicación e excelente! ¿Cómo se hace uso de esta descomposición temporal y qué otras implicaciones tiene?

  • @urielgarcia3888
    @urielgarcia3888 2 роки тому +16

    WOW...
    Me he queda sin palabra JAMAS me hubiera imaginado el uso de formulas sinusoidales para calcular posiciones.

  • @1061exclavo
    @1061exclavo 2 роки тому +10

    Sería realmente increíble ver un ejemplo práctico. He escuchado de estás redes pero para un novato como yo sería valioso ver un código que te ayude a encaminar lo practico. Gracias por el video.

  • @juansiveriorojas967
    @juansiveriorojas967 2 роки тому +9

    Hola Carlos, tus explicaciones son impresionantemente clarificadoras, acompañadas siempre de una infografía espectacular, lo que demuestra todo el trabajo que hay detrás de cada video. Enhorabuena.

  • @vegamuni
    @vegamuni 2 роки тому +22

    Me costó entender cómo funcionan los Transformers. Tuve que relacionar cada palabra de lo que estaba leyendo con cada una de las demás palabras y luego leerlas ya relacionadas de forma simultánea y paralela, pero teniendo en cuenta el orden.
    Estoy ironizando.
    Lo que hice fue leer la explicación por partes, entender un trozo, luego el siguiente y luego volver a leerlo todo.
    A mi entender, lo que hacemos para entender un texto largo o complicado, se parece más a una convolución que a un transformer.

    • @wb4529
      @wb4529 2 роки тому

      12:22

    • @CristianGarcia
      @CristianGarcia 2 роки тому +3

      Una convolucion implicaria que somos capaces de procesar todos los posibles n-gramas de una frase en paralelo. Lo mas parecido para los humanos en una red recurrente.

    • @vegamuni
      @vegamuni 2 роки тому

      @@CristianGarcia "Se parece más"

  • @wilfredomartel7781
    @wilfredomartel7781 3 місяці тому +1

    Vaya que video y qué manera la tuya de explicar! Necesitamos profundizar y llevar a codigo la siguiente parte.

  • @AlvaroALorite
    @AlvaroALorite 2 роки тому +23

    🎉🎉🎉 **Felicidades por el 1/2 millón de subs!** 🎉🎉🎉

  • @juanete69
    @juanete69 Рік тому +1

    Me alegra encontrar en español estos tutoriales de tan buena calidad, tanto por el contenido didáctico como por tu forma de hablar como por los gráficos.

  • @andresunknow8917
    @andresunknow8917 Місяць тому +1

    Brillante video! Muchísimas gracias!!

  • @lisandrocesaratto3012
    @lisandrocesaratto3012 2 роки тому +2

    Excelente! La forma como explicas Positional Encoding no la vi en ningun otro video, y ahora logre entenderlo al 100%. Gracias!

  • @AntonioGallardoCabrillana
    @AntonioGallardoCabrillana 2 роки тому +10

    Este tipo de videos deberían ponerle a los chavales antes de clases de matemáticas para animar a aprenderlas viendo la gran utilidad que tienen. Gran video como siempre.

  • @IvanLopezioloo
    @IvanLopezioloo 2 роки тому +3

    Es impresionante el trabajo didáctico que hacéis. Ésto no podría hacerse en televisión.

  • @mvargas34
    @mvargas34 2 роки тому +1

    Que genial la forma creativa de explicar el positional encoding! Sos un grande Dot CSV!

  • @sararosagonzalez1074
    @sararosagonzalez1074 6 місяців тому +1

    Muy didáctico. Gracias 😊

  • @ManuelGomezRicoUbeda1
    @ManuelGomezRicoUbeda1 9 місяців тому +1

    Me ha encantado! Muchas gracias

  • @lopez-rober
    @lopez-rober 2 роки тому +10

    Wow, Super Gran trabajo. Videos que valen oro, por favor nunca dejes de hacerlos, siempre los espero por lo interesantes que son.

  • @lenninrestrepo8556
    @lenninrestrepo8556 2 роки тому +2

    Explicas demasiado bien!! buen video... jaja tener este conocimiento hace una década nos hubiese asegurado una beca en el MIT

  • @jeannsyo
    @jeannsyo 2 роки тому +7

    13:28 dot realmente eres un crack, saludos desde America Latina

  • @brianfuentes2923
    @brianfuentes2923 10 місяців тому +1

    QUIERO MAS!

  • @jovenalpay
    @jovenalpay 6 місяців тому

    Que magnifica explicación!!! Y que genialidad la de los transformers. Y de ahi que utilicen tantas GPUs para procesamiento paralelo de enormes cantidades de datos. GRACIAS DOT.CSV

  • @fisicaparalavida108
    @fisicaparalavida108 4 місяці тому

    Densooooo! mucha y muy valiosa informaciòn. Gracias!

  • @andrewturtle2610
    @andrewturtle2610 2 роки тому +1

    Genial! Me vuela la cabeza este tipo de resultados que están sacando las IA

  • @francoferrante6723
    @francoferrante6723 Рік тому +1

    Excelente videoooo!!! Muchas gracias por la dedicación! Por favor, seguí esta serie que está genial!

  • @yorius96
    @yorius96 7 місяців тому

    Excelente video, incluso al día de hoy, es realmente interesante entender cómo pasamos de las antiguaras redes tradicionales a los grandes modelos de lenguaje que ocupamos al día de hoy (nunca había entendido bien qué era el Positional Encoding, genial explicación)

  • @Inzurrekto1
    @Inzurrekto1 Рік тому

    Agradezco que esta información esté bien explicada y en español. Para estudiar este tema de forma rápida viene bastante bien.

  • @javieraguilar9957
    @javieraguilar9957 2 роки тому +2

    Tío Dot, nunca había visto un video tan bien explicado del Positional Encoding

  • @casipof
    @casipof 2 роки тому +1

    Espectacular!!! Una explicación excelente. Gracias!!

  • @korason3235
    @korason3235 2 роки тому

    Bro, tu canal ya es genial, no creo que necesites poner bromas entre medio

  • @lucasgomez9373
    @lucasgomez9373 2 роки тому +1

    Sos un Genio Carlos! Te consulto si sabes si hay desarrollos para optimizar esta codificacion utilizando por ejemplo modulaciones en cuadratura comunes en telecomunicaciones. Me interesa saber como se encara el incremento en throughput de datos!
    Saludos!

  • @juandiegoorozco5531
    @juandiegoorozco5531 8 місяців тому

    Tenés una forma de explicar magistral!, capturaste mi atención por completo, super interesante

  •  Рік тому

    Excelente explicación!!! Muchas gracias por compartir tus conocimientos.

  • @javiernelon1577
    @javiernelon1577 Рік тому

    Brutal como explicas, cásate conmigo porfavor jaja

  • @victormanuelsanchezmorales4261
    @victormanuelsanchezmorales4261 2 роки тому

    Carlos, haz un vídeo sobre como funcionan los "encajes", considero que son fundamentales para abordar temas como VQA (que estaría fenomenal que hicieras una serie!).
    Gran trabajo.
    Saludos

  • @matiasrodrigotorresrivera4941
    @matiasrodrigotorresrivera4941 2 роки тому +2

    A Fourier le encantó este video

  • @Runciter
    @Runciter 7 днів тому

    Necesito una parte V de NLP!

  • @alanjosuefaustosoto7764
    @alanjosuefaustosoto7764 9 місяців тому

    Excelente serie de videos sigue asi

  • @JuanJoseCinalli
    @JuanJoseCinalli 2 роки тому

    Solo se que en lugar de simplificar, se está complicando todo exponencialmente.
    Un ejemplo...
    Es como cuando generamos rampas en decodificadores A/D...en lugar de solo usar un equipo analógico.
    Nuestro cerebro es extremadamente simple en ese mecanismo de aprendizaje o incluso inteligencia.
    Si bien existen multiple tipos de neuronas, hay zonas y sectores específicos.
    Nuestras limitaciones principales son la velocidad de propagación electroquímica , la densidad de almacenamiento dentro de todo es aceptable , aún así ampliable electrónicamente.
    Muy buenos tus vídeos, aprendo mucho en verdad !
    Saludos desde Rosario Argentina

    • @JuanJoseCinalli
      @JuanJoseCinalli 2 роки тому

      Hugo Zucarelli, ing acústico famoso por su invención (1980) llamada Holofonic....este ideo una técnica de cambios de fase en sonido...como realmente es capturada por el oído humano, intentaron recrear algoritmos así manejar esta información espacial 3D sin resultados muy superiores..
      El ser humano es 100% analógico...no veo razón (hoy en dia) cambiar estos principios hasta no superarlos y así emplear técnicas digitales.
      Espero se comprenda la comparativa.
      Saludos

  • @fosters.4558
    @fosters.4558 2 роки тому +3

    Cualquiera q sabe de Sonido mira esas ondas y es inevitable relacionarlo con las ondas armónicas que al final se traducen en frecuencia.. bien lo decía Tesla.. todo es frecuencia todo !! U.u

  • @rodmallen9041
    @rodmallen9041 2 роки тому

    Qu'e maravilla de v'ideo! mil gracias por semejante explicaci'on!

  • @javi4246
    @javi4246 9 днів тому

    MUY BUEN VIDEO

  • @denisvillanueva9588
    @denisvillanueva9588 Рік тому

    excelente Videos, tienes un manera de explicar temas dificiles de explicar, de una manera muy "sencilla", podrias realizar algun video acerca de los usos de IA en la medicina hoy

  • @davidpratr
    @davidpratr 2 роки тому

    Gran vídeo con el que he comprendido el positional encoding. Si hicieras un vídeo explicando la capa densa final de BERT y el funcionamiento de la arquitectura entendiendo cómo funciona para un ejemplo de problema sería brutal ya :)

  • @AlexPalmaTV
    @AlexPalmaTV Рік тому

    Me gustan mucho todos tus videos son muy buenos

  • @jmlv4351
    @jmlv4351 Рік тому

    Excelentisimo contenido

  • @osip_1984
    @osip_1984 2 роки тому +2

    Otra de las razones por las que utilizar una codificación posicional basada en ondas matemáticas multidimensionales es porque le permite al modelo adquirir información posicional relativa respecto a las otras palabras, permitiéndole aprender con menos ejemplos y más rápidamente.

  • @dcardenasp
    @dcardenasp 2 роки тому +1

    Hola Carlos. Que buen video! Estás amarrando muchísimos conceptos en una sola aplicación. Genial! Me gustaría usar tu video para el capítulo de series de Fourier en un curso que imparto para estudiantes de ingeniería. Me autorizas? Salu2!

  • @SimuFilmmaker
    @SimuFilmmaker 2 роки тому +2

    4:01 se mató

  • @JuniorH
    @JuniorH 11 місяців тому

    Muchas gacias Dot! por toda la explicacion.

  • @AstronautaCrypto
    @AstronautaCrypto 2 роки тому

    Me dejas loco por querer aprender más!

  • @tarabonet267
    @tarabonet267 7 місяців тому

    ¡Gracias!

  • @victormendezvasquez722
    @victormendezvasquez722 2 роки тому +4

    Wow wow wow, full nice la explicación!!! Gracias Carlos, eres el mejor!!!!

  • @Terror-Oscuro
    @Terror-Oscuro 2 роки тому +5

    Será por que son de Cybertron???!

    • @Darkbotsz5
      @Darkbotsz5 6 місяців тому +1

      Si somos de cybertron

  • @mabelestevez6708
    @mabelestevez6708 2 місяці тому

    Excelente

  • @bartolomeyepezmazuelas4423
    @bartolomeyepezmazuelas4423 19 годин тому

    ¿y si este encoding se modifica y la IA inventa un lenguaje que no entendemos? Es decir, que solo lo entienda ella. ;) Apocalítico, pero me ha venido a la mente. Mil gracias por esta maravilla de contenido.

  • @elpreciso
    @elpreciso Рік тому

    excelentes videos!!!

  • @luisefe387
    @luisefe387 2 роки тому

    Carlos excelente video, explicas demasiado bien, muchas gracias!

  • @felosrg1266
    @felosrg1266 2 роки тому +11

    El Megatron se parece a la computadora que le está dando definiciones al capitán del axioma en WALL-E

    • @DanielGustavoBottin
      @DanielGustavoBottin 2 роки тому +1

      Yo también esperaba a #WALL-E o a #OptimusPrime !?!?!?!!!!

  • @manuelcobo8879
    @manuelcobo8879 2 роки тому

    Estas hablando de reconocimiento de voz o colores formas etc de cualquier manera todo es frecuencia 😎👍🎼

  • @jeisoncgalindo
    @jeisoncgalindo 2 роки тому +1

    una barbaridad, te deja sin palabras

  • @nachofloresblanco3208
    @nachofloresblanco3208 2 роки тому +2

    Gracias Carlos. Mira que he leído sobre los Transformers pero no conocía este tema del Position Encoding

    • @Darkbotsz5
      @Darkbotsz5 6 місяців тому +1

      De los decepticons

  • @findemor
    @findemor 2 роки тому

    Buenísimo

  • @manuelc2201
    @manuelc2201 Рік тому

    Muchas gracias por tus videos, me ayudan bastante.

  • @mbunooo
    @mbunooo 2 роки тому +2

    nunca vi una explicación tan intuitiva de los embeddings posicionales. felicidades por el video!

  • @adrianvelez9449
    @adrianvelez9449 2 роки тому +1

    Muchas gracias por tus vídeos. Te sigo hace poco tiempo y me parece que están muy bien. Me surge una duda respecto a la paralelización que comentabas. ¿Dices que con las redes neuronales recurrentes no se puede paralizar los cálculos por GPU? Pero realmente si se puede, ¿no? Puedes explicar a qué te refieres con eso. Digo que se puede paralelizar por qué los datos con los que óperas son una matriz bidimensional donde por una dimensión son los parámetros del algoritmo y por otro lado el número de ejemplos del batch de entrenamiento. Corrígeme si me equivoco o si se me escapa algo. Gracias.

  • @haroldt.c.477
    @haroldt.c.477 2 роки тому

    En determinado momento, con el conocimiento con las que las propias personas alimentan a las inteligencias artificiales, serán estás las que se ocupen de generar y distribuir la tecnología, y según parece esto avanza rápidamente.

  • @javiertorcal5053
    @javiertorcal5053 Рік тому +1

    He utilizado los Visual Transformers en mi TFM y su performance es mayor a la de las CNNs. Podrías hacer un vídeo sobre ellos por su gran potencial y futuro

    • @Darkbotsz5
      @Darkbotsz5 17 днів тому +1

      Los decepticons y Los Autobots.

  • @albertrg9166
    @albertrg9166 2 роки тому

    Hola, podrías explicar el concepto de los ViT? Eres un grande

  • @Musica-kb3po
    @Musica-kb3po 2 роки тому

    Hola, puedes hablar sobre las "Real Doll"

  • @silviabregar4263
    @silviabregar4263 10 місяців тому

    Hola es muy aclaratoria tu explicación. Soy escritora, se podrá usar como corrector de estilo y ortotipográfico?

  • @agooddaytoplay3114
    @agooddaytoplay3114 2 роки тому

    Todavia se puede ver la conferencia que diste para samsung?

  • @jesusrojas7534
    @jesusrojas7534 8 місяців тому

    Si todos los vídeos fueran así, aprendería todo más rápido

  • @bocatadenata
    @bocatadenata 2 роки тому

    Magnífico trabajo como siempre. Me parece interesantísimo todo lo que explicas, aunque no tengo el nivel necesario para entenderlo todo.
    Una pregunta:
    10:33: Fila inferior: ¿seno(1/3 * pos)? ¿Por qué no sería seno(1/4 * pos)? No pillo el significado del 1/3

  • @MarceloCesarPaladino
    @MarceloCesarPaladino Рік тому

    Todo un genio y muchas gracias por la INFO

  • @DanielGutierrez-xj6vz
    @DanielGutierrez-xj6vz 2 роки тому

    muy bien explicado

  • @santiagogaleanocadavid8237
    @santiagogaleanocadavid8237 2 роки тому +2

    Excelente explicación... Gracias Carlos! Ya con ganas de ver los siguientes vídeos de esta serie sobre los transformers 👏🏼👏🏼

    • @Darkbotsz5
      @Darkbotsz5 6 місяців тому +1

      De esos robots transformable

  • @NomadeArgentino
    @NomadeArgentino Рік тому

    Maravillosa jugada la de trigonometría..
    Y vos que pensabas en el colegio: para que carajos voy a usar esto yo?
    Gracias por la cátedra Carlos.

  • @calebortiz13
    @calebortiz13 2 роки тому

    ¿Alguien sabe cómo se llama el vídeo del fragmento cerca del minuto 12 dónde pintan con un cañón?

  • @MILENIOZERO
    @MILENIOZERO Рік тому

    Yo quiero hablar con un personaje asi en español y dentro del metaverso o con la realidad mixta. Tiene que ser una pasada!

  • @martinfarrera_
    @martinfarrera_ 2 роки тому

    Parte 3

  • @theellusionist1988
    @theellusionist1988 2 роки тому

    Maravillosa información !

  • @wilfredmedina6401
    @wilfredmedina6401 2 роки тому +1

    Excelente video!

  • @korason3235
    @korason3235 2 роки тому +1

    Y así, poco a poco, es como Megatron sube al poder antes de que sean creados y luego revolucionando a otro planeta con humanos.

    • @Darkbotsz5
      @Darkbotsz5 17 днів тому +1

      Del planeta cybertron.

  • @RodrigoLopezF
    @RodrigoLopezF 2 роки тому

    Excelente contenido!

  • @luiscarlosrodriguezpascual7629
    @luiscarlosrodriguezpascual7629 2 роки тому

    Es lectura rápida, y sí, hay que parar y meditar de cuándo en cuándo...gracias.

  • @luicho10
    @luicho10 Рік тому

    Hola, ¿cómo estas? Estoy interesado en empezar a investigar en visual transformer. Soy estudiante de doctorado en ciencia de datos y me gustaría conocer todas las aplicaciones que puedo realizar con visual transformer, especialmente en visual attention. ¿Conocerás algo al respecto?

  • @TechWizardBoctulus
    @TechWizardBoctulus 6 місяців тому

    O sea seria amplitud modulada?

  • @kingkonglibre8275
    @kingkonglibre8275 2 роки тому

    Oye al principio te juzgue mal, no entiendo mucho del tecnisismo de tú canal pero me agrada, para mí los más sorprendente de la informática es la conversión, la conversión de pulsos eléctricos en información

  • @victorsalazar450
    @victorsalazar450 2 роки тому

    Codificación Posicional
    División de la posición
    Binario
    ondas

  • @dionislopez4111
    @dionislopez4111 2 роки тому +2

    Una explicación de los Trasformer sencillamente Genial. Mil gracias desdes Santiago de Cuba

    • @Darkbotsz5
      @Darkbotsz5 17 днів тому +1

      La guerra por cybertron.

  • @AprendeenRealidad
    @AprendeenRealidad 2 роки тому

    ¡Exelente video!

  • @Luix
    @Luix 2 роки тому +1

    More than meets the eye

    • @Darkbotsz5
      @Darkbotsz5 17 днів тому +2

      Paramount pictures and Hasbro studio.

  • @ninogarcia5243
    @ninogarcia5243 2 роки тому

    Que buen video, ¿cual es la música de fondo?. Gracias por el contenido!

  • @javenda
    @javenda 2 роки тому +1

    muy buennoooo

  • @ThoVCor999
    @ThoVCor999 2 роки тому +2

    Ni idea

  • @julioda5914
    @julioda5914 2 роки тому +1

    La solución de la codificación posicional me recordó a las señales del cerebro humano

  • @GabrielAndresAlzate
    @GabrielAndresAlzate 2 роки тому +1

    O sea que incluyeron Fourier?