Comprendre les Transformers et les mécanismes d'attention

Поділитися
Вставка
  • Опубліковано 28 вер 2024

КОМЕНТАРІ • 54

  • @MachineLearnia
    @MachineLearnia 3 роки тому +42

    Quel plaisir de revoir une vidéo de ta part sur UA-cam !

    • @FloNocode
      @FloNocode 3 роки тому +2

      En espérant que ce soit le début d'une longue série de vidéo :D.

    • @elouatimohamed3792
      @elouatimohamed3792 3 роки тому

      En manque bq tes vedio machine learnia

    • @lucienkahozi3314
      @lucienkahozi3314 Рік тому

      nous aimerions aussi que tu fasses une video sur le sujet, ta pedagogie et tes animations sont vraiment utile Machine Learnia. Merci

  • @sargan7851
    @sargan7851 3 роки тому +1

    Content de revoir des vidéos ... et le son est super bon.

  • @Leo-hi3to
    @Leo-hi3to 3 роки тому +1

    Content de te revoir !!

  • @hassanaghdaoui5138
    @hassanaghdaoui5138 3 роки тому +1

    Sujet très intéressant , super vidéo

  • @ahmedel-azharjebbari8806
    @ahmedel-azharjebbari8806 3 роки тому +1

    Très bien expliqué !

  • @walidayadi5752
    @walidayadi5752 3 роки тому +1

    BRAVO ! Vidéo TOP !

  • @elouatimohamed3792
    @elouatimohamed3792 3 роки тому +1

    Parfait 😍😍 merci bq

  • @laurentpourchot4649
    @laurentpourchot4649 3 роки тому +3

    Hello, merci pour cette video. Un exemple avec keras (ou Pytorch) serait top :-)

  • @hamadoumossigarba1201
    @hamadoumossigarba1201 5 місяців тому

    Bonjour,
    Merci pour la qualité de la présentation et de clarté dans vos explications. Est -ce que le transformer peut être utilisé pour enregistrer et distribuer des données (codes imei et imsi)?
    Pourrai-je si possible avoir ce papier?

  • @revolution-ia
    @revolution-ia 7 місяців тому

    salut Thibault , est-ce que tu aurais un schéma où on retrouve en terme simplifié cette suite d'opérations : prompt - token - vecteur - tête d'attention - décodeur ?

  • @MachineLinguist
    @MachineLinguist 3 роки тому +5

    Merci pour cette vidéo 🙏. C’est super bien expliqué.

  • @lz8oo8zl
    @lz8oo8zl 3 роки тому +1

    Je ne comprends pas un truc. A quoi sert réellement le FFN dans l'encoder et le decoder ? Chaque token va passer dans un réseau de neurones mais je ne vois pas ce que ça apporte au modèle. Quel impact ces réseaux ont sur l'information?

  • @damienbouchabou1311
    @damienbouchabou1311 3 роки тому +3

    Superbe vidéo d'introduction aux transfomers. Je suis très intéressé pas le live coding d'un transfomers en keras. Et aussi très intéressé par l'explication d'application de transformer a d'autres domaines

  • @arishali9248
    @arishali9248 3 роки тому +2

    You deserve more views and more subscribers, I am in love with your channel !!

  • @denisbories
    @denisbories 3 роки тому +3

    Merci beaucoup pour ces explications claires 👏 Les propositions d’une séance de live coding ou une autre vidéo qui rentrerait dans les détails d’autres applications sont aussi intéressantes l’une que l’autre donc l’idéal serait de faire les 2 😬😇😷

  • @khaberislam8957
    @khaberislam8957 3 роки тому +2

    Merci ..

  • @14Tyrion
    @14Tyrion 3 роки тому +2

    Très bon travail !! Effectivement un TP pratique serait le bienvenu =)

  • @MsBowner
    @MsBowner Рік тому +2

    Excellent Thibault !

  • @arishali9248
    @arishali9248 3 роки тому +1

    Amazing video, thanks for the explanation

  • @boukaryouedraogo9554
    @boukaryouedraogo9554 3 роки тому +2

    Bon retour Thibault.

  • @benoitmialet9842
    @benoitmialet9842 4 місяці тому

    une question qui me hante : la masked self attention ne devrait intervenir UNIQUEMENT que lors de l'entrainement, car on place en input de decoder une séquence contenant la réponse (les tokens futurs). donc, en quoi la masked self attention intervient durant un processus de génération (une fois le modèle entrainé), puisque les tokens encore non générés n'existent tout simplement pas ? Merci de tout éclairage !

    • @ThibaultNeveu
      @ThibaultNeveu  4 місяці тому +1

      En effet, seulement utile a l'entrainement

    • @benoitmialet9842
      @benoitmialet9842 4 місяці тому

      @@ThibaultNeveu merci je me sens moins seul maintenant 🤣

  • @renemiche735
    @renemiche735 3 роки тому +1

    merci. J'attendais une vidéo sur le sujet en français depuis longtemps et je suis d'autant plus heureux que ce soit toi qui la traite, car tu es un excellent pédagogue.

  • @vincentb.8743
    @vincentb.8743 3 роки тому +1

    Oui l'application des transformers serait très intéressant

  • @moussabamba6216
    @moussabamba6216 3 роки тому +1

    Super vidéo et bien expliquée , merci pour ce tuto , on attend le TP

  • @joslinmartinez9218
    @joslinmartinez9218 3 роки тому +1

    Cette vidéo et le live coding que tu as fais sont de grande qualité et m'ont permis de comprendre cette architecture et la façon dont on peut coder ce genre de choses ! Merci beaucoup :)

  • @elouatimohamed3792
    @elouatimohamed3792 3 роки тому +1

    Et aussi il faut L'implémentation svp

    • @samuelhamache103
      @samuelhamache103 3 роки тому

      il a donné toutes les informations pour coder. Pas besoin de plus.

  • @adrien123_
    @adrien123_ 3 роки тому +1

    Super vidéo, sujet très intéressant !

  • @arminsmajlagic2907
    @arminsmajlagic2907 Рік тому

    I'm learning french and deep learning at the same time with you :D Thank you very much, well explained.

  • @bekabd
    @bekabd 3 роки тому +1

    Merci

  • @bradleyadjileye1202
    @bradleyadjileye1202 Рік тому +1

    Merci pour cette vidéo

  • @cedricmanouan2333
    @cedricmanouan2333 3 роки тому +1

    Heureux de te revoir TN 😏

  • @soelreza1430
    @soelreza1430 2 роки тому

    Salut ! Tes vidéos sont super ! Merci beaucoup
    Dis moi est ce que le mécanisme d’attention peut être utilisé non pas pour le traitement de language mais pour prédire des variables numériques continue comme par exemple pour prédire le kwh d’un compteur électrique qui change toutes les 10s

  • @automatescellulaires8543
    @automatescellulaires8543 2 роки тому

    J'adore le premier Transformers. Michael Bay is all you need.

  • @yacinemamdouh1271
    @yacinemamdouh1271 2 роки тому

    Je comprends pas pourquoi on a 8 têtes d'attention à 32:35 ?
    Merci pour la vidéo

  • @alh7839
    @alh7839 2 роки тому

    c'est si clair, bien dans les détails en expliquant bien des notions complexes, gg

  • @jeanpeuplu3862
    @jeanpeuplu3862 2 роки тому

    13:17 : ASMR pour penser à nous hydrater ; merci 🥰

  • @abderrahmanemabroukmerabet9274
    @abderrahmanemabroukmerabet9274 3 роки тому

    Ce que tu fais est supe, continue c'est tres bien detaillé

  • @lucienkahozi3314
    @lucienkahozi3314 Рік тому

    merci pour cette videos tres instructive bro !

  • @alainrieger6905
    @alainrieger6905 3 роки тому

    Merci Monsieur pour tout ce que vous rendez accessible

  • @ElMeneniNaima
    @ElMeneniNaima Рік тому

    merci beaucoup vraiment 🤍🤍🤍

  • @hadjerhamidou1586
    @hadjerhamidou1586 Рік тому

    Merci pour ces explications

  • @WahranRai
    @WahranRai 2 роки тому +1

    Affreux melange du français et de l'anglais !

    • @lbognini
      @lbognini 2 роки тому

      Les documents d'origine sont en anglais et ce sont des concepts relativement nouveaux. Que voulez-vous qu'il fasse? Commencer par faire du boulot de traduction avant celui d'explication?
      On aurait bien aimé que les papers d'origine soit en français.
      Pour l'heure, souffrons de ce mélange.

  • @franklouenkam8820
    @franklouenkam8820 2 роки тому

    Merci infiniment😍😍😍

  • @Saens406
    @Saens406 2 роки тому

    rien compris

  • @simonarduin8600
    @simonarduin8600 3 роки тому

    nice

  • @jean-marcbereder4231
    @jean-marcbereder4231 3 роки тому

    excellent

  • @blancanthony9992
    @blancanthony9992 2 роки тому

    Merci