Algorithme d'apprentissage: la descente de gradient

Поділитися
Вставка
  • Опубліковано 4 вер 2024

КОМЕНТАРІ • 39

  • @mathhack8647
    @mathhack8647 3 роки тому +1

    jamais comris la descente de gradient avant de tomber sur cette merveilleuse Vidéo ./ Un grand Merci pour cet effort.

  • @TELMaths
    @TELMaths 5 місяців тому

    Franchement l'explication est d'une clairetée, je vous remercie!

  • @liesk666
    @liesk666 4 роки тому +1

    J'ai apprécié la grande qualité pédagogique de ce sujet. très beau travail. Continuez

  • @pmosko
    @pmosko 4 роки тому +6

    Merci et bravo pour cette excellente vidéo. Les explications sont claires et les exemples pertinents. J’ai une bien meilleure compréhension de la descente de gradient maintenant.

  • @mounirboti1873
    @mounirboti1873 3 роки тому +1

    Je dis "Chapeau bas", la vidéo est tout simplement excellente et va directement à l'essentielle avec beaucoup de pédagogie !

  • @alexandrerangom3510
    @alexandrerangom3510 4 роки тому +1

    Excellente vidéo, rien à redire, l’explication et les exemples sont parfaits, ils permettent de vite se faire une idée de ce qui se passe lorsqu'on entraîne un modèle, donc de se construire une "intuition" comme dirait Thibault Neveu. Je tiens à remercier vous remercier de fournir ce travail fournis car cette vidéo n'est pas la seule qui mérite des éloges et je vous souhaite réussite pour cette aventure sur UA-cam.

    • @l42project47
      @l42project47  4 роки тому

      merci pour ce message très sympa ! :)

  • @jeromety3620
    @jeromety3620 4 роки тому +3

    Superbe vidéo, les bases et la visualisation parfait !

  • @kamimassi706
    @kamimassi706 Рік тому

    Merci beaucoup

  • @TT-jn9mv
    @TT-jn9mv 3 роки тому +1

    Bravo pour cette vidéo très pédagogique

    • @l42project47
      @l42project47  3 роки тому

      merci pour ce message sympa :)
      Laurent

  • @siguerhakim4723
    @siguerhakim4723 3 роки тому

    Excellente présentation, merci

  • @clementl5306
    @clementl5306 3 роки тому

    très clair et ludique, comme d'habitude, merci!

  • @Enkumnu
    @Enkumnu Рік тому

    Superbe vidéo. Merci

  • @gandalsmart
    @gandalsmart 2 роки тому

    Très instructif, merci

  • @judgelaloicmoi
    @judgelaloicmoi 3 роки тому +1

    bravo pour cette video et merci pour le code !

    • @l42project47
      @l42project47  3 роки тому

      Merci pour ce commentaire sympa :)
      Laurent

  • @zebulon75018
    @zebulon75018 Рік тому

    Quand est ce que l on s arrête ? Super vidéo !

  • @ibrahimabarry8839
    @ibrahimabarry8839 4 роки тому +1

    merci beaucoup vous etes tres cool

  • @Sh1nGuRu1
    @Sh1nGuRu1 4 роки тому

    merci excellente vidéo

  • @technoflyclgfl8575
    @technoflyclgfl8575 4 роки тому

    Un bonheur de suivre vos tutos. Bravo ! Juste étonné de votre présentation sur la façon directe d'aborder la dérivé sans faire référence à la tangente de l'angle de façon explicite ?

    • @l42project47
      @l42project47  4 роки тому

      J'ai éviter d'utiliser le mot en effet, je voulais d'une part que l'on se concentre sur la valeur et le signe; et d'autre part, comme je dis (en espérant qu'un mathèmaticien n'écoute pas :) ) que le gradient est une sorte d'extension de la dérivé, je ne voulais pas que l'on ne pense pas qu'en ajoutant une dimension, cette extension soit du coup un plan tangeant à la courbe; même si on voit bien que c'est un vecteur.

  • @TheMurasaki1
    @TheMurasaki1 4 роки тому

    merci!

  • @eddybash1342
    @eddybash1342 2 роки тому

    Bonjour,
    Pourquoi ne pas faire un monté Carlo pour sortir d'un gradient faible et explorer plus loin ?

  • @davidrouyre8094
    @davidrouyre8094 4 роки тому

    Superbes explications ! Je suppose qu'un recuit simulé n'est pas viable lorsqu'il y a trop de variables

    • @l42project47
      @l42project47  4 роки тому +1

      Merci pour ce message sympa.
      En effet, pour un réseau de neurone, qui a donc beaucoup de paramètre, la méthode du recuit jetterait un froid.
      Laurent

  • @TheETT60
    @TheETT60 4 роки тому

    Super vidéo, très facile à comprendre. Juste une petite question, comment peut-on gérer des contraintes ? Par exemple x dois être égale a une valeur.
    En tout cas super chaine continue :)

    • @l42project47
      @l42project47  4 роки тому +1

      Merci pour ce commentaire sympa :) si x a une valeur, ce n'est plus une variable, donc la fonction a un paramètre de moins, c'est aussi simple que ça ;)

  • @ibrabayili6035
    @ibrabayili6035 4 роки тому

    tres interressant cet tuto merci parcontre j'ai une petite question qui n'est pas trop en lien avec cette video .pour la detection d'object quelle algorithm conseiller vous ? merci d'avance

    • @l42project47
      @l42project47  4 роки тому

      Bonjour et merci pour ce commentaire sympa :) Disons que si l'objet est "simple", peut etre qu'avec uniquement une detection de couleur on peut s'en sortir (cf tuto inrange opencv), mais pour des objets plus complexes, les reseaux de neuronnes sont incontournables, et la, il faut une descente de gradient (je recommande la variante Adam dans tensorflow qui donne en général de très bon résultat)

    • @ibrabayili6035
      @ibrabayili6035 4 роки тому

      @@l42project47 bonjour okok super merci bcp je tiens une fois encore a vous remercier et vous dire que vous faite de très bon boulot

  • @aboutajahmed
    @aboutajahmed 4 роки тому

    Merci infiniment... votre video était très utile pour moi... je souhaiterai avoir la démonstration de la formulation numérique du gradient (x(n+1)= x(n)+alpha grad(f(x))) si possible, parce que je n'arrive pas a faire la relation entre la définition du gradient et cette formule
    supérieurdevient-elle formule ?
    ... merci encore une fois.

    • @l42project47
      @l42project47  4 роки тому

      Vous voulez l'algo gradient (x(n+1)= x(n)-alpha grad(f(x))) (vous avez mis un +) ?