Merci et bravo pour cette excellente vidéo. Les explications sont claires et les exemples pertinents. J’ai une bien meilleure compréhension de la descente de gradient maintenant.
Excellente vidéo, rien à redire, l’explication et les exemples sont parfaits, ils permettent de vite se faire une idée de ce qui se passe lorsqu'on entraîne un modèle, donc de se construire une "intuition" comme dirait Thibault Neveu. Je tiens à remercier vous remercier de fournir ce travail fournis car cette vidéo n'est pas la seule qui mérite des éloges et je vous souhaite réussite pour cette aventure sur UA-cam.
Un bonheur de suivre vos tutos. Bravo ! Juste étonné de votre présentation sur la façon directe d'aborder la dérivé sans faire référence à la tangente de l'angle de façon explicite ?
J'ai éviter d'utiliser le mot en effet, je voulais d'une part que l'on se concentre sur la valeur et le signe; et d'autre part, comme je dis (en espérant qu'un mathèmaticien n'écoute pas :) ) que le gradient est une sorte d'extension de la dérivé, je ne voulais pas que l'on ne pense pas qu'en ajoutant une dimension, cette extension soit du coup un plan tangeant à la courbe; même si on voit bien que c'est un vecteur.
Merci infiniment... votre video était très utile pour moi... je souhaiterai avoir la démonstration de la formulation numérique du gradient (x(n+1)= x(n)+alpha grad(f(x))) si possible, parce que je n'arrive pas a faire la relation entre la définition du gradient et cette formule supérieurdevient-elle formule ? ... merci encore une fois.
tres interressant cet tuto merci parcontre j'ai une petite question qui n'est pas trop en lien avec cette video .pour la detection d'object quelle algorithm conseiller vous ? merci d'avance
Bonjour et merci pour ce commentaire sympa :) Disons que si l'objet est "simple", peut etre qu'avec uniquement une detection de couleur on peut s'en sortir (cf tuto inrange opencv), mais pour des objets plus complexes, les reseaux de neuronnes sont incontournables, et la, il faut une descente de gradient (je recommande la variante Adam dans tensorflow qui donne en général de très bon résultat)
Super vidéo, très facile à comprendre. Juste une petite question, comment peut-on gérer des contraintes ? Par exemple x dois être égale a une valeur. En tout cas super chaine continue :)
Merci pour ce commentaire sympa :) si x a une valeur, ce n'est plus une variable, donc la fonction a un paramètre de moins, c'est aussi simple que ça ;)
Franchement l'explication est d'une clairetée, je vous remercie!
jamais comris la descente de gradient avant de tomber sur cette merveilleuse Vidéo ./ Un grand Merci pour cet effort.
J'ai apprécié la grande qualité pédagogique de ce sujet. très beau travail. Continuez
Merci pour ce message sympa :)
Je dis "Chapeau bas", la vidéo est tout simplement excellente et va directement à l'essentielle avec beaucoup de pédagogie !
merci pour se message sympa :)
Merci et bravo pour cette excellente vidéo. Les explications sont claires et les exemples pertinents. J’ai une bien meilleure compréhension de la descente de gradient maintenant.
Merci pour ce message sympa :)
Excellente vidéo, rien à redire, l’explication et les exemples sont parfaits, ils permettent de vite se faire une idée de ce qui se passe lorsqu'on entraîne un modèle, donc de se construire une "intuition" comme dirait Thibault Neveu. Je tiens à remercier vous remercier de fournir ce travail fournis car cette vidéo n'est pas la seule qui mérite des éloges et je vous souhaite réussite pour cette aventure sur UA-cam.
merci pour ce message très sympa ! :)
Bravo pour cette vidéo très pédagogique
merci pour ce message sympa :)
Laurent
Superbe vidéo, les bases et la visualisation parfait !
merci :)
Excellente présentation, merci
très clair et ludique, comme d'habitude, merci!
bravo pour cette video et merci pour le code !
Merci pour ce commentaire sympa :)
Laurent
Superbe vidéo. Merci
Très instructif, merci
Un bonheur de suivre vos tutos. Bravo ! Juste étonné de votre présentation sur la façon directe d'aborder la dérivé sans faire référence à la tangente de l'angle de façon explicite ?
J'ai éviter d'utiliser le mot en effet, je voulais d'une part que l'on se concentre sur la valeur et le signe; et d'autre part, comme je dis (en espérant qu'un mathèmaticien n'écoute pas :) ) que le gradient est une sorte d'extension de la dérivé, je ne voulais pas que l'on ne pense pas qu'en ajoutant une dimension, cette extension soit du coup un plan tangeant à la courbe; même si on voit bien que c'est un vecteur.
Quand est ce que l on s arrête ? Super vidéo !
Bonjour,
Pourquoi ne pas faire un monté Carlo pour sortir d'un gradient faible et explorer plus loin ?
Merci beaucoup
Merci infiniment... votre video était très utile pour moi... je souhaiterai avoir la démonstration de la formulation numérique du gradient (x(n+1)= x(n)+alpha grad(f(x))) si possible, parce que je n'arrive pas a faire la relation entre la définition du gradient et cette formule
supérieurdevient-elle formule ?
... merci encore une fois.
Vous voulez l'algo gradient (x(n+1)= x(n)-alpha grad(f(x))) (vous avez mis un +) ?
merci beaucoup vous etes tres cool
tres interressant cet tuto merci parcontre j'ai une petite question qui n'est pas trop en lien avec cette video .pour la detection d'object quelle algorithm conseiller vous ? merci d'avance
Bonjour et merci pour ce commentaire sympa :) Disons que si l'objet est "simple", peut etre qu'avec uniquement une detection de couleur on peut s'en sortir (cf tuto inrange opencv), mais pour des objets plus complexes, les reseaux de neuronnes sont incontournables, et la, il faut une descente de gradient (je recommande la variante Adam dans tensorflow qui donne en général de très bon résultat)
@@l42project47 bonjour okok super merci bcp je tiens une fois encore a vous remercier et vous dire que vous faite de très bon boulot
Superbes explications ! Je suppose qu'un recuit simulé n'est pas viable lorsqu'il y a trop de variables
Merci pour ce message sympa.
En effet, pour un réseau de neurone, qui a donc beaucoup de paramètre, la méthode du recuit jetterait un froid.
Laurent
merci excellente vidéo
merci pour ce message sympa ;)
Super vidéo, très facile à comprendre. Juste une petite question, comment peut-on gérer des contraintes ? Par exemple x dois être égale a une valeur.
En tout cas super chaine continue :)
Merci pour ce commentaire sympa :) si x a une valeur, ce n'est plus une variable, donc la fonction a un paramètre de moins, c'est aussi simple que ça ;)
merci!
mais de rien :)