Merci mec, chaque vidéo avec toi est un plaisir, sache que si un jour tu lances une formation détaillée pour apprendre plus en profondeur l'IA je serais prêt à l'acheter
@@ThibaultNeveu Bonsoir, j'ai besoin des cours en Deep learning pour travailler sur la reconnaissance des espèces sur une Ortho Mosaic. Si je peux avoir ton contact pour t'écrire inbox, ça me fera plaisir. Merci
Bonjour, J'ai découvert ta chaine il y a quelques semaines et c'est vraiment très instructif! J'aime beaucoup ta façon d'expliquer et personnellement je trouve ça super clair! Merci pour tout le travail que tu fournis et courage pour la suite :)
Merci beaucoup pour votre vidéo, je connaissais jusque là la fonction sigmoïde, vous avez élargi mes horizons en matière de fonction d'activation. J'ai cependant une question : je voudrais savoir si au niveau des hidden layers, est-ce qu'il serait possible de ne pas avoir la même fonction d'activation ? Je prends un exemple : si j'ai trois couches cachées, serait il possible d'avoir à la première couche une fonction sigmoïde, à la deuxième couche une fonction tanh et à la dernière couche une fonction relu????
2 роки тому
Ulrich, oui, tu peux utiliser différentes fonctions d'activation. Simplement, le simulateur utilisé ici ne le permet pas.
beau travail pour expliquer ces fonctions d'activation. Attention au vocabulaire cependant. On ne dit pas "tane ache" pour tanh mais "tangente hyperbolique". C'est son nom. De même les anglicisme du type "il faut scaler" au lieu de "il faut mettre à l'échelle" ça serait quand même bien de les éviter !
Bonjour, La fonction que tu décris est le coût de classification 0-1. Une bonne raison de ne PAS utiliser cette fonction d'activation est que lorsque tu calcule le gradient de ta fonction de coût, celui-ci vaut toujours 0, donc tu n'obtiens aucune direction vers laquelle te diriger pour faire l'optimisation. (cette fonction d'activation a néanmoins un intérêt théorique très important, cf le principe de minimisation de risque empirique de Vapnik, une fois tweaké ça te donne les SVM par exemple)
Franchement bravo tu es meilleur que certain professeur d'université, clair et concis !
Bonne présentation, claire, concise...Bref continue !!! Abonné +=1 !
Bravo Thibault ! très belle vulgarisation , j'apprécie énormément
T'es un tueur Thibault, tout n'est pas encore clair, mais le gain de temps est énorme.
super, très belle explication. merci de prendre le temps de faire comprendre plutot que de juste apprendre par coeur.
Merci mec, chaque vidéo avec toi est un plaisir, sache que si un jour tu lances une formation détaillée pour apprendre plus en profondeur l'IA je serais prêt à l'acheter
Ca dépend quelle type de transfert learning tu souhaites faire ?
@@ThibaultNeveu Bonsoir, j'ai besoin des cours en Deep learning pour travailler sur la reconnaissance des espèces sur une Ortho Mosaic. Si je peux avoir ton contact pour t'écrire inbox, ça me fera plaisir. Merci
nickel , je dirais même que cela deviendra une référence pour comprendre en français ce que sont ces différentes fonctions d'activation
Excellent contenu !
Toujours excellent. Bravo et merci.
Bonjour, J'ai découvert ta chaine il y a quelques semaines et c'est vraiment très instructif! J'aime beaucoup ta façon d'expliquer et personnellement je trouve ça super clair! Merci pour tout le travail que tu fournis et courage pour la suite :)
Merci beaucoup pour votre vidéo, je connaissais jusque là la fonction sigmoïde, vous avez élargi mes horizons en matière de fonction d'activation.
J'ai cependant une question : je voudrais savoir si au niveau des hidden layers, est-ce qu'il serait possible de ne pas avoir la même fonction d'activation ? Je prends un exemple : si j'ai trois couches cachées, serait il possible d'avoir à la première couche une fonction sigmoïde, à la deuxième couche une fonction tanh et à la dernière couche une fonction relu????
Ulrich, oui, tu peux utiliser différentes fonctions d'activation. Simplement, le simulateur utilisé ici ne le permet pas.
Merci
MERCI
beau travail pour expliquer ces fonctions d'activation. Attention au vocabulaire cependant. On ne dit pas "tane ache" pour tanh mais "tangente hyperbolique". C'est son nom. De même les anglicisme du type "il faut scaler" au lieu de "il faut mettre à l'échelle" ça serait quand même bien de les éviter !
Harsimrat Singh yes !
Bonjour,
Est-ce qu'il existe une fonction tout ou rien ( x0 alors y=1) ?
Excellent en attendant, malgré que je tente de m’accrocher :)
Je ne crois pas mais à vérifier. Mais tu peux aussi en créer des custom :)
Bonjour,
La fonction que tu décris est le coût de classification 0-1.
Une bonne raison de ne PAS utiliser cette fonction d'activation est que lorsque tu calcule le gradient de ta fonction de coût, celui-ci vaut toujours 0, donc tu n'obtiens aucune direction vers laquelle te diriger pour faire l'optimisation.
(cette fonction d'activation a néanmoins un intérêt théorique très important, cf le principe de minimisation de risque empirique de Vapnik, une fois tweaké ça te donne les SVM par exemple)
La fonction step
Salut