6:44 sur apprentissage, overfitting 7:30 on gèle l'apprentissage de certaines couches de réseaux de neurones, puis on rajoute des couches soit en sortie , soit on fait un nouveau réseaux et on fusionne les sorties ... plein de solution, je suis débutant Avec des graphs, c'est plus simple de comprendre comment ca marche.
c'est de la sélection naturelle , un vaisseau viens par hasard au monde un peut moins con , et ceux qui sont trop cons meurent pour être remplacés par ses enfants mieux adapté a la tache . et ainsi de suite . quand a savoir pourquoi au bout d 'un moment il désapprend comme tu dit , a mon avis c'est juste qu'une fois que les réseaux de neurones sont trop nombreux ils ce parasites , il faut donc un max de paramètres originels et en même temps qu'il apprend la tache lui donner les moyens d'apprendre à déterminer l'entropie minimale du modèle qui lui permettra d'arriver au résultat . Donc il faudrait entrainer plusieurs milliers ou millions de modèles à la même tache et à partir des dit modèles entrainer un modèle qui détermine la meilleure entropie et s'en servir pour être le régulateur d'un modèle qui s'entraine à la première tache . Enfin c'est ma théorie de branleur qui n'a jamais foutu les pieds dans du code ^^ , mais je trouve que ça ce tien logiquement ;)
DeepL pour traduire (deep learning aussi). Sinon le fond des vidéos est plus important que la forme, donc pour moi c'est intéressant. Le son et bon, l'image aussi, c'est suffisant pour moi.
Tranquille la programmation sans les point-virgules, d'ailleurs les deux langages les plus utilisés (Python et JavaScript) n'en utilise pas ! Ne te casse pas la tête avec les codeurs hardcore de C ou de C++ qui pense être les seuls à faire de la "vraie" programmation, ils sont vieille école et sont chiants, personne ne les aiment ne t'inquiète pas.
Perso je pense que c'est une bonne chose d'avoir ce genre de video plutot que rien, on est pas obligé de regarder si ca nous interesse pas, et si ca nous interesse, on peut aussi apprendre également des differentes eventuelles erreurs qui ne sont pas effacées au montage ce qui est d'autant plus enrichissant qu'une vidéo lissée où ce que tu y fais sera difficilement reproductible par qqun d'autre et si on veut en parler ds les coms, ca change des forums où beaucoups de viewers passent bcp moins...
Salut, les très ancien sont toujours la ^^ Fait comme ça te plait de le faire, tant que Google a pas encore décidé que c'était quelque chose d'illégal de faire comme ça. Persos, je préfère ça que d'avoir une doublure ou une version de vous au rabais pour faire "professionnel", même quand tu n'est pratiquement pas connus ni fort diffusé, parlé de truc compliqué pendant 3h de vidéo alors que cela reste dans le même thème, ils sont 3 a rester pour visionner, autant faire comme suit, entre une chaine sans activité qui fait zéro vue, ou une chaine qui fait long et compliqué, des séminaires de chercheurs sur un sujet qui passionne et digne d'intérêt a 15 intéressé, ça fait 15 intéressé qui ne sont pas juste des "viewers" ou des "fans" qui sont des hypocrites et qui en réalité s'en branle de qui tu est, "soit qui tu est tant que tu propose ce qui a moi me plait" voila le nouveau Slogan de Alphabet/google/youtube.
Pour les ";" ça dépend des langages mais les puristes hurleront au sacrilège =) malgré tout, certains langages ont des conventions où la norme est de ne plus les mettre , c'est un monde de fou!
Pour ce qui est du « sur-apprentissage » ou « overfitting », ce n’est pas tant que le programme devient stupide, mais qu’il ne sait plus généraliser ce qu’il a appris. A force de l’entrainer sur certaines données, il devient excellent pour trater ces données spécifiques, mais moins pour généraliser. Par exemple, si on veut entrainer un réseau à détecter des visages sur des photos passeport, l’overfitting correspond au moment où il sait davantage reconnaitre les photos passeport et non les visages qui sont dessus.
Content de te revoir Amiral Jean Luc Picard! 🙂
Je debarque des vidéos d'il y a sept ans... bien vu la coupe !
6:44 sur apprentissage, overfitting
7:30 on gèle l'apprentissage de certaines couches de réseaux de neurones, puis on rajoute des couches soit en sortie , soit on fait un nouveau réseaux et on fusionne les sorties ... plein de solution, je suis débutant
Avec des graphs, c'est plus simple de comprendre comment ca marche.
Top de te revoir c'est grâce à vous que je me suis lancé à monter m'on propre pc !
Parfait 👌 On attend la suite maintenant 😁
He bein voila !!! Le retour!!! C super les gars!!
c'est de la sélection naturelle , un vaisseau viens par hasard au monde un peut moins con , et ceux qui sont trop cons meurent pour être remplacés par ses enfants mieux adapté a la tache . et ainsi de suite . quand a savoir pourquoi au bout d 'un moment il désapprend comme tu dit , a mon avis c'est juste qu'une fois que les réseaux de neurones sont trop nombreux ils ce parasites , il faut donc un max de paramètres originels et en même temps qu'il apprend la tache lui donner les moyens d'apprendre à déterminer l'entropie minimale du modèle qui lui permettra d'arriver au résultat . Donc il faudrait entrainer plusieurs milliers ou millions de modèles à la même tache et à partir des dit modèles entrainer un modèle qui détermine la meilleure entropie et s'en servir pour être le régulateur d'un modèle qui s'entraine à la première tache . Enfin c'est ma théorie de branleur qui n'a jamais foutu les pieds dans du code ^^ , mais je trouve que ça ce tien logiquement ;)
DeepL pour traduire (deep learning aussi).
Sinon le fond des vidéos est plus important que la forme, donc pour moi c'est intéressant.
Le son et bon, l'image aussi, c'est suffisant pour moi.
C pas mal comme nouveaux style
De vidéos sa me rappelle un peut *electronikheart*!! C cool!!!
yes une vidéo sur game maker :D
T’as raison ! La Professionnalisation de UA-cam c’est de la merde
Super vidéo bon boulot 👋
Tranquille la programmation sans les point-virgules, d'ailleurs les deux langages les plus utilisés (Python et JavaScript) n'en utilise pas ! Ne te casse pas la tête avec les codeurs hardcore de C ou de C++ qui pense être les seuls à faire de la "vraie" programmation, ils sont vieille école et sont chiants, personne ne les aiment ne t'inquiète pas.
Perso je pense que c'est une bonne chose d'avoir ce genre de video plutot que rien, on est pas obligé de regarder si ca nous interesse pas, et si ca nous interesse, on peut aussi apprendre également des differentes eventuelles erreurs qui ne sont pas effacées au montage ce qui est d'autant plus enrichissant qu'une vidéo lissée où ce que tu y fais sera difficilement reproductible par qqun d'autre et si on veut en parler ds les coms, ca change des forums où beaucoups de viewers passent bcp moins...
Salut, les très ancien sont toujours la ^^
Fait comme ça te plait de le faire, tant que Google a pas encore décidé que c'était quelque chose d'illégal de faire comme ça.
Persos, je préfère ça que d'avoir une doublure ou une version de vous au rabais pour faire "professionnel", même quand tu n'est pratiquement pas connus ni fort diffusé, parlé de truc compliqué pendant 3h de vidéo alors que cela reste dans le même thème, ils sont 3 a rester pour visionner, autant faire comme suit, entre une chaine sans activité qui fait zéro vue, ou une chaine qui fait long et compliqué, des séminaires de chercheurs sur un sujet qui passionne et digne d'intérêt a 15 intéressé, ça fait 15 intéressé qui ne sont pas juste des "viewers" ou des "fans" qui sont des hypocrites et qui en réalité s'en branle de qui tu est, "soit qui tu est tant que tu propose ce qui a moi me plait" voila le nouveau Slogan de Alphabet/google/youtube.
En tout cas, je suis pressé de connaitre les découvertes que tu as fait sur le sujet !
Bonjour, ça fait longtemps... Je t'ai pas reconnu au départ... Ça va bien ?
Ca va ^^
Y a pas de soucis de mon côté aussi
Pour les ";" ça dépend des langages mais les puristes hurleront au sacrilège =) malgré tout, certains langages ont des conventions où la norme est de ne plus les mettre , c'est un monde de fou!
Pour ce qui est du « sur-apprentissage » ou « overfitting », ce n’est pas tant que le programme devient stupide, mais qu’il ne sait plus généraliser ce qu’il a appris. A force de l’entrainer sur certaines données, il devient excellent pour trater ces données spécifiques, mais moins pour généraliser. Par exemple, si on veut entrainer un réseau à détecter des visages sur des photos passeport, l’overfitting correspond au moment où il sait davantage reconnaitre les photos passeport et non les visages qui sont dessus.