Quelle fonction d’activation utiliser ? - Se former à Tensorflow 2.0 #9

Поділитися
Вставка
  • Опубліковано 1 січ 2025

КОМЕНТАРІ •

  • @Ayobox
    @Ayobox 3 роки тому

    Franchement bravo tu es meilleur que certain professeur d'université, clair et concis !

  • @pascalgandin2699
    @pascalgandin2699 5 місяців тому

    Bonne présentation, claire, concise...Bref continue !!! Abonné +=1 !

  • @lamialabed2866
    @lamialabed2866 3 роки тому

    Bravo Thibault ! très belle vulgarisation , j'apprécie énormément

  • @thomasp3428
    @thomasp3428 5 років тому

    T'es un tueur Thibault, tout n'est pas encore clair, mais le gain de temps est énorme.

  • @renemiche735
    @renemiche735 4 роки тому +1

    super, très belle explication. merci de prendre le temps de faire comprendre plutot que de juste apprendre par coeur.

  • @jesuisinconnu6899
    @jesuisinconnu6899 5 років тому +4

    Merci mec, chaque vidéo avec toi est un plaisir, sache que si un jour tu lances une formation détaillée pour apprendre plus en profondeur l'IA je serais prêt à l'acheter

    • @ThibaultNeveu
      @ThibaultNeveu  5 років тому

      Ca dépend quelle type de transfert learning tu souhaites faire ?

    • @aquilasfoundohou2448
      @aquilasfoundohou2448 4 роки тому

      @@ThibaultNeveu Bonsoir, j'ai besoin des cours en Deep learning pour travailler sur la reconnaissance des espèces sur une Ortho Mosaic. Si je peux avoir ton contact pour t'écrire inbox, ça me fera plaisir. Merci

  • @first5208
    @first5208 5 років тому

    nickel , je dirais même que cela deviendra une référence pour comprendre en français ce que sont ces différentes fonctions d'activation

  • @Maaouiamehdi
    @Maaouiamehdi 4 роки тому

    Excellent contenu !

  • @benjamindeporte3806
    @benjamindeporte3806 4 роки тому

    Toujours excellent. Bravo et merci.

  • @crimsay1350
    @crimsay1350 5 років тому +1

    Bonjour, J'ai découvert ta chaine il y a quelques semaines et c'est vraiment très instructif! J'aime beaucoup ta façon d'expliquer et personnellement je trouve ça super clair! Merci pour tout le travail que tu fournis et courage pour la suite :)

  • @ulrichglitho5524
    @ulrichglitho5524 2 роки тому

    Merci beaucoup pour votre vidéo, je connaissais jusque là la fonction sigmoïde, vous avez élargi mes horizons en matière de fonction d'activation.
    J'ai cependant une question : je voudrais savoir si au niveau des hidden layers, est-ce qu'il serait possible de ne pas avoir la même fonction d'activation ? Je prends un exemple : si j'ai trois couches cachées, serait il possible d'avoir à la première couche une fonction sigmoïde, à la deuxième couche une fonction tanh et à la dernière couche une fonction relu????

    •  2 роки тому

      Ulrich, oui, tu peux utiliser différentes fonctions d'activation. Simplement, le simulateur utilisé ici ne le permet pas.

  • @rachidhassani94
    @rachidhassani94 4 роки тому

    Merci

  • @Asma-vl6cb
    @Asma-vl6cb 5 років тому

    MERCI

  • @jmbdeblois
    @jmbdeblois 5 років тому +2

    beau travail pour expliquer ces fonctions d'activation. Attention au vocabulaire cependant. On ne dit pas "tane ache" pour tanh mais "tangente hyperbolique". C'est son nom. De même les anglicisme du type "il faut scaler" au lieu de "il faut mettre à l'échelle" ça serait quand même bien de les éviter !

  • @seb7863
    @seb7863 5 років тому

    Bonjour,
    Est-ce qu'il existe une fonction tout ou rien ( x0 alors y=1) ?
    Excellent en attendant, malgré que je tente de m’accrocher :)

    • @ThibaultNeveu
      @ThibaultNeveu  5 років тому

      Je ne crois pas mais à vérifier. Mais tu peux aussi en créer des custom :)

    • @CopainVG
      @CopainVG 5 років тому +2

      Bonjour,
      La fonction que tu décris est le coût de classification 0-1.
      Une bonne raison de ne PAS utiliser cette fonction d'activation est que lorsque tu calcule le gradient de ta fonction de coût, celui-ci vaut toujours 0, donc tu n'obtiens aucune direction vers laquelle te diriger pour faire l'optimisation.
      (cette fonction d'activation a néanmoins un intérêt théorique très important, cf le principe de minimisation de risque empirique de Vapnik, une fois tweaké ça te donne les SVM par exemple)

    • @nivektardpo5559
      @nivektardpo5559 5 років тому

      La fonction step

  • @oumardiagana6741
    @oumardiagana6741 Рік тому

    Salut