Intelligence Artificielle [12.4] : Apprentissage automatique - perceptron

Поділитися
Вставка
  • Опубліковано 28 січ 2025

КОМЕНТАРІ • 12

  • @supermonkey965
    @supermonkey965 7 років тому

    Un grand merci pour le perceptron !
    Le cours auquel j'avais assisté était un assez grand bazar de notations et de variables, votre vidéo explique très bien la globalité et tout est à sa place, du beau boulot. :)

  • @ediangonebadji7964
    @ediangonebadji7964 4 роки тому

    Merci Hugo!

  • @sergentjulien5208
    @sergentjulien5208 8 років тому

    Merci pour les cours, ils sont vraiment super et bien expliqués !
    Cependant sur cette leçon j'ai une question ou plutôt une incompréhension, pourquoi vous utilisez une information de biais de 1 et non -1 ? Puisque le biais est la valeur à atteindre ou dépasser pour que notre neurone soit actif, par conséquent si son coefficient est positif et son poids aussi, le biais ne fera pas office de "seuil" limite à dépasser mais comme une vraie information, d'où on a : Threshold(z) = 1 si z >= -b, or en logique on définirait plutôt une information à -1, pour avoir une logique ainsi : Threshold(z) = 1 si z >= b, puisqu'on aurait z = somme(w.x) - b.
    Merci d'avance et merci pour vos cours en tout cas.

    • @hugolarochelle
      @hugolarochelle  8 років тому +1

      Choisir 1 ou -1 comme valeur multiplicative du biais n'a pas d'importance. Effectivement, si on utilise x_{n+1}=1, imaginons que le perceptron apprenne une valeur de w_{n+1} = b. Si on avait plutôt utilisé x_{n+1} = -1, dans ce cas le perceptron pourrait simplement apprendre w_{n+1} = -b, pour obtenir exactement le même résultat.
      J'espère que ma réponse est utile!

    • @sergentjulien5208
      @sergentjulien5208 8 років тому

      Merci pour la réponse.
      Oui en effet c'est la logique que j'ai eu lors de votre explication, cependant tout m'a paru confus lors de la vidéo suivante ou b = 0.5 et vous utilisez toujours 1 comme donnée d'entrée pour le biais, par conséquent le biais ici ne fait plus office de "seuil" (in_j > b) par rapport à notre fonction Threshold ? D'ailleurs est-il toujours nécessaire dans le cas de réseaux de neurones utilisant la fonction Logistic ?

    • @hugolarochelle
      @hugolarochelle  8 років тому

      Hmm... désolé, je ne comprends pas ta question. C'est à dire, je ne comprends pas pourquoi tu mentionnes qu'avec b=0.5, le biais ne fait plus office de seuil avec lequel on compare w*x, lorsqu'on utilise la fonction "Threshold". Note d'ailleurs que le seuil implicite de comparaison est "-b" et non pas "b", i.e. on fait implicitement la comparaison w*x > -b .
      N'hésite pas à élaborer un peu plus ta confusion.

    • @sergentjulien5208
      @sergentjulien5208 8 років тому

      Je pense avoir compris la confusion, qui est en fait un problème de point de vue tout simplement. Dans ma logique, j'avais plutôt une vision du biais ainsi : x_{n + 1} = -1, b = 0.5, in = (Σw*x) - b, où en effet le biais était retiré puisque c'est son rôle de rendre le neurone actif ou non selon si la somme des entrées le dépasse. Ma confusion venait du fait que tu utilises b = 0.5 et x_{n + 1} = 1, ce qui donne : in = (Σw*x) + b, et comme b > 0, on effectue pas une soustraction afin de vérifier le "dépassement" de cette valeur pour que le neurone soit actif ou non, mais la logique reste la même si l'on compare w*b > -b en effet.
      J'espère avoir été un peu plus précis sur ma confusion. Voici les liens permettant d'expliquer cela : alp.developpez.com/tutoriels/intelligence-artificielle/reseaux-de-neurones/#LIII-1, et un peu plus loin dans le tuto (l'exemple avec 0.5) : alp.developpez.com/tutoriels/intelligence-artificielle/reseaux-de-neurones/#LIII-D
      Encore merci pour vos réponses.

  • @mihjabmustapha6848
    @mihjabmustapha6848 7 років тому

    bonjour merci bien pour les cours , est ce que je peut trouver des exercices avec courigès de reseau d neurone et mrc d'avance

    • @hugolarochelle
      @hugolarochelle  7 років тому +1

      Tu trouveras des exercices et certains examens même (certains avec corrigés) ici: info.usherbrooke.ca/hlarochelle/cours/ift615_E2013/contenu.html

    • @mihjabmustapha6848
      @mihjabmustapha6848 7 років тому +1

      Hugo Larochelle Merci bcp

  • @rachidsefraoui5195
    @rachidsefraoui5195 6 років тому

    très bien