L'algorithme derrière Midjourney : Comprendre les modèles de diffusion

Поділитися
Вставка
  • Опубліковано 28 вер 2024

КОМЕНТАРІ • 20

  • @Jujukatrevinkatorze
    @Jujukatrevinkatorze 6 місяців тому

    Merci, très clair !

  • @fredouille_3735
    @fredouille_3735 8 місяців тому

    Trop bien, de la vulga mais un peu dans les maths quand même, j'adore.

  • @bricesiou1572
    @bricesiou1572 Рік тому

    Merci

  • @balb4903
    @balb4903 Рік тому

    Est ce qu'il a un lien avec les modèles de prédictions de séries temporelles ? Et si non quels sont les meilleurs modèles pour cela ?

    • @ThibaultNeveu
      @ThibaultNeveu  Рік тому

      Pas directement non, voir mes videos sur les LSTM/RNN

    • @balb4903
      @balb4903 Рік тому

      @@ThibaultNeveu D'accord merci pour la réponse

  • @filmseries9582
    @filmseries9582 4 місяці тому

    ✊🏴‍☠

  • @Arkonis1
    @Arkonis1 8 місяців тому

    Merci pour la vidéo. Très bonne explication du DDPM. Par contre il manque une explication sur le conditionnement: classifier (free) guidance et cross attention entre autre pour expliquer un algo comme stable diffusion (je crois que midjourney est similaire).

    • @ThibaultNeveu
      @ThibaultNeveu  8 місяців тому

      La suite est dans ma longue liste de TODO haha !

  • @eo3432
    @eo3432 10 місяців тому

    Merci !

  • @sebastienclement3235
    @sebastienclement3235 Рік тому +1

    Très intéressant. Par contre à quel moment et de quelle manière le prompt est il utilisé pour guider le processus de debruitage ?

    • @ThibaultNeveu
      @ThibaultNeveu  Рік тому +3

      Ce sera le sujet d'une prochaine vidéo ☺️

  • @Bencurlis
    @Bencurlis Рік тому

    C'est un avis purement personnel mais la diffusion ne parait pas satisfaisante comme solution pour échantillonner. Je trouve ça pas très intuitif que ajouter un type précis de bruit (gaussien en l’occurrence) puisse produire des échantillons de la vraie distribution. A priori n'importe quel type de distribution pourrait fonctionner et même certainement certaines seraient bien plus adaptées pour les images par exemple. Par contre j'ai bien compris que la raison pour laquelle on utilise une gaussienne est que ça à de belles propriétés mathématiques et permet une optimization de l'entraînement. Pour ces raisons les GANs me paraissent plus généraux et satisfaisant, à part pour leur côté difficile à entraîner.

  • @RomainPierlot314
    @RomainPierlot314 Рік тому

    J'adorees ces videos de vulgarisation de modeles connus et poussés ! J'espere en voir davantage :)
    Merci a toi !

  • @kaxxamhinna5044
    @kaxxamhinna5044 Рік тому

    Merci beaucoup pour ta vidéo. Merci aussi pour les sources. STP continue à nous régaler ⚡👌👍👍

  • @Youkouleleh
    @Youkouleleh Рік тому

    Je crois que tu as une erreur vers 13:47. Tu dis que pour optimiser Lsimple, le réseau prédit le bruit pour passer de t-1 à t.
    C'est plus le bruit rajouté pour passer de x0 à xt (donc de 0 à t).
    Tu le vois peut être mieux dans l'ago d'entrainement, quand tu samples expsilon, tu l'appliques bien sur x0 et pas sur x_{t-1}.

    • @ThibaultNeveu
      @ThibaultNeveu  Рік тому

      C'est une bonne remarque, les deux sont correcte sans préciser mathématique de quoi on parle exactement. Dans l'algo d'entrainement le bruit prédit est en effet celui samplé pour passer de 0 a t mais il est en revanche utilisé pour calculer x_t-1 sachant x_t

  • @MoiFust
    @MoiFust Рік тому

    Superbe vidéo félicitation pour le travail de vulgarisation

  • @tomhavy
    @tomhavy Рік тому

    Très clair , merci !