Après plusieurs mois sur A1111, grace à vos vidéos, je passe sur ComfyUI c'est effectivement bcq plus rapide, un peu plus complexe mais plus riche, ça vaut le coup. Merci
Merci pour votre vidéo ! Je découvre ComfyUI ces jours ci et à mon avis une des difficultés pour le débutant m'est apparue avec ce sujet de l'upscale : Bien sur.. ComfyUI évolue et s'améliore avec le temps et des nouvelles méthodes apparaissent régulièrement.... mais en plus de ça (et c'est particulièrement flagrant sur le sujet de l'upscale)... chaque utilisateur, chaque vidéo tuto a sa méthode personnelle ! 6 vidéos tutos sur l'upscale... 6 méthodes différentes :D du coup ça fait du bien de revoir les bases ici, avec comparatif... bon puis en plus en français, forcément ça aide. Merci !
c'est absolument étonnant mais je crains que celui qui n'a pas pris le premier train comme c'est mon cas, parce que ma machine ne peut pas suivre, ne pourra jamais refaire son retard sur le groupe de tête.... j'ai presque le vertige après avoir regardé attentivement le tuto que je ne peux même pas essayer de pratiquer en vrai, c'est vraiment affolant merci beaucoup
Bonjour, oui je suis tout à fait d'accord ! c'est pas facile du tout, il faut pas rater une étape et en plus il faut une machine de fou pour que cela fonctionne !
ComfyUI permet de faire certaines choses beaucoup plus rapidement que les autres interfaces (Automatic1111 ou InvokeAI). En utilisant votre tuto, j'ai pu comparer les méthodes d'agrandissement. Avec Imagesacle, il y a trois possibilités. Si cela ne change pas grand chose avec les portraits le paramètre bilinéaire est plus adapté au "lineArt". Il y a des différences entre les modèles d'upscale et parfois, il vaut mieux utiliser 2 fois 2X que 4X. Par contre agrandir avec ImageScale et beaucoup plus rapide qu'avec les modèles. En ce qui concerne le latent Upscale c'est encore plus lent et, à moins de mettre le denoise très bas il y a des différences dans les images qui peuvent être gênantes. Par contre, cette dernière méthode m'a donné une idée : ne pas utiliser le même modèle pour l'agrandissement, ce qui fait une nouvelle image. On pourrait même automatiser de l'image vers image en chainant les modèles et les prompts. C'est vraiment un plus créatif par rapport aux autres interfaces.
Clair et concis ! Est-ce que l'agrandissement en latent est l'équivalent dans Automatic1111 du "Seed Extra -> Upscale from widht / height scale" ? (j'ai pas A1111 devant les yeux, c'est approximatif 🤪) En tout cas, ça m’intéresse tout ça ! Il va falloir que je trouve un moyen de sortir une image pas dégueu entre 7382x5020 pixels et 12106 x 7382 sur une 2080 à 8Gb de VRAM. Si vous avez des astuces, je suis preneur 👍
Merci! Oui c'est ça. C'est possible (pour votre agrandissement) mais pas tout en latent upscale, car au bout d'une certaine taille c'est très gourmand. Le script SD Upscale dans automatic1111 peut vous aider en revanche car ça tronçonne le fichier avant de le réassembler. J'avais fait une vidéo sur ça.
@@aiandpixels Oui mes premiers essais ont l'air de montrer que je suis limité au 1024 x 1024 pour ce qui est du latent upscale, le 2048 me sort une erreur Cuda. Peut-être avec le paramètre --lowvram, je n'ai pas encore testé 🤷♂ Pareil, j'ai vu qu'il y avait une extension "VAE Tile" qui permet de découper l'image en plus petites parties, mais je ne sais pas si elle fonctionne avec "Seed extra". Je n'ai pas testé le script SD Upscale, je vais regarder ça ! Merci
Рік тому+1
Super, je connaissais pas ComfyUI et ça me plais bien car je suis habitué aux nodes en 3D / compositing. Le latent upscale (avec deux samplers) en gros c'est un ultimate SD upscale mais sans notion de tile, c'est ça ? Question existentielle, à l'heure actuelle, est il possible d'avoir le inpaint+lama dedans, le full controlnet comme dans A1111 et la notion de tile pour l'upscale ou bien c'est encore à la traine par rapport à A1111 ? Si identique, je vais passer à ComfyUI, j'adore les nodes, je les utilise depuis toujours dans mon travail (Dans Guerilla Render, Gaffer 3D, Blender, Davinci Resolve / Fusion, Nuke). Merci d'avance pour vos réponses.
J'ai installé ComfyUI et pour tester j'ai importé qq images faites sous A111. Ok, tous les noeuds sont bien créés... sauf, qu'à chaque fois il créé aussi une box "VAE" (why?), quelque soit le checkpoint utilisé dans A1111. Et comme il ne trouve pas de VAE, le rendu de l'image est impossible. C'est quoi et ça sert à quoi les VAE ? J'ai regardé sur Civitai, il n'y en pas beaucoup, et aucun dédié aux checkpoints. Pige pas également la fonction "Style" en haut à droite de A1111. Sert à enregistrer des configs apparement mais quelles configs ? Autre mystère. J'ai une RTX3060 12GB et je constate dans Task manager/performances que lors du calcul des images la Vram est bien souvent utilisée à 90-100% (parfois c'est 60-70%) mais le GPU lui reste à 1-3% sans pics ou raremenent àun pic à 20%. Pourtant les images sortent vite, environ 10s pour une 1024x512. ???? Au démarrage, aucune erreurs, xformers... done et pas d'erreurs avec CUDA SETUP Alors qu'en ouvrant juste Maps en mode satellite il pousse à 40% (pic max). Les cudas ne semblent pas être utilisés et je n'ai pas choisi cpu dans A1111. A tous, (sous Task manager) quelles sont les perfs et ref de votre GPU sous A111, pour info et comparaison ;)
@@aiandpixels et bien dommage.... il faut l'indiquer sur la vidéo ^^, Bon, tu as plus qu'à trouver comment faire maintenant et nous l'expliquer, aller hophophop ! Haha 😁 je rigole
Voici un lien pour le workflow de Latent Upscale drive.google.com/file/d/107in4u7n3QWVRFgnuLvhMlVjLDHKfotz/view?usp=sharing
Après plusieurs mois sur A1111, grace à vos vidéos, je passe sur ComfyUI c'est effectivement bcq plus rapide, un peu plus complexe mais plus riche, ça vaut le coup. Merci
Merci pour votre vidéo ! Je découvre ComfyUI ces jours ci et à mon avis une des difficultés pour le débutant m'est apparue avec ce sujet de l'upscale : Bien sur.. ComfyUI évolue et s'améliore avec le temps et des nouvelles méthodes apparaissent régulièrement.... mais en plus de ça (et c'est particulièrement flagrant sur le sujet de l'upscale)... chaque utilisateur, chaque vidéo tuto a sa méthode personnelle !
6 vidéos tutos sur l'upscale... 6 méthodes différentes :D
du coup ça fait du bien de revoir les bases ici, avec comparatif... bon puis en plus en français, forcément ça aide.
Merci !
Merci beaucoup, très intéressant comme tuto, je viens de débuter sur ComfyUI et je pense bien que vos vidéos vont m'être très utiles
Avec plaisir 🙂
Très intéressant ! Merci beaucoup :)
J'ai appris plein de choses.
c'est absolument étonnant mais je crains que celui qui n'a pas pris le premier train comme c'est mon cas, parce que ma machine ne peut pas suivre, ne pourra jamais refaire son retard sur le groupe de tête....
j'ai presque le vertige après avoir regardé attentivement le tuto que je ne peux même pas essayer de pratiquer en vrai, c'est vraiment affolant
merci beaucoup
Bonjour, oui je suis tout à fait d'accord ! c'est pas facile du tout, il faut pas rater une étape et en plus il faut une machine de fou pour que cela fonctionne !
Super vidéo, merci
Merci à toi 😊
ComfyUI permet de faire certaines choses beaucoup plus rapidement que les autres interfaces (Automatic1111 ou InvokeAI). En utilisant votre tuto, j'ai pu comparer les méthodes d'agrandissement. Avec Imagesacle, il y a trois possibilités. Si cela ne change pas grand chose avec les portraits le paramètre bilinéaire est plus adapté au "lineArt". Il y a des différences entre les modèles d'upscale et parfois, il vaut mieux utiliser 2 fois 2X que 4X. Par contre agrandir avec ImageScale et beaucoup plus rapide qu'avec les modèles. En ce qui concerne le latent Upscale c'est encore plus lent et, à moins de mettre le denoise très bas il y a des différences dans les images qui peuvent être gênantes. Par contre, cette dernière méthode m'a donné une idée : ne pas utiliser le même modèle pour l'agrandissement, ce qui fait une nouvelle image. On pourrait même automatiser de l'image vers image en chainant les modèles et les prompts. C'est vraiment un plus créatif par rapport aux autres interfaces.
Oui c'est exact, c'est un superbe outil !!
Je suis bien d'accord avec toi, tout semble plus claire avec cette interface :)
@@JeanDupont-x6j Il manque quelques nœuds intéressants. Mais pour certaines idées c'est beaucoup mieux.
Super, comme d'habitude 👍 Merci !
Merci Johan !
Clair et concis !
Est-ce que l'agrandissement en latent est l'équivalent dans Automatic1111 du "Seed Extra -> Upscale from widht / height scale" ? (j'ai pas A1111 devant les yeux, c'est approximatif 🤪)
En tout cas, ça m’intéresse tout ça ! Il va falloir que je trouve un moyen de sortir une image pas dégueu entre 7382x5020 pixels et 12106 x 7382 sur une 2080 à 8Gb de VRAM.
Si vous avez des astuces, je suis preneur 👍
Merci!
Oui c'est ça.
C'est possible (pour votre agrandissement) mais pas tout en latent upscale, car au bout d'une certaine taille c'est très gourmand. Le script SD Upscale dans automatic1111 peut vous aider en revanche car ça tronçonne le fichier avant de le réassembler. J'avais fait une vidéo sur ça.
@@aiandpixels Oui mes premiers essais ont l'air de montrer que je suis limité au 1024 x 1024 pour ce qui est du latent upscale, le 2048 me sort une erreur Cuda. Peut-être avec le paramètre --lowvram, je n'ai pas encore testé 🤷♂
Pareil, j'ai vu qu'il y avait une extension "VAE Tile" qui permet de découper l'image en plus petites parties, mais je ne sais pas si elle fonctionne avec "Seed extra".
Je n'ai pas testé le script SD Upscale, je vais regarder ça ! Merci
Super, je connaissais pas ComfyUI et ça me plais bien car je suis habitué aux nodes en 3D / compositing. Le latent upscale (avec deux samplers) en gros c'est un ultimate SD upscale mais sans notion de tile, c'est ça ? Question existentielle, à l'heure actuelle, est il possible d'avoir le inpaint+lama dedans, le full controlnet comme dans A1111 et la notion de tile pour l'upscale ou bien c'est encore à la traine par rapport à A1111 ? Si identique, je vais passer à ComfyUI, j'adore les nodes, je les utilise depuis toujours dans mon travail (Dans Guerilla Render, Gaffer 3D, Blender, Davinci Resolve / Fusion, Nuke). Merci d'avance pour vos réponses.
Bonjour, on peut utiliser ControlNet dans Comfy UI :)
ctrl+maj+v pour coller un node en conservant ses liens.
Si vous avez un PC à bout de souffle, pensez à appeler le 18 avant de lancer un prompt 😄
😄
J'ai installé ComfyUI et pour tester j'ai importé qq images faites sous A111. Ok, tous les noeuds sont bien créés... sauf, qu'à chaque fois il créé aussi une box "VAE" (why?), quelque soit le checkpoint utilisé dans A1111. Et comme il ne trouve pas de VAE, le rendu de l'image est impossible.
C'est quoi et ça sert à quoi les VAE ? J'ai regardé sur Civitai, il n'y en pas beaucoup, et aucun dédié aux checkpoints.
Pige pas également la fonction "Style" en haut à droite de A1111. Sert à enregistrer des configs apparement mais quelles configs ?
Autre mystère. J'ai une RTX3060 12GB et je constate dans Task manager/performances que lors du calcul des images la Vram est bien souvent utilisée à 90-100% (parfois c'est 60-70%) mais le GPU lui reste à 1-3% sans pics ou raremenent àun pic à 20%. Pourtant les images sortent vite, environ 10s pour une 1024x512. ???? Au démarrage, aucune erreurs, xformers... done et pas d'erreurs avec CUDA SETUP
Alors qu'en ouvrant juste Maps en mode satellite il pousse à 40% (pic max). Les cudas ne semblent pas être utilisés et je n'ai pas choisi cpu dans A1111.
A tous, (sous Task manager) quelles sont les perfs et ref de votre GPU sous A111, pour info et comparaison ;)
Il faut relier VAE Decode à LoadCheckpoint
@@aiandpixels Oui, j'ai fini par trouver :)
nice
Je comprends pas, pourquoi générer une image en 512 pour l'upscale en 1024, pourquoi ne pas la générer en 1024 directement ?
Par ce que ce model ne sait pas générer des images de cette taille.
7mn42 ta technique est obsolète ? impossible d'avoir un résultat net lors de l'agrandissement ... j'ai pleins de petit artefact chelou !
avec SDXL ?
@@aiandpixels même pas ! Avec des modèles tout à fait basique
@@Ribouli Effectivement je viens de tester et cela ne fonctionne plus.
@@aiandpixels et bien dommage.... il faut l'indiquer sur la vidéo ^^, Bon, tu as plus qu'à trouver comment faire maintenant et nous l'expliquer, aller hophophop ! Haha 😁 je rigole
@@Ribouli Essayez ça: drive.google.com/file/d/107in4u7n3QWVRFgnuLvhMlVjLDHKfotz/view?usp=sharing