ComfyUI: Inpainting Trick 1 | Stable Diffusion | German | English Subtitles

Поділитися
Вставка

КОМЕНТАРІ • 20

  • @bobbyboe
    @bobbyboe Рік тому

    Ein wohlgesinntes Zuschauerfeedback: Wenn man die Strippen selber gezogen hat, dann fällt einem das wahrscheinlich kaum auf, zumal deine Nudeln sehr ordentlich aussehen... aber für die Nachvollziehbarkeit ist die von dir in den Einstellungen gewählte "Nudelform" eher ungünstig, da sich ja mehrere Nudeln oft horizontal oder vertikal auf einer Linie vereinen... dann kapiert man nicht mehr wo es her kam. Am besten, um schnell zu kapieren wo was hinläuft ist die Einstellung "Link render mode: linear" ist zwar weniger "ordentlich" aber dadurch dass die geradewegs zum Ziel verlaufen, auch ohne Kurven, kapiert man schneller. (-: (und gering-wichtige Kommentare helfen ja trotzdem dem Algo hier auf YT für deine guten Videos hier ;-)

    • @ALatentPlace
      @ALatentPlace  Рік тому +1

      Danke Dir für das Feedback. Ich hab's direkt mal ausprobiert, sieht wirklich besser nachvollziehbar aus. Ich werde es für die nächsten Videos mal auf linear lassen und vielleicht später in den Videos mal hin- und her wechseln. :)

    • @bobbyboe
      @bobbyboe Рік тому

      @@ALatentPlace cool! ich verstehe natürlich auch das ästhetische Anliegen die Spagetti der Ordnung halber alle horizontal zu dressieren... kann ich nachvollzuehen... aber bei grössetrm Nudelsalat gehe ich lieber den Weg des Pragmatismus ;-)

  •  Рік тому

    Ik heb veel geleerd. Nu noem ik jou mijn leraar.

    • @ALatentPlace
      @ALatentPlace  Рік тому

      Bedankt! Het is fijn om te horen dat je veel hebt geleerd.

  • @DoozyyTV
    @DoozyyTV Рік тому +1

    I noticed this when I was inpainting, it also seems to become worse in quality, like it loses details, might also depend on the vae you use, but I kept inpainting over the previous inpaint result, over and over and eventually the image became really bad. Hopefully this gets fixed in an update because this shouldn't happen.

    • @ALatentPlace
      @ALatentPlace  Рік тому +1

      Yah, something is strange with the Inpainting in Comfy. :/

  • @craiggywaiggy3704
    @craiggywaiggy3704 Рік тому

    ich hab mal ne frage wie kann man bei comfyUI sachen enfernen im bild? hab immer automatic1111 benutzt weiss nur nicht wie es bei comfy geht^^

    • @ALatentPlace
      @ALatentPlace  Рік тому

      Wie meinst Du das mit dem Entfernen. Habe A1111 leider nicht oft benutzt. Im Prinzip ist es ja auch Inpainting, also die Stelle durch etwas anderes ersetzen.

    • @craiggywaiggy3704
      @craiggywaiggy3704 Рік тому +1

      @@ALatentPlace ich habs^^ ich muss nur grow mask auf 0 stellen und beim sampler auf fixed. ja hast recht um zb was zu enfernen zb ne maske einfach face eingeben und so und er macht es dann war bei a1111 anders danke für die antwort^^

  • @RSV9
    @RSV9 Рік тому

    Es ist mir auch aufgefallen, dass die Größe der resultierenden Bilder im Vergleich zum Original etwas unterschiedlich ist. Es sind zwar nur wenige Pixel, aber das reicht aus, sodass im Ergebnis zwischen dem markierten Bereich und dem Rest ein leichter Unterschied erkennbar ist, sodass Linien nicht mehr übereinstimmen und leicht verschoben sind.
    Wenn du möchtest, kann ich davon auch ein Video machen.

    • @ALatentPlace
      @ALatentPlace  Рік тому

      Ja, mach mal. Würde mich interessieren.

    • @RSV9
      @RSV9 Рік тому

      @@ALatentPlace Ich weiß nicht, warum die kleineren Abmessungen im oberen Ergebnis verbleiben und warum die ursprünglichen Abmessungen im unteren Ergebnis wiederhergestellt werden. Anscheinend passiert dies nur, wenn die Bildgröße größer als 512 x 512. Dies geschieht mit/ohne den Upscaler, den ich im Ergebnis unten eingeführt habe, im Ergebnis oben ist er deaktiviert.
      ua-cam.com/video/XszeBhmSzzA/v-deo.html

    • @ALatentPlace
      @ALatentPlace  Рік тому

      Interessant. Aber im oberen Beispiel benutzt Du die Image Blend By Mask Node, im unteren die Bounded Image Blend By Mask. Macht das vielleicht einen Unterschied?
      Latent Images können sich eigentlich auch nur in bestimmten Maaßen bewegen. Das sieht man, wenn man ein Empty Latent Image erstellen möchte. Dort kann man nur vorgefertigte Sprünge von Pixeln verwenden, eine wirkliche freie Eingabe ist nicht möglich. Vielleicht hat das intern auch Einfluss innerhalb der Sampler am Ende. Hmmm...

    • @bobbyboe
      @bobbyboe Рік тому

      Ich habe bei den Inpaint-Fehlern so ein Bauchgefühl dass sie in eher in irgendeiner Grössenumrechnungs-Node ihren Ursprung haben, und nicht im Inpainting des Samplers. Wenn man die DAE wechselt ist natürlich mit Farbunterschieden zu rechnen... aber ansonsten sollte der Hintergrund gleich bleiben. Die Sache ist ja die, dass Masken hier oft getrennt von Bildern von node zu node geleitet werden... wenn da irgendwo ein Offset reinkommt dann gibts Stitchingfehlerkanten (bei mir hat es glücklicherweise ohne geklappt).

  • @RSV9
    @RSV9 Рік тому

    Natürlich sieht es viel besser aus und man muss möglicherweise kein Bildbearbeitungsprogramm mehr verwenden. Trotzdem ist das Problem mit A1111 nicht so extrem ist. Auch A1111 reduziert die Bildschärfe merklich, verändert das Bild aber nicht.
    Man muss das alles weiter verbessern, um auch dieses Problem zu lösen. Ich bin überrascht, dass niemand etwas darüber erwähnt hat. Deshalb dachte ich, dass das nur mir passiert ist, und ich konnte keine Lösung finden. Ich habe Midjourney nicht getestet, daher weiß ich nicht, wie es sich in diesem Fall verhält.
    Vielen Dank

    • @ALatentPlace
      @ALatentPlace  Рік тому +1

      Bin noch auf einen Reddit Post gestoßen. Da wurde diskutiert, dass A1111 anscheinend beide Varianten hat: Whole Image oder nur Masked Region. Im ComfyUI scheint derzeit aber nur das Whole Image integriert zu sein.
      Passieren wird das bestimmt jedem. Aber Dir ist es aufgefallen. ;) Ich war mir dessen auch noch nicht bewusst, bevor Du mich darauf aufmerksam gemacht hast.

    • @RSV9
      @RSV9 Рік тому

      @@ALatentPlace Das stimmt, aber ich fand das logisch, mir kam es schon seltsam vor, dass es in A1111 diese Option gibt. Wenn etwas markiert ist, dann möchte man nur in diesem Bereich Änderungen vornehmen. Zu deinem Beispiel habe ich einen Upscaler x1_Refocus_V3_140000_G.pth hinzugefügt, um das Bild zu verbessern, und das Ergebnis ist sehr gut. Jetzt teste ich eine Erweiterung für A1111 namens Inpaint Anything, die automatisch Segmente erstellt und verschiedene Teile des Bildes in verschiedenen Farben anzeigt (Segment Anything), sodass es einfacher ist, komplexere Masken zu erstellen. Der Nachteil ist, dass es extrem langsam ist.
      Vielen Dank

    • @ALatentPlace
      @ALatentPlace  Рік тому +1

      @@RSV9 Ja, stimmt. Man möchte nur den Part geändert haben, den man maskiert. Eventuell müssen wir für Comfy da noch etwas abwarten, bis es neue Node Alternativen oder Controlnets gibt. Gute Idee mit dem 1x Upscaler. Die hat man ja irgendwie nie so richtig auf dem Schirm, weil es keine richtigen Upscaler, sondern eher Bild Veränderer sind. Cooler Ansatz.