Ein wohlgesinntes Zuschauerfeedback: Wenn man die Strippen selber gezogen hat, dann fällt einem das wahrscheinlich kaum auf, zumal deine Nudeln sehr ordentlich aussehen... aber für die Nachvollziehbarkeit ist die von dir in den Einstellungen gewählte "Nudelform" eher ungünstig, da sich ja mehrere Nudeln oft horizontal oder vertikal auf einer Linie vereinen... dann kapiert man nicht mehr wo es her kam. Am besten, um schnell zu kapieren wo was hinläuft ist die Einstellung "Link render mode: linear" ist zwar weniger "ordentlich" aber dadurch dass die geradewegs zum Ziel verlaufen, auch ohne Kurven, kapiert man schneller. (-: (und gering-wichtige Kommentare helfen ja trotzdem dem Algo hier auf YT für deine guten Videos hier ;-)
Danke Dir für das Feedback. Ich hab's direkt mal ausprobiert, sieht wirklich besser nachvollziehbar aus. Ich werde es für die nächsten Videos mal auf linear lassen und vielleicht später in den Videos mal hin- und her wechseln. :)
@@ALatentPlace cool! ich verstehe natürlich auch das ästhetische Anliegen die Spagetti der Ordnung halber alle horizontal zu dressieren... kann ich nachvollzuehen... aber bei grössetrm Nudelsalat gehe ich lieber den Weg des Pragmatismus ;-)
I noticed this when I was inpainting, it also seems to become worse in quality, like it loses details, might also depend on the vae you use, but I kept inpainting over the previous inpaint result, over and over and eventually the image became really bad. Hopefully this gets fixed in an update because this shouldn't happen.
Wie meinst Du das mit dem Entfernen. Habe A1111 leider nicht oft benutzt. Im Prinzip ist es ja auch Inpainting, also die Stelle durch etwas anderes ersetzen.
@@ALatentPlace ich habs^^ ich muss nur grow mask auf 0 stellen und beim sampler auf fixed. ja hast recht um zb was zu enfernen zb ne maske einfach face eingeben und so und er macht es dann war bei a1111 anders danke für die antwort^^
Es ist mir auch aufgefallen, dass die Größe der resultierenden Bilder im Vergleich zum Original etwas unterschiedlich ist. Es sind zwar nur wenige Pixel, aber das reicht aus, sodass im Ergebnis zwischen dem markierten Bereich und dem Rest ein leichter Unterschied erkennbar ist, sodass Linien nicht mehr übereinstimmen und leicht verschoben sind. Wenn du möchtest, kann ich davon auch ein Video machen.
@@ALatentPlace Ich weiß nicht, warum die kleineren Abmessungen im oberen Ergebnis verbleiben und warum die ursprünglichen Abmessungen im unteren Ergebnis wiederhergestellt werden. Anscheinend passiert dies nur, wenn die Bildgröße größer als 512 x 512. Dies geschieht mit/ohne den Upscaler, den ich im Ergebnis unten eingeführt habe, im Ergebnis oben ist er deaktiviert. ua-cam.com/video/XszeBhmSzzA/v-deo.html
Interessant. Aber im oberen Beispiel benutzt Du die Image Blend By Mask Node, im unteren die Bounded Image Blend By Mask. Macht das vielleicht einen Unterschied? Latent Images können sich eigentlich auch nur in bestimmten Maaßen bewegen. Das sieht man, wenn man ein Empty Latent Image erstellen möchte. Dort kann man nur vorgefertigte Sprünge von Pixeln verwenden, eine wirkliche freie Eingabe ist nicht möglich. Vielleicht hat das intern auch Einfluss innerhalb der Sampler am Ende. Hmmm...
Ich habe bei den Inpaint-Fehlern so ein Bauchgefühl dass sie in eher in irgendeiner Grössenumrechnungs-Node ihren Ursprung haben, und nicht im Inpainting des Samplers. Wenn man die DAE wechselt ist natürlich mit Farbunterschieden zu rechnen... aber ansonsten sollte der Hintergrund gleich bleiben. Die Sache ist ja die, dass Masken hier oft getrennt von Bildern von node zu node geleitet werden... wenn da irgendwo ein Offset reinkommt dann gibts Stitchingfehlerkanten (bei mir hat es glücklicherweise ohne geklappt).
Natürlich sieht es viel besser aus und man muss möglicherweise kein Bildbearbeitungsprogramm mehr verwenden. Trotzdem ist das Problem mit A1111 nicht so extrem ist. Auch A1111 reduziert die Bildschärfe merklich, verändert das Bild aber nicht. Man muss das alles weiter verbessern, um auch dieses Problem zu lösen. Ich bin überrascht, dass niemand etwas darüber erwähnt hat. Deshalb dachte ich, dass das nur mir passiert ist, und ich konnte keine Lösung finden. Ich habe Midjourney nicht getestet, daher weiß ich nicht, wie es sich in diesem Fall verhält. Vielen Dank
Bin noch auf einen Reddit Post gestoßen. Da wurde diskutiert, dass A1111 anscheinend beide Varianten hat: Whole Image oder nur Masked Region. Im ComfyUI scheint derzeit aber nur das Whole Image integriert zu sein. Passieren wird das bestimmt jedem. Aber Dir ist es aufgefallen. ;) Ich war mir dessen auch noch nicht bewusst, bevor Du mich darauf aufmerksam gemacht hast.
@@ALatentPlace Das stimmt, aber ich fand das logisch, mir kam es schon seltsam vor, dass es in A1111 diese Option gibt. Wenn etwas markiert ist, dann möchte man nur in diesem Bereich Änderungen vornehmen. Zu deinem Beispiel habe ich einen Upscaler x1_Refocus_V3_140000_G.pth hinzugefügt, um das Bild zu verbessern, und das Ergebnis ist sehr gut. Jetzt teste ich eine Erweiterung für A1111 namens Inpaint Anything, die automatisch Segmente erstellt und verschiedene Teile des Bildes in verschiedenen Farben anzeigt (Segment Anything), sodass es einfacher ist, komplexere Masken zu erstellen. Der Nachteil ist, dass es extrem langsam ist. Vielen Dank
@@RSV9 Ja, stimmt. Man möchte nur den Part geändert haben, den man maskiert. Eventuell müssen wir für Comfy da noch etwas abwarten, bis es neue Node Alternativen oder Controlnets gibt. Gute Idee mit dem 1x Upscaler. Die hat man ja irgendwie nie so richtig auf dem Schirm, weil es keine richtigen Upscaler, sondern eher Bild Veränderer sind. Cooler Ansatz.
Ein wohlgesinntes Zuschauerfeedback: Wenn man die Strippen selber gezogen hat, dann fällt einem das wahrscheinlich kaum auf, zumal deine Nudeln sehr ordentlich aussehen... aber für die Nachvollziehbarkeit ist die von dir in den Einstellungen gewählte "Nudelform" eher ungünstig, da sich ja mehrere Nudeln oft horizontal oder vertikal auf einer Linie vereinen... dann kapiert man nicht mehr wo es her kam. Am besten, um schnell zu kapieren wo was hinläuft ist die Einstellung "Link render mode: linear" ist zwar weniger "ordentlich" aber dadurch dass die geradewegs zum Ziel verlaufen, auch ohne Kurven, kapiert man schneller. (-: (und gering-wichtige Kommentare helfen ja trotzdem dem Algo hier auf YT für deine guten Videos hier ;-)
Danke Dir für das Feedback. Ich hab's direkt mal ausprobiert, sieht wirklich besser nachvollziehbar aus. Ich werde es für die nächsten Videos mal auf linear lassen und vielleicht später in den Videos mal hin- und her wechseln. :)
@@ALatentPlace cool! ich verstehe natürlich auch das ästhetische Anliegen die Spagetti der Ordnung halber alle horizontal zu dressieren... kann ich nachvollzuehen... aber bei grössetrm Nudelsalat gehe ich lieber den Weg des Pragmatismus ;-)
Ik heb veel geleerd. Nu noem ik jou mijn leraar.
Bedankt! Het is fijn om te horen dat je veel hebt geleerd.
I noticed this when I was inpainting, it also seems to become worse in quality, like it loses details, might also depend on the vae you use, but I kept inpainting over the previous inpaint result, over and over and eventually the image became really bad. Hopefully this gets fixed in an update because this shouldn't happen.
Yah, something is strange with the Inpainting in Comfy. :/
ich hab mal ne frage wie kann man bei comfyUI sachen enfernen im bild? hab immer automatic1111 benutzt weiss nur nicht wie es bei comfy geht^^
Wie meinst Du das mit dem Entfernen. Habe A1111 leider nicht oft benutzt. Im Prinzip ist es ja auch Inpainting, also die Stelle durch etwas anderes ersetzen.
@@ALatentPlace ich habs^^ ich muss nur grow mask auf 0 stellen und beim sampler auf fixed. ja hast recht um zb was zu enfernen zb ne maske einfach face eingeben und so und er macht es dann war bei a1111 anders danke für die antwort^^
Es ist mir auch aufgefallen, dass die Größe der resultierenden Bilder im Vergleich zum Original etwas unterschiedlich ist. Es sind zwar nur wenige Pixel, aber das reicht aus, sodass im Ergebnis zwischen dem markierten Bereich und dem Rest ein leichter Unterschied erkennbar ist, sodass Linien nicht mehr übereinstimmen und leicht verschoben sind.
Wenn du möchtest, kann ich davon auch ein Video machen.
Ja, mach mal. Würde mich interessieren.
@@ALatentPlace Ich weiß nicht, warum die kleineren Abmessungen im oberen Ergebnis verbleiben und warum die ursprünglichen Abmessungen im unteren Ergebnis wiederhergestellt werden. Anscheinend passiert dies nur, wenn die Bildgröße größer als 512 x 512. Dies geschieht mit/ohne den Upscaler, den ich im Ergebnis unten eingeführt habe, im Ergebnis oben ist er deaktiviert.
ua-cam.com/video/XszeBhmSzzA/v-deo.html
Interessant. Aber im oberen Beispiel benutzt Du die Image Blend By Mask Node, im unteren die Bounded Image Blend By Mask. Macht das vielleicht einen Unterschied?
Latent Images können sich eigentlich auch nur in bestimmten Maaßen bewegen. Das sieht man, wenn man ein Empty Latent Image erstellen möchte. Dort kann man nur vorgefertigte Sprünge von Pixeln verwenden, eine wirkliche freie Eingabe ist nicht möglich. Vielleicht hat das intern auch Einfluss innerhalb der Sampler am Ende. Hmmm...
Ich habe bei den Inpaint-Fehlern so ein Bauchgefühl dass sie in eher in irgendeiner Grössenumrechnungs-Node ihren Ursprung haben, und nicht im Inpainting des Samplers. Wenn man die DAE wechselt ist natürlich mit Farbunterschieden zu rechnen... aber ansonsten sollte der Hintergrund gleich bleiben. Die Sache ist ja die, dass Masken hier oft getrennt von Bildern von node zu node geleitet werden... wenn da irgendwo ein Offset reinkommt dann gibts Stitchingfehlerkanten (bei mir hat es glücklicherweise ohne geklappt).
Natürlich sieht es viel besser aus und man muss möglicherweise kein Bildbearbeitungsprogramm mehr verwenden. Trotzdem ist das Problem mit A1111 nicht so extrem ist. Auch A1111 reduziert die Bildschärfe merklich, verändert das Bild aber nicht.
Man muss das alles weiter verbessern, um auch dieses Problem zu lösen. Ich bin überrascht, dass niemand etwas darüber erwähnt hat. Deshalb dachte ich, dass das nur mir passiert ist, und ich konnte keine Lösung finden. Ich habe Midjourney nicht getestet, daher weiß ich nicht, wie es sich in diesem Fall verhält.
Vielen Dank
Bin noch auf einen Reddit Post gestoßen. Da wurde diskutiert, dass A1111 anscheinend beide Varianten hat: Whole Image oder nur Masked Region. Im ComfyUI scheint derzeit aber nur das Whole Image integriert zu sein.
Passieren wird das bestimmt jedem. Aber Dir ist es aufgefallen. ;) Ich war mir dessen auch noch nicht bewusst, bevor Du mich darauf aufmerksam gemacht hast.
@@ALatentPlace Das stimmt, aber ich fand das logisch, mir kam es schon seltsam vor, dass es in A1111 diese Option gibt. Wenn etwas markiert ist, dann möchte man nur in diesem Bereich Änderungen vornehmen. Zu deinem Beispiel habe ich einen Upscaler x1_Refocus_V3_140000_G.pth hinzugefügt, um das Bild zu verbessern, und das Ergebnis ist sehr gut. Jetzt teste ich eine Erweiterung für A1111 namens Inpaint Anything, die automatisch Segmente erstellt und verschiedene Teile des Bildes in verschiedenen Farben anzeigt (Segment Anything), sodass es einfacher ist, komplexere Masken zu erstellen. Der Nachteil ist, dass es extrem langsam ist.
Vielen Dank
@@RSV9 Ja, stimmt. Man möchte nur den Part geändert haben, den man maskiert. Eventuell müssen wir für Comfy da noch etwas abwarten, bis es neue Node Alternativen oder Controlnets gibt. Gute Idee mit dem 1x Upscaler. Die hat man ja irgendwie nie so richtig auf dem Schirm, weil es keine richtigen Upscaler, sondern eher Bild Veränderer sind. Cooler Ansatz.