Großes Lob an deine Videos. Klasse, wie du alle gleichermaßen - unabhängig vom Vorwissen - abholst und alles Punkt für Punkt erläuterst. 👌 Mitunter sind "Erklärvideos" nach folgendem Schema aufgebaut: "Wir fangen klein an: Zunächst brauchen wir einen Pinsel und etwas Ölfarbe [Schnitt] und schon haben wir die Mona Lisa nachgemalt". Deine Videos sind authentisch, unaufgeregt und nehmen sich nicht so ernst. Durch deine ComfyUI-Videos bin ich jetzt auch erst einmal weg von SD1111.
Fein gemacht! Deine Workflows sind klasse, tolle Arbeit. Die Infoboxen in den Workflows sind auch sehr nützlich. Würde mich riesig freuen, wenn Du auch mal ein Tutorial zum Facedetailer und Handdetailer inklusive Upscale machst. Meine Ergebnisse bei Personen im Full-Body-Portrait sind furchtbar. Bei Close-ups ist das weniger ein Problem. A1111 zickt da nicht so rum.
Hi, ich wollte mal fragen, wieso du im Upscaler Workflow 3x den Seed generator benutzt und nicht 1x und diesen dann mit allen 3 Samplern verbindest, gibt es dafür einen bestimmten Grund oder soll das nur der Übersichtlichkeit dienen ?
Ja wieder super erklärt, vielen Dank. Aber so langsam bekomme ich bauchschmerzen mit comfyUI. Es ist mir zu verwirrend. Ja man kann dadurch vieles machen, aber allein die kleine Schrift und dadurch das ständige scrollen. Und dann fast man etwas an, was man gar nicht will und verschiebt es. Ich sehne mich langsam wieder nach A1111, weil es halt übersichtlicher ist. 🤔
hmm, ist ja nur beim Aufbau so der Fall. Ich habe z.B. meine verschiedenen Workflows (also private, nicht die aus meinem Cloud Ordner) und dort stell ich nur an paar Nodes was ein, die ich alle im Blick habe. Bei einem Projekt wird so alles schon mit dem Workflow geladen (Checkpoint, ControlNET Einstellungen + Modell, Reactor für Faceswap mit entsprechenden Vorlage Bild). Muss da nur den Prompt verändern, bzw Wildcard angeben und kann direkt los legen. Wenn man natürlich solche eher komplexeren Workflows nicht nutzt, dann reicht natürlich A1111 😄
Toll wäre ein Sampler der mit solchen "tiles" arbeitet um grosse Bilder mit viel Inhalt zu Generieren... Die man dan Downscalen kann. Zum beispiel ein Bild mit 4-6 Personen in einer Totalen etc. sowas gibts nicht oder?
Deine Videos, Tutorials und Erklärungen haben mich wirklich beeindruckt! Vielen Dank, dass du deine Zeit und Erfahrung mit uns teilst. Ich möchte gerne einen individuellen Workflow für meine Bedürfnisse entwickeln, speziell für die konzeptionelle Erstellung in der Architektur. Leider habe ich bisher Schwierigkeiten gehabt, einen geeigneten Workflow zusammenzustellen. Mein Ziel ist es, realistische Fotos mit skizzierten Zeichnungen zu kombinieren, um Konzepte zu entwickeln. Kannst du mir dabei helfen, einen Workflow mit allen erforderlichen Checkpoints, nodes, usw. zu erstellen? Selbstverständlich bin ich bereit, deine Zeit und Arbeit angemessen zu unterstützen!
Hey wossi! Sehr coole Videos habe schon einiges durchgeschaut zum Thema ComfyUi. Ich komme aber nicht weiter bei einer Sache und zwar bei der Installation von UltimateSD ich kriege da immer diesen: (IMPORT FAILED) UltimateSDUpscale fehler angezeigt im Manager. Kriege das nicht zum laufen ähnlich bei Reactor. Weißt du woran das liegen könnte ? Oder bin ich einfach zu neu und mir fehlt irgendetwas ? lg
Huhu, bis her habe ich das Import Failed nur gehabt, wenn ein Zusatz, wie InsightFace fehlte. Mach in Verbindung mit UltimateSD kein Sinn, würde aber auf ReActor zutreffen. Dazu habe ich hier schon ein Video gemacht, da ich das gleiche Problem bei der portable Version von ComfyUI hatte: ua-cam.com/video/J0AMhoWPVAk/v-deo.html Ansonsten mal auf eine Fehlermeldung bei der Installation von UltimateSD achten. Einfach die Node nochmal neu installieren und dabei ins "Programm" schauen.
Danke wossi, cooles video. Wie würde ich denn vorgehen wenn ich ein Bild hochskalieren will, dass ich zum Beispiel mit dall-e in chatgpt generiert habe? Wie müsste der Input dann geändert werden?
Ich glaube, du könntest die Prompt versuchen leer zu lassen, bzw nur Qualität Begriffe verwenden. Bei kleineren Denoising Werten sollte er sich so gut an der Bildvorlage orientieren können. Muss ich aber bei Gelegenheit auch mal testen. 😄
Großes Lob an deine Videos. Klasse, wie du alle gleichermaßen - unabhängig vom Vorwissen - abholst und alles Punkt für Punkt erläuterst. 👌
Mitunter sind "Erklärvideos" nach folgendem Schema aufgebaut: "Wir fangen klein an: Zunächst brauchen wir einen Pinsel und etwas Ölfarbe [Schnitt] und schon haben wir die Mona Lisa nachgemalt". Deine Videos sind authentisch, unaufgeregt und nehmen sich nicht so ernst. Durch deine ComfyUI-Videos bin ich jetzt auch erst einmal weg von SD1111.
Fein gemacht! Deine Workflows sind klasse, tolle Arbeit. Die Infoboxen in den Workflows sind auch sehr nützlich. Würde mich riesig freuen, wenn Du auch mal ein Tutorial zum Facedetailer und Handdetailer inklusive Upscale machst. Meine Ergebnisse bei Personen im Full-Body-Portrait sind furchtbar. Bei Close-ups ist das weniger ein Problem. A1111 zickt da nicht so rum.
Danke!
Setze dein Wunsch mal auf die to do Liste 😄
Wieder ein top Video! Danke.
Hi, ich wollte mal fragen, wieso du im Upscaler Workflow 3x den Seed generator benutzt und nicht 1x und diesen dann mit allen 3 Samplern verbindest, gibt es dafür einen bestimmten Grund oder soll das nur der Übersichtlichkeit dienen ?
Ja wieder super erklärt, vielen Dank. Aber so langsam bekomme ich bauchschmerzen mit comfyUI. Es ist mir zu verwirrend. Ja man kann dadurch vieles machen, aber allein die kleine Schrift und dadurch das ständige scrollen. Und dann fast man etwas an, was man gar nicht will und verschiebt es. Ich sehne mich langsam wieder nach A1111, weil es halt übersichtlicher ist. 🤔
hmm, ist ja nur beim Aufbau so der Fall. Ich habe z.B. meine verschiedenen Workflows (also private, nicht die aus meinem Cloud Ordner) und dort stell ich nur an paar Nodes was ein, die ich alle im Blick habe.
Bei einem Projekt wird so alles schon mit dem Workflow geladen (Checkpoint, ControlNET Einstellungen + Modell, Reactor für Faceswap mit entsprechenden Vorlage Bild). Muss da nur den Prompt verändern, bzw Wildcard angeben und kann direkt los legen.
Wenn man natürlich solche eher komplexeren Workflows nicht nutzt, dann reicht natürlich A1111 😄
Toll wäre ein Sampler der mit solchen "tiles" arbeitet um grosse Bilder mit viel Inhalt zu Generieren... Die man dan Downscalen kann. Zum beispiel ein Bild mit 4-6 Personen in einer Totalen etc. sowas gibts nicht oder?
Deine Videos, Tutorials und Erklärungen haben mich wirklich beeindruckt! Vielen Dank, dass du deine Zeit und Erfahrung mit uns teilst. Ich möchte gerne einen individuellen Workflow für meine Bedürfnisse entwickeln, speziell für die konzeptionelle Erstellung in der Architektur. Leider habe ich bisher Schwierigkeiten gehabt, einen geeigneten Workflow zusammenzustellen. Mein Ziel ist es, realistische Fotos mit skizzierten Zeichnungen zu kombinieren, um Konzepte zu entwickeln. Kannst du mir dabei helfen, einen Workflow mit allen erforderlichen Checkpoints, nodes, usw. zu erstellen? Selbstverständlich bin ich bereit, deine Zeit und Arbeit angemessen zu unterstützen!
Hey wossi! Sehr coole Videos habe schon einiges durchgeschaut zum Thema ComfyUi. Ich komme aber nicht weiter bei einer Sache und zwar bei der Installation von UltimateSD ich kriege da immer diesen: (IMPORT FAILED) UltimateSDUpscale fehler angezeigt im Manager. Kriege das nicht zum laufen ähnlich bei Reactor. Weißt du woran das liegen könnte ? Oder bin ich einfach zu neu und mir fehlt irgendetwas ? lg
Huhu,
bis her habe ich das Import Failed nur gehabt, wenn ein Zusatz, wie InsightFace fehlte. Mach in Verbindung mit UltimateSD kein Sinn, würde aber auf ReActor zutreffen.
Dazu habe ich hier schon ein Video gemacht, da ich das gleiche Problem bei der portable Version von ComfyUI hatte: ua-cam.com/video/J0AMhoWPVAk/v-deo.html
Ansonsten mal auf eine Fehlermeldung bei der Installation von UltimateSD achten. Einfach die Node nochmal neu installieren und dabei ins "Programm" schauen.
Danke wossi, cooles video. Wie würde ich denn vorgehen wenn ich ein Bild hochskalieren will, dass ich zum Beispiel mit dall-e in chatgpt generiert habe? Wie müsste der Input dann geändert werden?
Ich glaube, du könntest die Prompt versuchen leer zu lassen, bzw nur Qualität Begriffe verwenden. Bei kleineren Denoising Werten sollte er sich so gut an der Bildvorlage orientieren können. Muss ich aber bei Gelegenheit auch mal testen. 😄
danke :)
Wie verhindert man, dass die Models jedes Mal neu geladen werden?
hmm, meinst du wirklich bei jeder Generierung oder bei dem Wechsel von einem Model? Das beim Wechsel wäre normal.