...wird langsam mal Zeit für mein "coming out" ;) Ich lese bisher nur still mit. Zeit für ein fettes Lob auch von mir. Wie immer super einfach und ausführlich beschrieben, top! Bin selber bisher in A1111, chatGPT und co unterwegs und hab auch grade erst mit Comfy angefangen wegen XL turbo, SD video, etc. Du machst einem den Einstieg echt leicht! Vielen Dank.
Super Video. Danke für die Erklärungen.hatte Comfy bisher nicht installiert, weil ich Muffensausen hatte das meine A1111 Installation Schaden nimmt. Bei mir unter Linux Mint.👍
Super Video! Perfekt für den Einstieg! Ich hab zu spät mitbekommen, dass es auch ComfyUI gibt und habe davor mit Automatic1111 gearbeitet (ich finde Automatic1111 vom Aufbau nicht gerade intuitiv und etwas unübersichtlich). Ich bin jetzt froh, dass ich auf ComfyUI gestoßen bin, was wirklich richtig cool ist, da ich aus der SW-Entwicklung komme, ist der Aufbau mit Nodes für mich perfekt. Das coole ist, du hast mit diesem Video gleich mein nächstes Problem gelöst: Wie kann ich beide Web-UI's nutzen, ohne dass man die Models 2x in die entsprechenden Ordner packen muss. Richtig Mega! Bin auf die nächsten Videos sehr gespannt 🙂
Hallo Wossi, sehr schönes Tutorial mal wieder. Werde ich die Tage dann auch mal installieren. Gibt es auch die Möglichkeit über ComfyUI eine LoRA zu erstellen? Ich bekomme leider die 10 Monate alte LoRA Installation via Automatic1111 nicht hin. VG Uli
Echt Tolles Video und deine Samples sind spitze ! Irgendwie kann ich diese aber leider nicht entpacken :( Kommt immer "Die Datei kann nicht als Archiv geöffnet werden". Komischerweise ging es am Anfang (z.B. bei dreamshaper). Jetzt kann ich aber gar nichts mehr entpacken..
Vielen Dank für das Video, sehr informativ. Ich habe allerdings folgendes Problem, vielleicht könntest du mir helfen. Immer wenn ich ein Bild erstellen möchte geht es nicht es dauert zu lange und am Ende taucht folgender Fehler auf : Error occurred when executing KSampler: MPS backend out of memory (MPS allocated: 9.04 GB, other allocations: 1.12 MB, max allowed: 9.07 GB). Tried to allocate 50.00 MB on private pool. Use PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0 to disable upper limit for memory allocations (may cause system failure).
Nun, wie ich mich leider immer wieder bei solchen Fragen wiederholen muss: Was hast du für ein System/Hardware? Es können 1000 von Fehlern auftauchen. Mir bleibt auch hier nichts anderes übrig als deinen Fehler in Google einzugeben. Ansicht sollte es was mit zu wenig Vram zu tun haben. Google spuckt mir was über Probleme mit einem Mac aus womit ich mich nicht auskenne...
Hi Wossi, hast du ein Video dazu wie man eine Logik einbaut, sodass mehrere Prompts hintereinander ausgeführt werden können? Und dann entsprechend mehrere Iterationen pro Prompt Grüße
Dafür hatte ich bisher noch keine Verwendung. Sollte aber sicherlich möglich sein. Die Frage wäre, was du genau machen möchtest. Gibt ja noch die Möglichkeit Wildcards zu nutzten und auch einfach mehrere Prompts in dem Workflow laufen lassen.
@@wossi86 bspw. Um den seed oder das Referenz Bild gleich zu lassen und die Hintergrund Szenerie zu ändern. Bspw. beim Generieren von Menschen ODER abstrakte Kunst. Also ich habe sehr viele Fälle die interessant wären, vor allem da ich dann aus 100 Bildern 2 auswähle, also sehr selektiv bin. Es gibt ein repo von einem queue Regler aber der funktioniert bei mir 1. nicht und zweitens geht es fast schneller jede prompt manuell einzugeben. Aber es gibt auf jeden Fall viele Anwendungen die mir einfallen würden wo das durchaus Sinn ergibt. Was wäre das mit den Wildcards? Das wären mehrere prompts in ein Output nicht eine prompt pro Output richtig?
Ich denk mal, ich kann dazu nächste Woche was raus bringen. Ich muss mir aber noch die Wildcards Funktion bei ComfyUI anschauen. Kenn sie nur von A1111. Die Wildcard ist eine Text Datei in dem einzelne Begriffe stehen, wie z.B. Hintergründe (in a Cafe, in a park, on the street, in the City, usw...). Im Prompt steht dann an der Stelle nur der Name der Wildcard _wildcard/backgrounds_ . Bei A1111 konnte man dann einstellen, ob die ganze Wildcard nacheinander benutzt wird, eine gewisse Anzahl der Card benutzt wird oder nur ein Begriff zufällig aus der Card gewählt wird. Du kannst dann auch mehre Wildcards nutzen, z.B. welche für die Beleuchtung oder Kleidung usw. Bei ComfyUI kannst du ja dann oben bei der Queue bis zu 100 Wiederholungen einstellen. So könntest du dann schon eine tolle Vielfalt bekommen. Wenn du nun noch einfach in einem Workflow mehrere Generierungen hast, wie ich es hier in dem Video schon mal gezeigt habe (ua-cam.com/video/PQfcIN4PbOw/v-deo.html), dann kannst du entsprechend viele Bilder pro Queue erstellen und hast später eine große Auswahl. Hier muss man sagen, dass die Anwendung einfach grenzenlos ist, da man verschiedene Techniken so kombinieren kann. Bilder vermischen, regionale Prompts, Face Swaps usw. Dazu dann auch in Zukunft noch mehr, aber dauert leider alles ein wenig es vor zubereiten. Bin im Moment wieder bei paar Anfänger Guides für Automatic1111, sowie Tests zum LoRa Training.
Du hast vor längerem mal einen Link zu einer offline Künstlerdatenbank, kompatibel mit SD1.5 zum runterladen gepostet, ich kann das aber nicht mehr finden. Ich wäre extrem dankbar, wenn du den für mich noch mal posten würdest!!
Perfekt wie immer :) Vielen Dank für das Video und all deine anderen Videos. So gelingt der Einstieg in AI für mich. (Dylan Hunt)
Freut mich zu hören!😄
...wird langsam mal Zeit für mein "coming out" ;)
Ich lese bisher nur still mit.
Zeit für ein fettes Lob auch von mir. Wie immer super einfach und ausführlich beschrieben, top!
Bin selber bisher in A1111, chatGPT und co unterwegs und hab auch grade erst mit Comfy angefangen wegen XL turbo, SD video, etc.
Du machst einem den Einstieg echt leicht! Vielen Dank.
Tolles Video, super step by step Anleitung - weiter so!!
Ganz großes Kino :-) Sehr hilfreich und gut erklärt. Mein Abo hast du.
Vielen Dank! 😊
wow! vielen lieben Dank, mal wieder wirklich gut & nachvollziehbar erklärt alles :)
Super Erklärung Wossi, danke! Freue mich auf die nächsten Videos!
Schön, dass Du mal wieder was zum Thema generative K.I. machst. Weiter so!
sehr gut gemachtes video, vielen dank!
absolut geiles Video, Vielen Dank!!!
Super Video. Danke für die Erklärungen.hatte Comfy bisher nicht installiert, weil ich Muffensausen hatte das meine A1111 Installation Schaden nimmt. Bei mir unter Linux Mint.👍
Super Video! Perfekt für den Einstieg! Ich hab zu spät mitbekommen, dass es auch ComfyUI gibt und habe davor mit Automatic1111 gearbeitet (ich finde Automatic1111 vom Aufbau nicht gerade intuitiv und etwas unübersichtlich). Ich bin jetzt froh, dass ich auf ComfyUI gestoßen bin, was wirklich richtig cool ist, da ich aus der SW-Entwicklung komme, ist der Aufbau mit Nodes für mich perfekt. Das coole ist, du hast mit diesem Video gleich mein nächstes Problem gelöst: Wie kann ich beide Web-UI's nutzen, ohne dass man die Models 2x in die entsprechenden Ordner packen muss. Richtig Mega! Bin auf die nächsten Videos sehr gespannt 🙂
Sehr geil. Danke. Ich lass mal ein Abo da!
Danke! 😊
sehr gut erklärt, danke :-)
Vielen Dank,l super erklärt
super erklärt
ganz stark. aber wie installiere ich oder wo finde ich die vae?
Hallo Wossi, sehr schönes Tutorial mal wieder. Werde ich die Tage dann auch mal installieren. Gibt es auch die Möglichkeit über ComfyUI eine LoRA zu erstellen? Ich bekomme leider die 10 Monate alte LoRA Installation via Automatic1111 nicht hin. VG Uli
öhm, was meinst du mit LoRa erstellen? Eine trainieren mit Bildern? Oder eine extrahieren? In ComfyUI wirst du nur LoRas verwenden können.
Danke
Ist die Installation auch für Mac mit einem Intel Chip möglich?
hast du bereits mit dem IPAdapter auf comfy gearbeitet?
Echt Tolles Video und deine Samples sind spitze ! Irgendwie kann ich diese aber leider nicht entpacken :( Kommt immer "Die Datei kann nicht als Archiv geöffnet werden". Komischerweise ging es am Anfang (z.B. bei dreamshaper). Jetzt kann ich aber gar nichts mehr entpacken..
Meinst du .json Datein für die Workflows? Die sind eigentlich auch nicht gepackt 😅. Solltest du sein einfach in ComfyUI reinziehen/laden können.
ahaa ja die meine ich:) sorry mein Fehler, hab das Video nicht aufmerksam genug geschaut. Jtzt hat es funktioniert!@@wossi86
Vielen Dank für das Video, sehr informativ.
Ich habe allerdings folgendes Problem, vielleicht könntest du mir helfen.
Immer wenn ich ein Bild erstellen möchte geht es nicht es dauert zu lange und am Ende taucht folgender Fehler auf :
Error occurred when executing KSampler:
MPS backend out of memory (MPS allocated: 9.04 GB, other allocations: 1.12 MB, max allowed: 9.07 GB). Tried to allocate 50.00 MB on private pool. Use PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0 to disable upper limit for memory allocations (may cause system failure).
Nun, wie ich mich leider immer wieder bei solchen Fragen wiederholen muss: Was hast du für ein System/Hardware?
Es können 1000 von Fehlern auftauchen. Mir bleibt auch hier nichts anderes übrig als deinen Fehler in Google einzugeben.
Ansicht sollte es was mit zu wenig Vram zu tun haben. Google spuckt mir was über Probleme mit einem Mac aus womit ich mich nicht auskenne...
Hi Wossi,
hast du ein Video dazu wie man eine Logik einbaut, sodass mehrere Prompts hintereinander ausgeführt werden können? Und dann entsprechend mehrere Iterationen pro Prompt
Grüße
Dafür hatte ich bisher noch keine Verwendung. Sollte aber sicherlich möglich sein. Die Frage wäre, was du genau machen möchtest. Gibt ja noch die Möglichkeit Wildcards zu nutzten und auch einfach mehrere Prompts in dem Workflow laufen lassen.
@@wossi86 bspw. Um den seed oder das Referenz Bild gleich zu lassen und die Hintergrund Szenerie zu ändern. Bspw. beim Generieren von Menschen ODER abstrakte Kunst. Also ich habe sehr viele Fälle die interessant wären, vor allem da ich dann aus 100 Bildern 2 auswähle, also sehr selektiv bin.
Es gibt ein repo von einem queue Regler aber der funktioniert bei mir 1. nicht und zweitens geht es fast schneller jede prompt manuell einzugeben.
Aber es gibt auf jeden Fall viele Anwendungen die mir einfallen würden wo das durchaus Sinn ergibt.
Was wäre das mit den Wildcards? Das wären mehrere prompts in ein Output nicht eine prompt pro Output richtig?
Ich denk mal, ich kann dazu nächste Woche was raus bringen. Ich muss mir aber noch die Wildcards Funktion bei ComfyUI anschauen. Kenn sie nur von A1111. Die Wildcard ist eine Text Datei in dem einzelne Begriffe stehen, wie z.B. Hintergründe (in a Cafe, in a park, on the street, in the City, usw...). Im Prompt steht dann an der Stelle nur der Name der Wildcard _wildcard/backgrounds_ . Bei A1111 konnte man dann einstellen, ob die ganze Wildcard nacheinander benutzt wird, eine gewisse Anzahl der Card benutzt wird oder nur ein Begriff zufällig aus der Card gewählt wird.
Du kannst dann auch mehre Wildcards nutzen, z.B. welche für die Beleuchtung oder Kleidung usw.
Bei ComfyUI kannst du ja dann oben bei der Queue bis zu 100 Wiederholungen einstellen. So könntest du dann schon eine tolle Vielfalt bekommen.
Wenn du nun noch einfach in einem Workflow mehrere Generierungen hast, wie ich es hier in dem Video schon mal gezeigt habe (ua-cam.com/video/PQfcIN4PbOw/v-deo.html), dann kannst du entsprechend viele Bilder pro Queue erstellen und hast später eine große Auswahl.
Hier muss man sagen, dass die Anwendung einfach grenzenlos ist, da man verschiedene Techniken so kombinieren kann. Bilder vermischen, regionale Prompts, Face Swaps usw. Dazu dann auch in Zukunft noch mehr, aber dauert leider alles ein wenig es vor zubereiten. Bin im Moment wieder bei paar Anfänger Guides für Automatic1111, sowie Tests zum LoRa Training.
Das wäre super!!! Besten Dank!@@wossi86
Du hast vor längerem mal einen Link zu einer offline Künstlerdatenbank, kompatibel mit SD1.5 zum runterladen gepostet, ich kann das aber nicht mehr finden. Ich wäre extrem dankbar, wenn du den für mich noch mal posten würdest!!
huhu, müsste der Link hier sein: github.com/SupaGruen/StableDiffusion-CheatSheet