Vielen herzlichen Dank dass du etwas Klarheit in das Dickicht bringst. Ich hab extra gewartet auf dein Video, vorher fange ich gar nicht erst an. Ich bin dir auch sehr dankbar für deine ehrliche Meinung! super hilfreich!
Ich verstehe deine Kritik am Ende nicht. Deine Hardware ist einfach zu schwach, das kannst du doch den Entwicklern nicht ankreiden, die hier ein verdammt gutes Produkt gratis in die Welt werfen? Keiner zwingt dich, ein zu großes Model zu nutzen. Auf meiner 7900XTX läuft alles richtig rund.
Danke für das Feedback. :) Ich bin offen für eine gute Konversation, vielleicht kommst Du auf meinen Discord. Da kann man besser miteinander reden als über YT.
Yep. Flux ist ein enormer Qualitäts-Sprung und noch eine Generation weiter, dann werden sehr viele Aufgaben, die heute per Fotografie gelöst werden, per Prompt erledigt. Ich hab hier schon 20 LoRa´s von Gesichtern gerechnet und mit etwas Nacharbeit direkt in ComfyUI (latent upscale, denoise + Lora) geht das auch mit nur 5-6 Trainingsfotos als valide Fotografie durch. Klar, die Hardware ist jetzt noch ein Problem, aber in 2-3 Jahren ist das was man heute noch recht teuer bezahlen muss, auch Consumer-Standard.
Sehr ausführlich gefällt mir, bin über Markus Rößler ( Der Zerfleischer ) auf dich gestoßen. Hab mal ne runde Kaffee ausgegeben den ich denk mal hier werde ich viel lernen :)
Merci für das Video und vor allem den letzten Teil mit deiner Meinung zum Modell. Mein erster gedanke als ich mich etwas damit befasst hatte war auch - ja gut werde ich sowieso nicht benutzen können :D Finde man muss auch unabhängig von Flux, beobachten wie viel Zeit man zum Teil beim generieren für ein einziges Bild investiert bis es so raus kommt wie man sich das vorgestellt hat. Ich liebe es diese Modelle zu benutzen aber wirklich effizient bin ich persönlich leider noch nicht damit.
Hm, ich wechsle in meinen Workflows zwischen den großen Fluxmodellen, SDXL, GGUF und den Comfy Optimierten Modellen hin und her, mit ner 4080. Img2Img mit Flux über SDXL und umgekehrt... Keine Problem und weniger als eine Minute für generieren und optimieren.... Ihr solltet auf eueren Arbeitsspeicher achten 32 GB sind zu wenig um effektiv damit zu arbeiten.
Lora und civitai wäre noch eine gute Frage ob die Loras jetzt auf Dev oder auch für schnell geeignet sind, der Filter bei civitai findet bei Schnell 1 lora und bei dev massig
1:07:39 naja aus dem Grund haben sich halt aber auch viele bei XL schon eine 3090 gekauft, irgendwo is es halt auch son Ding mit Fortschritt und wen lässt man zurück. Ich seh das Problem eher im Schnell und Dev und dass Controllnet und Lora eben direkt die Dev Lizenz hat sprich nicht kommerziell nutzbar ist
Gebe dir vollkommen Recht, hoffe es kommt ein vernünftiges Modell raus um auch mit nicht High-End Modellen gut und schnell zu arbeiten. Hat bisschen geschmäckle 🤐
Das ist die Shape des normalen Empty Latents: [[1, 4, 64, 64]] Das die vom SD3 Empty Latent: [[1, 16, 128, 128]] Die 4 im ersten steht für RGBA, was die 16 Kanäle im SD3 genau bedeuten, keine Ahnung. :D
ich benutze die GGUF Variante darf ich fragen welche Grafikarte du hast ? Ich würde gerne die Zeiten vergleichen. Ich habe eine alte Tesla P100 16GB die braucht für den selben Prompt 5min 5sec
Vielen lieben Dank für dein tolles Video. Es ist natürlich Schade zu hören das es bei dir nicht Reibungslos läuft. Bei meinem System Ryzen 5600X, RTX 3060TI 8GB, 128 GB RAM und dieser ComfyUI Konfiguration (Unet Loader GGUF) -> flux1-dev-F16.gguf, (DualCLIPLoader GGUF) -> t5xxl_fp16, ViT-L-14-Text-detail-improved-hiT-GmP-TE, (Load LoRA) -> FLUX-dev-lora-add_details, (KSampler Advanced) -> 20 steps, Image Size 1024x1024 komme ich auf eine Model Ladezeit von 32 Sekunden sowie 79 Sekunden für die 20 Steps. Mit diesen Zeiten und den Ergebnissen die das Modell liefert bin ich absolut zufrieden, besonders schöne Bilder lasse ich dann einmal durch das Ultra-Sharp Model upscalen auf 2048x2048, dieser Schritt dauert zwar 4,5 Minuten aber das Ergebnis ist der Hammer. Der TaskManager zeigt wohl auch 64GB im Ram und 7.9 GB VRAM während der Laufzeit an. Dir noch viel Erfolg mit deinem Kanal.
Danke. :) Vielleicht ist auch mal an der Zeit für mich, eine neue Comfy Instanz aufzusetzen. In der Hoffnung, dass es dadurch stabiler wird. Nichtsdestotrotz beobachte in den Frust auch in unserer Discord Community, nachdem der erste Hype etwas nachgelassen hat.
15 днів тому
mit ner 3070 ti ist ok, aber nix gegen andere Modelle, bis auf text. Text wird auch für kleinere Modelle kommen. Es ist noch früh für flux. Optimierung wird kommen.
Sobald Du den Prompt änderst, wird das model komplett neu geladen. Das ist jedenfalls mein Eindruck. Wenn Du zwischen Flux und zum Beispiel SDXL wechselst und umgekehrt, werden die Zeiten unerträglich - auch mit einer 4090. Am besten ist Comfy neu laden und nur Flux-Modelle nutzen, wenn Du vorher mit SDXL gearbeitest hast. Übrigens gibt es ein Schnell FP8 was bei super funktioniert. Generell haben alle Flux Models Probleme mit vertikalen Bildern (mein EIndruck!). Horizontal ist unfassbar gut!
Meine Ansicht zum Podcast Anteil zum Schluss: Naja die Hardware Limitierung kann man nur begrenzt vermeiden. Bessere Ergebnisse werden sich mittelfristig nicht mehr ohne mehr Leistung erzielen lassen. Dass der Open Source Gedanke immer weiter weg fällt sehe ich leider auch so, das ist kritisch. Wir haben ein ähnliches Lizenzmodell wie bei SD3 am Anfang, aber der Aufschrei blieb dieses Mal aus. Damit wird das wieder normalisiert und künftigen Modellen der Weg geebnet. Ja derzeit ist eigentlich alles online FLUX. Ich hoffe das ändert sich wieder. Ich mag die Bilder zwar, aber bin mir nicht mehr sicher, wie sich das entwickeln wird. SD3 in gut wäre genial! Hoffen wir da mal auf das Beste... 8B wäre gar nicht nötig, einfach das bereits veröffentlichte in gut!
Das man die Hardware der benötigten Leistung im Laufe der Zeit anpassen muss lässt sich nicht vermeiden. Ist ähnlich wie im Gaming Bereich. Allerdings findet man im Gaming Bereich auf oft Anforderungen, die eigentlich erst mit der nächsten Hardware Generation erfüllt werden können. Bei FLUX besteht für mich der Gedanke, dass auch die nächste Generation nicht wirklich ausreichen wird. Das macht mir Sorgen. Du sprichst aber auch ein interessantes Thema mit den Lizenzen an. Nimm ein Model, welches augenscheinlich nicht so gute Bilder produziert (aka SD3 Medium, Woman lying on a green meadow), dann schreit auch jeder wegen der Lizenz und es werden Videos darüber gemacht. Nimm aber ein Model welches gute Bilder erzeugt (FLUX oder Kolors), dann schert sich kaum jemand um die Lizenzen.
@@ALatentPlace ja das stimmt, auch die nächste Generation gpus wird es da schwer haben... Die KI Anforderungen sind hier mal schneller als die Technik dazu 😂 Mich ärgert das ein wenig mit den Lizenzen, weil aktuell alle Energie der community in flux geht, wo nach sd3 noch die rede davon war Modelle weiter zu entwickeln, mit denen wir auch wirklich arbeiten dürfen und die Ergebnisse verwerten. Und jetzt ist civitai voll mit flux-dev models? Really? 😅 wirf den Leuten eine Karotte hin und die hohen Ziele sind vergessen...
wenn man die noise injection mit den gleichen samplern und schedulern verwendet (euler normal im Video) kommt dann nicht das gleiche raus wie wenn man einfach alle steps mit einem einzelnen euler sampler macht? ist vlt ne dumme Frage, ich riskiers mal :D dachte man wählt dann vlt eher einen anderen Karras oder 2M für den zweiten sampler
Ohne Noise Injection würde das das Ergbnis sein, ja. Da wir aber in das halbfertige Bild Noise, also Rauschen, injecten, entstehen beim Versuch des zweiten Sampler daraus etwas sinnvolles zu machen mehr Details.
Habe ich auch noch nicht probiert. Das kommt darauf an, ob das Model darauf trainiert wurde bzw. das Tagging entsprechend angewendet wurde. Ich mag Bokeh auch gerne. Aber problematisch ist es, wenn man es auch kontrolliert nicht weg bekommen kann.
F-Stop hat bei mir nichts geholfen. Was hilft, zumindest bilde ich mir das ein, ist, den Hintergrund etwas detailreicher zu beschreiben, dann wird dieser auch nicht so unscharf. Natürlich, bei einer weißen Wand im Hintergrund wird das auch nichts bringen ;)
Ja, das kann schon helfen. Bei SDXL war es aber angenehmer, da musste man den Bokeh im Prompt angeben und konnte es sogar mit der Gewichtung steuern. :D
Na ja, das konnte man natürlich auch zum Beginn von SD und dann SDXL Modells sagen. SD3 geht sicher in die gleiche Richtung. Apropo SD3...die sind ja auch nicht mehr ganz "Opensource". 😉 Die lokale Hardware ist immer das Problem. SDXL läuft auch nicht gut auf einer GTX 970. 😉 Der RAM ist auch mit entscheidend und wie hier schon gesagt wurde sind 32GB RAM zu wenig. 64 GB sollten es schon sein. Aber das sind die gleichen Spielchen, die bei aktuellen PC-Games auftreten. Frei nach der Devise: Wenn du Cyberpunk 2077 mit Pathtracing (flüssig) spielen willst, brauchste halt min. eine 4080. Wenn ich mir aber überlege, wie viele der Bilder welche bei SD und SDXL herauskommen schlecht sind, dann ist die etwas längere Wartezeit bei FLUX im Endeffekt genauso lang, oder sogar schneller und ohne extreme Verrenkungen beim Prompt und den Loras vornehmen zu müssen. Am Ende zählt nicht der "Durchsatz", sondern die Anzahl der Bilder die brauchbar ist. Noch ein Tipp: Verwende die Node "Clean GPU used" zwischen den einzelnen Berechnungsschritten, vor allem aber vor und falls mehr als einer verwendet wird, zwischen den Upscalern! Dies reduziert die Verwendung des VRAMs um bis zuu 50% und verhindert Überlauf und somit Hänger beim Upscalen!
12 Millionen? Ich las mal was von 12 Milliarden. SDXL soll 6 Milliarden haben. MacBook Prro M3 Max 36GB Flux1-dev 1700sec. = 28 Minuten Da bekommt man Zahnschmerzen, gell? 🙂
Ups, da ist tatsächlich ein wenig Kraut und Rüben passiert. Geistig war ich im Englischen "Billions", was auf Deutsch natürlich Milliarde bedeutet, nicht Billion. Danke für den Hinweis.
Vielen herzlichen Dank dass du etwas Klarheit in das Dickicht bringst. Ich hab extra gewartet auf dein Video, vorher fange ich gar nicht erst an. Ich bin dir auch sehr dankbar für deine ehrliche Meinung! super hilfreich!
Ich verstehe deine Kritik am Ende nicht. Deine Hardware ist einfach zu schwach, das kannst du doch den Entwicklern nicht ankreiden, die hier ein verdammt gutes Produkt gratis in die Welt werfen? Keiner zwingt dich, ein zu großes Model zu nutzen. Auf meiner 7900XTX läuft alles richtig rund.
Danke für das Feedback. :) Ich bin offen für eine gute Konversation, vielleicht kommst Du auf meinen Discord. Da kann man besser miteinander reden als über YT.
Yep. Flux ist ein enormer Qualitäts-Sprung und noch eine Generation weiter, dann werden sehr viele Aufgaben, die heute per Fotografie gelöst werden, per Prompt erledigt. Ich hab hier schon 20 LoRa´s von Gesichtern gerechnet und mit etwas Nacharbeit direkt in ComfyUI (latent upscale, denoise + Lora) geht das auch mit nur 5-6 Trainingsfotos als valide Fotografie durch. Klar, die Hardware ist jetzt noch ein Problem, aber in 2-3 Jahren ist das was man heute noch recht teuer bezahlen muss, auch Consumer-Standard.
Wow, endlich mal ein richtig gutes erklärbär Video gefunden. Mal schauen was es sonst noch so bei dir gibt 🙂
Viel Spaß beim Stöbern. :)
Sehr ausführlich gefällt mir, bin über Markus Rößler ( Der Zerfleischer ) auf dich gestoßen. Hab mal ne runde Kaffee ausgegeben den ich denk mal hier werde ich viel lernen :)
Vielen lieben Dank. :)
Merci für das Video und vor allem den letzten Teil mit deiner Meinung zum Modell. Mein erster gedanke als ich mich etwas damit befasst hatte war auch - ja gut werde ich sowieso nicht benutzen können :D Finde man muss auch unabhängig von Flux, beobachten wie viel Zeit man zum Teil beim generieren für ein einziges Bild investiert bis es so raus kommt wie man sich das vorgestellt hat. Ich liebe es diese Modelle zu benutzen aber wirklich effizient bin ich persönlich leider noch nicht damit.
Flux Dev Bilder sollen tatsächlich kommerziell nutzbar sein, nur das Model selber nicht gratis kommerziell eingebunden sein... oder so
Hm, ich wechsle in meinen Workflows zwischen den großen Fluxmodellen, SDXL, GGUF und den Comfy Optimierten Modellen hin und her, mit ner 4080. Img2Img mit Flux über SDXL und umgekehrt... Keine Problem und weniger als eine Minute für generieren und optimieren.... Ihr solltet auf eueren Arbeitsspeicher achten 32 GB sind zu wenig um effektiv damit zu arbeiten.
Lora und civitai wäre noch eine gute Frage ob die Loras jetzt auf Dev oder auch für schnell geeignet sind, der Filter bei civitai findet bei Schnell 1 lora und bei dev massig
1:07:39 naja aus dem Grund haben sich halt aber auch viele bei XL schon eine 3090 gekauft, irgendwo is es halt auch son Ding mit Fortschritt und wen lässt man zurück. Ich seh das Problem eher im Schnell und Dev und dass Controllnet und Lora eben direkt die Dev Lizenz hat sprich nicht kommerziell nutzbar ist
Gebe dir vollkommen Recht, hoffe es kommt ein vernünftiges Modell raus um auch mit nicht High-End Modellen gut und schnell zu arbeiten. Hat bisschen geschmäckle 🤐
super video!! könntest du vlt erklären was du bei 5:30 meinst mit channels?
Das ist die Shape des normalen Empty Latents: [[1, 4, 64, 64]]
Das die vom SD3 Empty Latent: [[1, 16, 128, 128]]
Die 4 im ersten steht für RGBA, was die 16 Kanäle im SD3 genau bedeuten, keine Ahnung. :D
@@ALatentPlace ich mach mich mal schlau, danke :)
ich benutze die GGUF Variante
darf ich fragen welche Grafikarte du hast ? Ich würde gerne die Zeiten vergleichen. Ich habe eine alte Tesla P100 16GB die braucht für den selben Prompt 5min 5sec
RTX 3080 hat er gesagt ... die hat offiziell 10 GB gemoddet gibt es die auch mit 20 GB
Vielen lieben Dank für dein tolles Video. Es ist natürlich Schade zu hören das es bei dir nicht Reibungslos läuft. Bei meinem System Ryzen 5600X, RTX 3060TI 8GB, 128 GB RAM und dieser ComfyUI Konfiguration (Unet Loader GGUF) -> flux1-dev-F16.gguf, (DualCLIPLoader GGUF) -> t5xxl_fp16, ViT-L-14-Text-detail-improved-hiT-GmP-TE, (Load LoRA) -> FLUX-dev-lora-add_details, (KSampler Advanced) -> 20 steps, Image Size 1024x1024 komme ich auf eine Model Ladezeit von 32 Sekunden sowie 79 Sekunden für die 20 Steps. Mit diesen Zeiten und den Ergebnissen die das Modell liefert bin ich absolut zufrieden, besonders schöne Bilder lasse ich dann einmal durch das Ultra-Sharp Model upscalen auf 2048x2048, dieser Schritt dauert zwar 4,5 Minuten aber das Ergebnis ist der Hammer. Der TaskManager zeigt wohl auch 64GB im Ram und 7.9 GB VRAM während der Laufzeit an. Dir noch viel Erfolg mit deinem Kanal.
Danke. :) Vielleicht ist auch mal an der Zeit für mich, eine neue Comfy Instanz aufzusetzen. In der Hoffnung, dass es dadurch stabiler wird. Nichtsdestotrotz beobachte in den Frust auch in unserer Discord Community, nachdem der erste Hype etwas nachgelassen hat.
mit ner 3070 ti ist ok, aber nix gegen andere Modelle, bis auf text. Text wird auch für kleinere Modelle kommen. Es ist noch früh für flux. Optimierung wird kommen.
Sobald Du den Prompt änderst, wird das model komplett neu geladen. Das ist jedenfalls mein Eindruck. Wenn Du zwischen Flux und zum Beispiel SDXL wechselst und umgekehrt, werden die Zeiten unerträglich - auch mit einer 4090. Am besten ist Comfy neu laden und nur Flux-Modelle nutzen, wenn Du vorher mit SDXL gearbeitest hast. Übrigens gibt es ein Schnell FP8 was bei super funktioniert. Generell haben alle Flux Models Probleme mit vertikalen Bildern (mein EIndruck!). Horizontal ist unfassbar gut!
Was wäre aktuell deine Empfehlung, wenn ich z.B. mittels FLUX einen Basis erstellen möchte und dann mit img2img er SDXL nochmal drüber möchte?
@@elessariel Flux schnell 8fp mit t5xxxl16fp clip und dann SDXL (gibt es ja einige gute Light Modelle)...
Meine Ansicht zum Podcast Anteil zum Schluss:
Naja die Hardware Limitierung kann man nur begrenzt vermeiden. Bessere Ergebnisse werden sich mittelfristig nicht mehr ohne mehr Leistung erzielen lassen.
Dass der Open Source Gedanke immer weiter weg fällt sehe ich leider auch so, das ist kritisch. Wir haben ein ähnliches Lizenzmodell wie bei SD3 am Anfang, aber der Aufschrei blieb dieses Mal aus. Damit wird das wieder normalisiert und künftigen Modellen der Weg geebnet.
Ja derzeit ist eigentlich alles online FLUX. Ich hoffe das ändert sich wieder. Ich mag die Bilder zwar, aber bin mir nicht mehr sicher, wie sich das entwickeln wird.
SD3 in gut wäre genial! Hoffen wir da mal auf das Beste... 8B wäre gar nicht nötig, einfach das bereits veröffentlichte in gut!
Das man die Hardware der benötigten Leistung im Laufe der Zeit anpassen muss lässt sich nicht vermeiden. Ist ähnlich wie im Gaming Bereich. Allerdings findet man im Gaming Bereich auf oft Anforderungen, die eigentlich erst mit der nächsten Hardware Generation erfüllt werden können. Bei FLUX besteht für mich der Gedanke, dass auch die nächste Generation nicht wirklich ausreichen wird. Das macht mir Sorgen.
Du sprichst aber auch ein interessantes Thema mit den Lizenzen an. Nimm ein Model, welches augenscheinlich nicht so gute Bilder produziert (aka SD3 Medium, Woman lying on a green meadow), dann schreit auch jeder wegen der Lizenz und es werden Videos darüber gemacht. Nimm aber ein Model welches gute Bilder erzeugt (FLUX oder Kolors), dann schert sich kaum jemand um die Lizenzen.
@@ALatentPlace ja das stimmt, auch die nächste Generation gpus wird es da schwer haben... Die KI Anforderungen sind hier mal schneller als die Technik dazu 😂
Mich ärgert das ein wenig mit den Lizenzen, weil aktuell alle Energie der community in flux geht, wo nach sd3 noch die rede davon war Modelle weiter zu entwickeln, mit denen wir auch wirklich arbeiten dürfen und die Ergebnisse verwerten. Und jetzt ist civitai voll mit flux-dev models? Really? 😅 wirf den Leuten eine Karotte hin und die hohen Ziele sind vergessen...
wenn man die noise injection mit den gleichen samplern und schedulern verwendet (euler normal im Video) kommt dann nicht das gleiche raus wie wenn man einfach alle steps mit einem einzelnen euler sampler macht? ist vlt ne dumme Frage, ich riskiers mal :D dachte man wählt dann vlt eher einen anderen Karras oder 2M für den zweiten sampler
Ohne Noise Injection würde das das Ergbnis sein, ja. Da wir aber in das halbfertige Bild Noise, also Rauschen, injecten, entstehen beim Versuch des zweiten Sampler daraus etwas sinnvolles zu machen mehr Details.
@@ALatentPlace nochmal mit frischem brain den Kommentar gelesen. stimmt, macht Sinn :D
good, How do you show a yellow folders in NODE (Checkpoint)
This is coming from the rgthree custom node collection.
@@ALatentPlace thanks so much
yeah, ich hab was geschnallt. Ich habe bei der negativ node direkt geschrien :-)
Ich stecke noch rel. neu in der Materie und wollte euren Discordserver beitreten. Gibt es einen auch für die deutsche Community?
Es gibt eine rein deutschsprachige Sektion auf dem Server.
@@ALatentPlace Danke. Ich schau dann mal vorbei.
Könnten wir das Bokeh evtl über "f-stop 9" oder so beheben? Hab es bisher nicht probiert weil ich den Look sehr mag...
Habe ich auch noch nicht probiert. Das kommt darauf an, ob das Model darauf trainiert wurde bzw. das Tagging entsprechend angewendet wurde. Ich mag Bokeh auch gerne. Aber problematisch ist es, wenn man es auch kontrolliert nicht weg bekommen kann.
@@ALatentPlace Klar, das tagging ist dafür Voraussetzung.
F-Stop hat bei mir nichts geholfen. Was hilft, zumindest bilde ich mir das ein, ist, den Hintergrund etwas detailreicher zu beschreiben, dann wird dieser auch nicht so unscharf. Natürlich, bei einer weißen Wand im Hintergrund wird das auch nichts bringen ;)
Ja, das kann schon helfen. Bei SDXL war es aber angenehmer, da musste man den Bokeh im Prompt angeben und konnte es sogar mit der Gewichtung steuern. :D
Na ja, das konnte man natürlich auch zum Beginn von SD und dann SDXL Modells sagen. SD3 geht sicher in die gleiche Richtung.
Apropo SD3...die sind ja auch nicht mehr ganz "Opensource". 😉
Die lokale Hardware ist immer das Problem. SDXL läuft auch nicht gut auf einer GTX 970. 😉
Der RAM ist auch mit entscheidend und wie hier schon gesagt wurde sind 32GB RAM zu wenig. 64 GB sollten es schon sein.
Aber das sind die gleichen Spielchen, die bei aktuellen PC-Games auftreten.
Frei nach der Devise: Wenn du Cyberpunk 2077 mit Pathtracing (flüssig) spielen willst, brauchste halt min. eine 4080.
Wenn ich mir aber überlege, wie viele der Bilder welche bei SD und SDXL herauskommen schlecht sind, dann ist die etwas längere Wartezeit bei FLUX im Endeffekt genauso lang, oder sogar schneller und ohne extreme Verrenkungen beim Prompt und den Loras vornehmen zu müssen.
Am Ende zählt nicht der "Durchsatz", sondern die Anzahl der Bilder die brauchbar ist.
Noch ein Tipp: Verwende die Node "Clean GPU used" zwischen den einzelnen Berechnungsschritten, vor allem aber vor und falls mehr als einer verwendet wird, zwischen den Upscalern!
Dies reduziert die Verwendung des VRAMs um bis zuu 50% und verhindert Überlauf und somit Hänger beim Upscalen!
kannst du deinen reduzierten Dev-Workflow vielleicht doch noch auf den Server schmeissen?
Bitte schön: www.alatentplace.de/download/wf/flux_dev_simple.json
@@ALatentPlace danke schön 💛
@@ALatentPlace Feedback zur Geschwindigkeit von genau dem DEV-Workflow von dir: RTX3060 12GB: 2Minuten pro Bild
meine 3060 schafft leider nur Flux Schnell :(
quick and dirty hauptsache erster. So sieht es bei xlab leider aus. Warte wohl eher auf andere Entwickler. Ist echt mist.
Der IP-Adapter ist wirklich schlecht. Ich hoffe sehr, dass Matteo sich dieser Sache annimmt.
Er wartet derzeit auf ein besseres Model des IPAs, bevor er mit einer Implementierung anfangen möchte.
12 Millionen? Ich las mal was von 12 Milliarden. SDXL soll 6 Milliarden haben.
MacBook Prro M3 Max 36GB Flux1-dev 1700sec. = 28 Minuten
Da bekommt man Zahnschmerzen, gell? 🙂
Ups, da ist tatsächlich ein wenig Kraut und Rüben passiert. Geistig war ich im Englischen "Billions", was auf Deutsch natürlich Milliarde bedeutet, nicht Billion. Danke für den Hinweis.
@@ALatentPlace Super Video und vor allem Schlusswort. Optisch erkennt man oft die Flux-Bilder. Testen kann ich es allerdings gar nicht (siehe Zeiten)