ComfyUI: FLUX - My 48.9 Cents | German

Поділитися
Вставка
  • Опубліковано 19 вер 2024

КОМЕНТАРІ • 55

  • @bobbyboe
    @bobbyboe 16 днів тому +3

    Vielen herzlichen Dank dass du etwas Klarheit in das Dickicht bringst. Ich hab extra gewartet auf dein Video, vorher fange ich gar nicht erst an. Ich bin dir auch sehr dankbar für deine ehrliche Meinung! super hilfreich!

  • @W00PIE
    @W00PIE 16 днів тому +7

    Ich verstehe deine Kritik am Ende nicht. Deine Hardware ist einfach zu schwach, das kannst du doch den Entwicklern nicht ankreiden, die hier ein verdammt gutes Produkt gratis in die Welt werfen? Keiner zwingt dich, ein zu großes Model zu nutzen. Auf meiner 7900XTX läuft alles richtig rund.

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Danke für das Feedback. :) Ich bin offen für eine gute Konversation, vielleicht kommst Du auf meinen Discord. Da kann man besser miteinander reden als über YT.

    • @matze2001
      @matze2001 15 днів тому +1

      Yep. Flux ist ein enormer Qualitäts-Sprung und noch eine Generation weiter, dann werden sehr viele Aufgaben, die heute per Fotografie gelöst werden, per Prompt erledigt. Ich hab hier schon 20 LoRa´s von Gesichtern gerechnet und mit etwas Nacharbeit direkt in ComfyUI (latent upscale, denoise + Lora) geht das auch mit nur 5-6 Trainingsfotos als valide Fotografie durch. Klar, die Hardware ist jetzt noch ein Problem, aber in 2-3 Jahren ist das was man heute noch recht teuer bezahlen muss, auch Consumer-Standard.

  • @Wicked-0815
    @Wicked-0815 7 днів тому +1

    Wow, endlich mal ein richtig gutes erklärbär Video gefunden. Mal schauen was es sonst noch so bei dir gibt 🙂

  • @DerRaucherDE
    @DerRaucherDE 6 днів тому

    Sehr ausführlich gefällt mir, bin über Markus Rößler ( Der Zerfleischer ) auf dich gestoßen. Hab mal ne runde Kaffee ausgegeben den ich denk mal hier werde ich viel lernen :)

  • @dompom8416
    @dompom8416 16 днів тому +1

    Merci für das Video und vor allem den letzten Teil mit deiner Meinung zum Modell. Mein erster gedanke als ich mich etwas damit befasst hatte war auch - ja gut werde ich sowieso nicht benutzen können :D Finde man muss auch unabhängig von Flux, beobachten wie viel Zeit man zum Teil beim generieren für ein einziges Bild investiert bis es so raus kommt wie man sich das vorgestellt hat. Ich liebe es diese Modelle zu benutzen aber wirklich effizient bin ich persönlich leider noch nicht damit.

  • @sebastianmuller1624
    @sebastianmuller1624 16 днів тому +1

    Flux Dev Bilder sollen tatsächlich kommerziell nutzbar sein, nur das Model selber nicht gratis kommerziell eingebunden sein... oder so

  • @murphylanga
    @murphylanga 16 днів тому

    Hm, ich wechsle in meinen Workflows zwischen den großen Fluxmodellen, SDXL, GGUF und den Comfy Optimierten Modellen hin und her, mit ner 4080. Img2Img mit Flux über SDXL und umgekehrt... Keine Problem und weniger als eine Minute für generieren und optimieren.... Ihr solltet auf eueren Arbeitsspeicher achten 32 GB sind zu wenig um effektiv damit zu arbeiten.

  • @Stefan188x
    @Stefan188x 15 днів тому

    Lora und civitai wäre noch eine gute Frage ob die Loras jetzt auf Dev oder auch für schnell geeignet sind, der Filter bei civitai findet bei Schnell 1 lora und bei dev massig

  • @Stefan188x
    @Stefan188x 15 днів тому

    1:07:39 naja aus dem Grund haben sich halt aber auch viele bei XL schon eine 3090 gekauft, irgendwo is es halt auch son Ding mit Fortschritt und wen lässt man zurück. Ich seh das Problem eher im Schnell und Dev und dass Controllnet und Lora eben direkt die Dev Lizenz hat sprich nicht kommerziell nutzbar ist

  • @pk.9436
    @pk.9436 16 днів тому

    Gebe dir vollkommen Recht, hoffe es kommt ein vernünftiges Modell raus um auch mit nicht High-End Modellen gut und schnell zu arbeiten. Hat bisschen geschmäckle 🤐

  • @juliana.2120
    @juliana.2120 9 днів тому

    super video!! könntest du vlt erklären was du bei 5:30 meinst mit channels?

    • @ALatentPlace
      @ALatentPlace  8 днів тому +1

      Das ist die Shape des normalen Empty Latents: [[1, 4, 64, 64]]
      Das die vom SD3 Empty Latent: [[1, 16, 128, 128]]
      Die 4 im ersten steht für RGBA, was die 16 Kanäle im SD3 genau bedeuten, keine Ahnung. :D

    • @juliana.2120
      @juliana.2120 7 днів тому

      @@ALatentPlace ich mach mich mal schlau, danke :)

  • @Jim1Dean
    @Jim1Dean 16 днів тому

    ich benutze die GGUF Variante
    darf ich fragen welche Grafikarte du hast ? Ich würde gerne die Zeiten vergleichen. Ich habe eine alte Tesla P100 16GB die braucht für den selben Prompt 5min 5sec

    • @bodo2567
      @bodo2567 15 днів тому

      RTX 3080 hat er gesagt ... die hat offiziell 10 GB gemoddet gibt es die auch mit 20 GB

  • @DTD-vc3nv
    @DTD-vc3nv 16 днів тому +1

    Vielen lieben Dank für dein tolles Video. Es ist natürlich Schade zu hören das es bei dir nicht Reibungslos läuft. Bei meinem System Ryzen 5600X, RTX 3060TI 8GB, 128 GB RAM und dieser ComfyUI Konfiguration (Unet Loader GGUF) -> flux1-dev-F16.gguf, (DualCLIPLoader GGUF) -> t5xxl_fp16, ViT-L-14-Text-detail-improved-hiT-GmP-TE, (Load LoRA) -> FLUX-dev-lora-add_details, (KSampler Advanced) -> 20 steps, Image Size 1024x1024 komme ich auf eine Model Ladezeit von 32 Sekunden sowie 79 Sekunden für die 20 Steps. Mit diesen Zeiten und den Ergebnissen die das Modell liefert bin ich absolut zufrieden, besonders schöne Bilder lasse ich dann einmal durch das Ultra-Sharp Model upscalen auf 2048x2048, dieser Schritt dauert zwar 4,5 Minuten aber das Ergebnis ist der Hammer. Der TaskManager zeigt wohl auch 64GB im Ram und 7.9 GB VRAM während der Laufzeit an. Dir noch viel Erfolg mit deinem Kanal.

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Danke. :) Vielleicht ist auch mal an der Zeit für mich, eine neue Comfy Instanz aufzusetzen. In der Hoffnung, dass es dadurch stabiler wird. Nichtsdestotrotz beobachte in den Frust auch in unserer Discord Community, nachdem der erste Hype etwas nachgelassen hat.

  •  15 днів тому

    mit ner 3070 ti ist ok, aber nix gegen andere Modelle, bis auf text. Text wird auch für kleinere Modelle kommen. Es ist noch früh für flux. Optimierung wird kommen.

  • @OnePikki
    @OnePikki 16 днів тому +1

    Sobald Du den Prompt änderst, wird das model komplett neu geladen. Das ist jedenfalls mein Eindruck. Wenn Du zwischen Flux und zum Beispiel SDXL wechselst und umgekehrt, werden die Zeiten unerträglich - auch mit einer 4090. Am besten ist Comfy neu laden und nur Flux-Modelle nutzen, wenn Du vorher mit SDXL gearbeitest hast. Übrigens gibt es ein Schnell FP8 was bei super funktioniert. Generell haben alle Flux Models Probleme mit vertikalen Bildern (mein EIndruck!). Horizontal ist unfassbar gut!

    • @elessariel
      @elessariel 16 днів тому +1

      Was wäre aktuell deine Empfehlung, wenn ich z.B. mittels FLUX einen Basis erstellen möchte und dann mit img2img er SDXL nochmal drüber möchte?

    • @OnePikki
      @OnePikki 16 днів тому

      @@elessariel Flux schnell 8fp mit t5xxxl16fp clip und dann SDXL (gibt es ja einige gute Light Modelle)...

  • @sirmeon1231
    @sirmeon1231 16 днів тому

    Meine Ansicht zum Podcast Anteil zum Schluss:
    Naja die Hardware Limitierung kann man nur begrenzt vermeiden. Bessere Ergebnisse werden sich mittelfristig nicht mehr ohne mehr Leistung erzielen lassen.
    Dass der Open Source Gedanke immer weiter weg fällt sehe ich leider auch so, das ist kritisch. Wir haben ein ähnliches Lizenzmodell wie bei SD3 am Anfang, aber der Aufschrei blieb dieses Mal aus. Damit wird das wieder normalisiert und künftigen Modellen der Weg geebnet.
    Ja derzeit ist eigentlich alles online FLUX. Ich hoffe das ändert sich wieder. Ich mag die Bilder zwar, aber bin mir nicht mehr sicher, wie sich das entwickeln wird.
    SD3 in gut wäre genial! Hoffen wir da mal auf das Beste... 8B wäre gar nicht nötig, einfach das bereits veröffentlichte in gut!

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Das man die Hardware der benötigten Leistung im Laufe der Zeit anpassen muss lässt sich nicht vermeiden. Ist ähnlich wie im Gaming Bereich. Allerdings findet man im Gaming Bereich auf oft Anforderungen, die eigentlich erst mit der nächsten Hardware Generation erfüllt werden können. Bei FLUX besteht für mich der Gedanke, dass auch die nächste Generation nicht wirklich ausreichen wird. Das macht mir Sorgen.
      Du sprichst aber auch ein interessantes Thema mit den Lizenzen an. Nimm ein Model, welches augenscheinlich nicht so gute Bilder produziert (aka SD3 Medium, Woman lying on a green meadow), dann schreit auch jeder wegen der Lizenz und es werden Videos darüber gemacht. Nimm aber ein Model welches gute Bilder erzeugt (FLUX oder Kolors), dann schert sich kaum jemand um die Lizenzen.

    • @sirmeon1231
      @sirmeon1231 16 днів тому

      @@ALatentPlace ja das stimmt, auch die nächste Generation gpus wird es da schwer haben... Die KI Anforderungen sind hier mal schneller als die Technik dazu 😂
      Mich ärgert das ein wenig mit den Lizenzen, weil aktuell alle Energie der community in flux geht, wo nach sd3 noch die rede davon war Modelle weiter zu entwickeln, mit denen wir auch wirklich arbeiten dürfen und die Ergebnisse verwerten. Und jetzt ist civitai voll mit flux-dev models? Really? 😅 wirf den Leuten eine Karotte hin und die hohen Ziele sind vergessen...

  • @juliana.2120
    @juliana.2120 9 днів тому

    wenn man die noise injection mit den gleichen samplern und schedulern verwendet (euler normal im Video) kommt dann nicht das gleiche raus wie wenn man einfach alle steps mit einem einzelnen euler sampler macht? ist vlt ne dumme Frage, ich riskiers mal :D dachte man wählt dann vlt eher einen anderen Karras oder 2M für den zweiten sampler

    • @ALatentPlace
      @ALatentPlace  8 днів тому +1

      Ohne Noise Injection würde das das Ergbnis sein, ja. Da wir aber in das halbfertige Bild Noise, also Rauschen, injecten, entstehen beim Versuch des zweiten Sampler daraus etwas sinnvolles zu machen mehr Details.

    • @juliana.2120
      @juliana.2120 7 днів тому

      @@ALatentPlace nochmal mit frischem brain den Kommentar gelesen. stimmt, macht Sinn :D

  • @zraieee
    @zraieee 16 днів тому

    good, How do you show a yellow folders in NODE (Checkpoint)

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      This is coming from the rgthree custom node collection.

    • @zraieee
      @zraieee 16 днів тому

      @@ALatentPlace thanks so much

  •  15 днів тому

    yeah, ich hab was geschnallt. Ich habe bei der negativ node direkt geschrien :-)

  • @dashebi1759
    @dashebi1759 12 днів тому

    Ich stecke noch rel. neu in der Materie und wollte euren Discordserver beitreten. Gibt es einen auch für die deutsche Community?

    • @ALatentPlace
      @ALatentPlace  12 днів тому

      Es gibt eine rein deutschsprachige Sektion auf dem Server.

    • @dashebi1759
      @dashebi1759 12 днів тому

      @@ALatentPlace Danke. Ich schau dann mal vorbei.

  • @sirmeon1231
    @sirmeon1231 16 днів тому

    Könnten wir das Bokeh evtl über "f-stop 9" oder so beheben? Hab es bisher nicht probiert weil ich den Look sehr mag...

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Habe ich auch noch nicht probiert. Das kommt darauf an, ob das Model darauf trainiert wurde bzw. das Tagging entsprechend angewendet wurde. Ich mag Bokeh auch gerne. Aber problematisch ist es, wenn man es auch kontrolliert nicht weg bekommen kann.

    • @sirmeon1231
      @sirmeon1231 16 днів тому

      @@ALatentPlace Klar, das tagging ist dafür Voraussetzung.

    • @nikomedia
      @nikomedia 16 днів тому +2

      F-Stop hat bei mir nichts geholfen. Was hilft, zumindest bilde ich mir das ein, ist, den Hintergrund etwas detailreicher zu beschreiben, dann wird dieser auch nicht so unscharf. Natürlich, bei einer weißen Wand im Hintergrund wird das auch nichts bringen ;)

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Ja, das kann schon helfen. Bei SDXL war es aber angenehmer, da musste man den Bokeh im Prompt angeben und konnte es sogar mit der Gewichtung steuern. :D

  • @DakrWingDuck
    @DakrWingDuck 3 дні тому

    Na ja, das konnte man natürlich auch zum Beginn von SD und dann SDXL Modells sagen. SD3 geht sicher in die gleiche Richtung.
    Apropo SD3...die sind ja auch nicht mehr ganz "Opensource". 😉
    Die lokale Hardware ist immer das Problem. SDXL läuft auch nicht gut auf einer GTX 970. 😉
    Der RAM ist auch mit entscheidend und wie hier schon gesagt wurde sind 32GB RAM zu wenig. 64 GB sollten es schon sein.
    Aber das sind die gleichen Spielchen, die bei aktuellen PC-Games auftreten.
    Frei nach der Devise: Wenn du Cyberpunk 2077 mit Pathtracing (flüssig) spielen willst, brauchste halt min. eine 4080.
    Wenn ich mir aber überlege, wie viele der Bilder welche bei SD und SDXL herauskommen schlecht sind, dann ist die etwas längere Wartezeit bei FLUX im Endeffekt genauso lang, oder sogar schneller und ohne extreme Verrenkungen beim Prompt und den Loras vornehmen zu müssen.
    Am Ende zählt nicht der "Durchsatz", sondern die Anzahl der Bilder die brauchbar ist.
    Noch ein Tipp: Verwende die Node "Clean GPU used" zwischen den einzelnen Berechnungsschritten, vor allem aber vor und falls mehr als einer verwendet wird, zwischen den Upscalern!
    Dies reduziert die Verwendung des VRAMs um bis zuu 50% und verhindert Überlauf und somit Hänger beim Upscalen!

  • @bobbyboe
    @bobbyboe 16 днів тому

    kannst du deinen reduzierten Dev-Workflow vielleicht doch noch auf den Server schmeissen?

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Bitte schön: www.alatentplace.de/download/wf/flux_dev_simple.json

    • @bobbyboe
      @bobbyboe 16 днів тому

      @@ALatentPlace danke schön 💛

    • @bobbyboe
      @bobbyboe 13 днів тому

      @@ALatentPlace Feedback zur Geschwindigkeit von genau dem DEV-Workflow von dir: RTX3060 12GB: 2Minuten pro Bild

  • @SasukeGER
    @SasukeGER 16 днів тому

    meine 3060 schafft leider nur Flux Schnell :(

  •  15 днів тому

    quick and dirty hauptsache erster. So sieht es bei xlab leider aus. Warte wohl eher auf andere Entwickler. Ist echt mist.

  • @renegat552
    @renegat552 16 днів тому

    Der IP-Adapter ist wirklich schlecht. Ich hoffe sehr, dass Matteo sich dieser Sache annimmt.

    • @ALatentPlace
      @ALatentPlace  16 днів тому +1

      Er wartet derzeit auf ein besseres Model des IPAs, bevor er mit einer Implementierung anfangen möchte.

  • @der-zerfleischer
    @der-zerfleischer 16 днів тому

    12 Millionen? Ich las mal was von 12 Milliarden. SDXL soll 6 Milliarden haben.
    MacBook Prro M3 Max 36GB Flux1-dev 1700sec. = 28 Minuten
    Da bekommt man Zahnschmerzen, gell? 🙂

    • @ALatentPlace
      @ALatentPlace  16 днів тому +2

      Ups, da ist tatsächlich ein wenig Kraut und Rüben passiert. Geistig war ich im Englischen "Billions", was auf Deutsch natürlich Milliarde bedeutet, nicht Billion. Danke für den Hinweis.

    • @der-zerfleischer
      @der-zerfleischer 16 днів тому

      @@ALatentPlace Super Video und vor allem Schlusswort. Optisch erkennt man oft die Flux-Bilder. Testen kann ich es allerdings gar nicht (siehe Zeiten)