顔がきれいにできないんだけど?【Stable Diffusion web UI Hires. fix】

Поділитися
Вставка
  • Опубліковано 18 вер 2024

КОМЕНТАРІ • 95

  • @メロンぱんだ-e2s
    @メロンぱんだ-e2s Рік тому +3

    高画質化するソフトとかそういうのも大事だけど、基本中の基本である、こういう解説が欲しかったです!
    Stable diffusionを使おうとしてるひとがまず一番初めに見るべき解説課と思います!

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      ありがとう! ざっくりでも仕組みがわかる動画を作っていきたいと思っています。

  • @tora8683
    @tora8683 Рік тому +5

    ちょうどこの問題にぶつかったので有難いです😭

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      パラメーターがありすぎて最初は何が何だかわからないですよね。

  • @hikari2486
    @hikari2486 Рік тому +1

    Hires. fixをいじり始めた所なので内容がしっかり把握できました。ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      では これからですね プロンプトで悩みましょう

  • @hitokageking
    @hitokageking Рік тому +4

    しりたかったものがここにありました。ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      パラメーター多すぎですよね

  • @yoriichi1502
    @yoriichi1502 Рік тому +1

    初心者ですが動画見るような美しい絵が出てこず、ぶさいくばっかりでてくるので困ってました。ありがとうございます。

  • @とみー-n1r
    @とみー-n1r Рік тому +3

    生成スピードの速さにまず驚かされました!

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      だんだんあたらしいグラボが ほしくな~る ほしくな~る

  • @dejiru123
    @dejiru123 Рік тому +4

    ラテントはそういうことだったんですね。意味知らずに感覚で使っているので解説がすごくありがたいです。
    普段2倍を2回とか重ねがけしてるので、最初の2倍でラテントにして、次の2倍で下の方のアップスケーラーにしてみるなど試してみます。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      2倍程度にしておかないと お化けが良く出てきますね

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      @@momochi9790 コメントありがとう

  • @edm5168
    @edm5168 Рік тому +3

    毎回ほんまに勉強になります!!これ見ながら生成すると、ほんとにいい感じに仕上がるんですよねぇ。感謝してます!!!

  • @yukizokin
    @yukizokin Рік тому +1

    いつも丁度試しているところが紹介されてラッキーです。ありがとうございます。

  • @コンきつね-s9p
    @コンきつね-s9p Рік тому +7

    VRAM容量が4GBだから小さい画像しか生成できないし、
    顔のきれいな画像なんて無理だろうな……と思っていました。
    ありがとうございました!

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +2

      新しいグラボが欲しくなるパターンですね

  • @Darkness-rs4os
    @Darkness-rs4os Рік тому +2

    プロンプト以前にそんな仕様だったとは勉強になります

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      プロンプトが悪いと思っちゃいますよね。プロンプトの勉強をするきっかけになるけど、きれいに出ず挫折しちゃう人が多いと思います。

  • @hige_3bon
    @hige_3bon Рік тому +1

    これです!なんで出ないんだ・・・よく見かけるサムネイルのクオリティにならないのは。また一歩前進できたような気がします。
    ありがとうございます。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      おめでとう、みんな通る道です。

  • @-Occhi-
    @-Occhi- Рік тому +1

    めちゃ分かりやすいです

  • @hirosiespacio9930
    @hirosiespacio9930 11 місяців тому +1

    何で解像度を上げると人物が増えるのか、良くわかった。
    好みはVGAです。これだと結構良い感じ。

  • @トミキュー
    @トミキュー Рік тому +2

    初心者向けの解説ありがとうございます。
    何をどう調整すればいいのか色々試していたけど確信が持てなかったので
    とても助かりました。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      次はプロンプトに集中ですね

  • @ttmm-k4p
    @ttmm-k4p Рік тому +23

    画像生成AIの解説に求められていたわかりやすさはまさにこれですよ この調子で続ければ画像生成AI解説で覇権とれます

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      ありがとうございます。励みになります。

    • @nyanco-sensei
      @nyanco-sensei Рік тому +2

      同感
      知りたい情報をコンパクトにわかりやすく解説してくれるのは助かる

  • @りんごバター-j8m
    @りんごバター-j8m Рік тому +1

    これを知りたかった。インストールしたら一番最初に見たい動画

  • @waku653ryft5
    @waku653ryft5 Рік тому +1

    滅茶苦茶参考になりました。
    画像生成途中まですごいいい感じだったのに、最後いきなりドン!で違うのになってあれ?ってなることが多かったんですが、アップスケーラーのモデルが原因だったんですね。デフォのlatentのままにしてました。いろいろ試してみたいと思います。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      アップスケーラーもAIを使うやつはDenoisingを0.05単位で下げて微調整すると良いですよ 時間かかりますけど

  • @user-hq8tm6bd4g
    @user-hq8tm6bd4g Рік тому +1

    なるほど!すごい!

  • @HzHz-fh6zq
    @HzHz-fh6zq Рік тому +1

    助かりました!ありがとうございます

  • @saikozuan
    @saikozuan Рік тому +4

    引きの絵が欲しいのでマジで困ってました。ありがとうございます。
    ただ、うちの3050では限界がありました。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +2

      メモリーの大きなグラボが欲しくなるポイントです

    • @saikozuan
      @saikozuan Рік тому +1

      @@SignalFlagZ Amazonで3060 12GBを買ってしまいました。これ以上は無理です…

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      @@saikozuan おめでとうございます 十分だと思います

  • @NyanBuzz
    @NyanBuzz Рік тому +2

    自前の設定(Tiled Diffusion)で割と満足してるからUpscaleとかの復習のつもりで見てたんだけど「womanにすると服を脱ぎだすからです」で笑ってしまったw

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      あるある ですよね・・・

  • @user-ji2wv7zf8u
    @user-ji2wv7zf8u Рік тому +2

    5:02 あ~やはり画像を大きくすると破綻するものなんですね
    512x512でそれらしいものが上がってきたので1280x720のHDDサイズに上げると途端にミュータントや肉塊を吐き出すようになってネガティブプロンプトが足りないのかとあれこれ試したのですが、芳しく無く途方に暮れていました

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      出力時間もかかるし何がポイントか気づくまでが大変ですよね

    • @user-ji2wv7zf8u
      @user-ji2wv7zf8u Рік тому +2

      @@SignalFlagZ AIと言うので作るたびに制度が上がるのかとも思ってましたが、Stable Diffusionそのものはすでに学習済みの人工無能でガチャを回し続けるものだと1週間経ってやっと気が付きました^^;

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      @@user-ji2wv7zf8u プロンプトでガチャの回数をどうやって減らせるかが次のポイントです。でもあっという間にもっと賢くなってしまうかもしれませんよ。

  • @水雲-e6k
    @水雲-e6k Рік тому +1

    まさしく、ですね!よくぶち当たる部分ばかりで「あるあるwww」しちゃいますね
    そしてその後はハイレゾ沼に陥る所まで容易に想像できます、故に性能の高いグラボやパーツでトライアンドエラーの回数を稼ぎたくなり、ハード物欲が出てくる所までが様式美ですねw

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      演算速度とVRAMがもっと欲しい!

  • @nekocat6655
    @nekocat6655 Рік тому +1

    この動画すげえ

  • @アイガークーパー
    @アイガークーパー Рік тому +1

    初心者の壁、、、細かい箇所の表現。わかりやすい動画で、参考になりました。
    とりあえず、画像作成は出来きるようになった初心者ですが、高確率で顔が崩れてしまいます。
    崩れてしまった顔の修正に、unpromptedの様な?キーワードの修正方法がある?みたいですが、
    もしくは、他の方法でも良いので顔のみの修正方法がありましたら是非テーマとして取り上げて下さい。
    よろしくお願い申し上げます。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      私が分からなかった所を思い出しながら作っています。顔の修正したいですよね。そろそろその段階の説明ができそうです。

  • @sanpen9709
    @sanpen9709 Рік тому +1

    5:12 急に偉人っぽい人たちが出てきて笑いました

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      AIの発想力は人を超えています😄

  • @旭軽工業
    @旭軽工業 10 місяців тому +1

    グラボがあると速いなぁ。
    12世代のcore i5 でもcpuだと遅い。

  • @ぷらすとぷれすと
    @ぷらすとぷれすと Рік тому +1

    大変参考になる動画ありがとうございます。
    ジェネレートめちゃくちゃ速いですね、グラボは4070TIでしょうか?

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      4070TIです。速いとストレス減りますね。 ビデオは時々早回ししてるかも。

  • @aa-zx8rl
    @aa-zx8rl Рік тому +1

  • @r.yashima
    @r.yashima Рік тому +1

    休日をフルに使ってwebUIの導入からTrain Toolsのインスコ、モデルの収集終わらせました!
    Signal Flag "Z"様の動画のおかげでやっとスタートラインに立つことができました!!
    ありがとうございます!!!
    これからも参考にさせていただきます:-)

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      いろいろな可能性を感じましょう!

  • @谷章悟
    @谷章悟 Рік тому +1

    この機能はweb-uiのloraと類似した機能と理解してればよいですか?

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      Stable Diffusionの特性ですね。LoRAとは関係ないです。

  • @Takumi_a.k.a_NIKE
    @Takumi_a.k.a_NIKE Рік тому +1

    Hires. fix毎度使ってるんですが、どうもいわゆるマスピ顔になってしまうんですよね。
    何か改善点ってありますかね。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      手軽に整った絵を出せるのとトレードオフですね。SD基本モデルへ戻るか自分で学習させるくらいしか根本的に解決しないかも。

  • @Blendarling
    @Blendarling Рік тому +1

    この機能は追加導入が必要なのでは!?…VRAMの使用量がわからないので、タスクマネージャーか、GPU-Zを使ってもらえませんか?VRAM12GBでは、3倍程度が限界でしょうか?

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      100%に貼り付く場合が多くて良い可視化方法がわからないんです。12GBで4倍は成功していません。その前に画像が崩壊する場合が多すぎて調整が難しいですね。

    • @Blendarling
      @Blendarling Рік тому +1

      SDのUI上に、表示してくれるようになるといいですね!・・・アップスケーラーを二回に分けて掛ければ、VRAM不足でもなんとかなりそうです!🤔

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      @@Blendarling 他の方のコメントにもありますが、VRAM節約は紹介する予定です。

  • @pIayersplayer
    @pIayersplayer Рік тому +2

    これ使うと何故か急に生成が止まってしまうんですが、どうすればいいのですかね、、?、

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      ビデオメモリー不足の可能性が高いでしょう。コンソールに出るメッセージを解読しましょう。この場合の回避方法は今後紹介する予定です。

  • @umechans_retroactive
    @umechans_retroactive Рік тому +1

    解説わかりやすいですね。しゃべりも軽快で深夜ラジオ聴いてるみたいです。ch登録します。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      コメントありがとうございます。

  • @extphas
    @extphas Рік тому +2

    multiDiffusionも取り上げてほしい

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      img2imgネタもやってないので当分先になりそうです。 ほとんど使ってませんが明確なメリットをあまり感じてないんですよね。

    • @NyanBuzz
      @NyanBuzz Рік тому +1

      使い方としてはハーレム画像作るときとか、中央に人物がいて左右にクソでかい羽を作るときとかにRegion指定で中央だけに人のプロンプトを組んであげるとかですね。

    • @NyanBuzz
      @NyanBuzz Рік тому +1

      いまほかの動画も見てきたんですけど、Regionで画像の左右を区切ってそれぞれのRegionのプロンプトにa dogとa catを入れることで両方の特徴を混ぜないこともできますね。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +1

      ControlNetもですが出したいイメージが固まっている人向けだと感じています。絵を書ける人こそ使う機能ですね。絵の改善手段になるので改善したいものが何だかわからないと使えないと思っています。

  • @user-go7mq2fe9p
    @user-go7mq2fe9p Рік тому +1

    AddNet Weight AやBはどこで設定できますか?

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      SD web UIではプロンプトに組み込まれました
      ua-cam.com/video/omOlqAsBKfE/v-deo.html

  • @matty_mroz
    @matty_mroz Рік тому +2

    Hello, I have a question: At the moment, theoretically it is possible to improve images such as comic book pages, manga or manhwa to obtain better quality, greater detail, coloring, improved line art or giving style to original image panels. For example, we have hundreds of images, each containing different scenes, characters, as well as dialogue and thought captions. Using models that are not limited to a specific fragment of reality, we would be able to improve the original, add quality to it and turn a few color stains into a masterpiece. Most importantly, is something like this possible without entering commands for each generated image? Do current models cope with such huge collections, and can they perform basic tasks such as leaving captions unchanged and changing only the artistic part of the panel to a style selected by us?
    In short, is it currently possible to improve images to make them more detailed, dynamic and more colorful than the original?

    • @SignalFlagZ
      @SignalFlagZ  Рік тому +2

      Current AI does not distinguish between individual characters. Hair color, skin color, etc. will be different from frame to frame. ControlNet would be closer to what you want.

  • @youser7776
    @youser7776 Рік тому +1

    なんてこった・・・アップされてる画像が巨大だからどんなモンスタービデオカード使ってるんだと思ったらこう言うからくりだったのね

  • @PlushLove171
    @PlushLove171 Рік тому +1

    いろいろ種類がありすぎて何を使ったらいいかわからない。

    • @SignalFlagZ
      @SignalFlagZ  Рік тому

      ゲーミングPCをお持ちでないならMidjourneyあたりでお試しが良いのでは。私は使ったことありませんが・・・

  • @yowayo322
    @yowayo322 Рік тому +1

    なあるほど、です サンキュー

  • @kinoko_no_kami
    @kinoko_no_kami Рік тому +1

    SUGEEEEEEE!!!!

  • @egashira7532
    @egashira7532 Рік тому +1

    茶番が長い