SD2.1モデルでControlNetが使えるようになっています。Safetensorsファイルをダウンロードしてsd-webui-controlnet\modelsフォルダに置きます。Settings→ControlNet→Config file for Control Net modelsのcldm_v15.yamlをcldm_v21.yamlへ変更します。LoRAやSD1が使えなくなり画像生成の時間が増えます。まだ使いにくいかな。 huggingface.co/thibaud/controlnet-sd21
動画を全て見終わって今ではラジオ感覚で聴いてます。 内容も参考になって声も聞きやすいので、助かります😽
ありがとうございます
進化が早くて追いつくのが大変ですが、Signal Flag "Z"さんの動画があるおかげで大変助かっています
コメントありがとう!
Webカメラとデッサン人形持ってるとものすごく画像生成が捗りそうですね。すごい。
いつも会社行く前に拝見してます。凄い!
ありがとう
ありがとう!ありがとう!✨🙏✨
このバージョンアップで制作現場で使えるレベルに達した気がします!
絵を描ける人がコントロールしやすくなりましたね。
ポーズ指定の大変さ良く分かります。
これは革命的ですね。
自分で描くと平凡な構図になるジレンマが...
感謝してもしきれない素晴らしい動画をありがとうございます!!!チャンネル登録しました!
ありがとうございます。
めちゃくちゃ分かりやすいです。ぜひDreamboothでのファインチューニングも解説してほしいです。
コメントありがとうございます。学習もどうビデオにするか検討はしています。
新バージョンもでたようですね
素晴らしい解説ありがとうございます。
できれば、 ControlNetの上位互換といわれるT2I-Adapterの解説もお願いします。
SD web UIで使えないと紹介が難しいかも。ほとんどの人が動かせないでしょうから・・・
ControlNetに組み込まれるかも? github.com/Mikubill/sd-webui-controlnet/discussions/128
@@SignalFlagZ ありがとうございます。
素晴らしい解説ありがとうございます!わかりやすくて助かります。もし可能ならWildcardsやLatent Coupleの解説も見たいです。
色が混ざるの嫌ですよね。でももうちょっと基本的な使い方を広めたいです。
複数のContorolNetが使えるようになりました。まだ実験だそうです。
github.com/Mikubill/sd-webui-controlnet#multi-controlnet--joint-conditioning-experimental
SD2.1モデルでControlNetが使えるようになっています。Safetensorsファイルをダウンロードしてsd-webui-controlnet\modelsフォルダに置きます。Settings→ControlNet→Config file for Control Net modelsのcldm_v15.yamlをcldm_v21.yamlへ変更します。LoRAやSD1が使えなくなり画像生成の時間が増えます。まだ使いにくいかな。
huggingface.co/thibaud/controlnet-sd21
コメント固定した方がいいと思います。
@@hikari2486 SD1と2の切り替えに手間がかかりSD2にするとSD1が使えなくなる状態なので目立たせてません。
@@SignalFlagZ 意図的だとわかりましたので、特に追求しません。
何かうまくいかない
元画像と出力画像の縦横比が違うと全然違うポーズになったりますかね?
Pixel Perfectにチェックしておけば画像サイズを合わせてくれます
そうでしたか!
ありがとうございます!
主さんの動画を見てAIイラスト勉強してます
情報収集はどうやってやってますか?
いっしょに勉強しましょう! 全般情報はRedditで、詳細はGitHubでCommitを見てます。
情報ありがとうございます! ところでOpenposeEditorの画面で自分の場合、Send to ControlNet のボタンが無いんですがどこかWebUIの設定を変えるんでしょうか?
よく変わります。摘んで落っことせばいいと思います
どうもです~ なるほど・・変わるのか・・摘まめないんでSavePNGで一旦Saveしてimgで持ってくるしかないかなー・・とりあえず。
生成した画像は摘めるんですよ。ファイルエクスプローラーへ落っことせば保存もできます。
ありゃ・・摘まむ・・ってドラッグとか右クリできるんかなと思ってました・・保存のボタンは動くんでそれでやってます~しかし、沼深いです~あっというまに時間が・・
Magic poserからStable Diffusionの画像貼り付けはどの様に行っていますか?スクリーンショットや直接貼れる機能があるのでしょうか?
ファイルに保存して読見込むとかめんどくさいですよね。ControlNetのImageへはペーストが効くんです。画面をコピーして貼り付ければ簡単です。
いつも勉強、参考にさせて頂きありがとうございます。
SDWebUI用のControlNetが発表された瞬間に導入したのですが
動画を拝見した所UIなどいろいろアップデートされてるようなので導入したいのですが
extensionsからsd-webui-controlnetのmodelsだけbackupして
その他を消し再度、入れ直せばよいでしょうか?
また、extensionsなどのアップデート方法ってどうすればよいのでしょうか?
消さずにアップデートができるならそのほうが嬉しいのですが
アップデートしようと思ってリポジトリのURLを記入する欄から再度インストールしようとすると
すでにフォルダが存在してインストールできないみたいな表示になるのですが
教えていただけると幸いです
そうです。モデルは保存しておいてフォルダーを消して入れ直せます。ですがA1111-Web-UI-InstallerでStable Diffusionをインストールし直しておく事をオススメします。Extensionsを含め簡単に最新状態を保てますよ。新しいバグを持ってきてしまいますが数日で修正される活発な状態ですから。
@@SignalFlagZ ありがとうございます。
A1111-Web-UI-Installer
を使えばextensions
まで最新になるの知りませんでした
。かなり助かりました。ありがとうございます。
Helpful, thank you , even as English USA viewer. I use auto-translate.
Thank you!
昨日まで使えたのに急にcotrol netが使えなくなってしまって、アップデートをしてもBehindという表示が変わらず、原因がわからないのですが対処法はありますか?
gitのメッセージが出てないか確認してください。ファイルを自分でいじって保存してしまうと新しい更新はダウンロードされません。ControlNetのフォルダーを消して入れ直すのが速いかもしれません。
@@SignalFlagZ わかりました。やってみます!ありがとうございました。
初心者ですが、解説分かりやすかったです。
Stable Diffusionで人物が映ってるjpg画像ファイルを学習させて、AI生成させる方法ってどうやるのでしょうか。
Loraっていう学習方法ぽいですが、よくわからなかったです。
Loraを使った学習方法の解説をいつかしてほしいです。
そのうちにとは思っていますが、学習させる画像をどうするか悩んでます。誰もがわかる人物やキャラなら学習できたできないが解りやすいでしょうがそんな事はできません。
ウェッブ?ギトハブ?
疑問に思うことは大切ですね
5:32のリンク先へ飛べないのです
リンク先がメンテナンス中とか? リンク先が変わったとしても しばらく待てばGitHubのリンクが更新されるでしょう。
@@SignalFlagZ
返信いただきありがとうございます😊
初見ですm(__)m
質問が何個かありますヽ(´・ω・`*)
1つ目は,stable diffusion web UIって無料なのでしょうか?('_'?)
2つ目,上記にあるように,スマホ(Android)に対応とかしてるんでしょうか?('_'?)
3つめ,会員(ユーザー)登録とかあるのでしょうか?('_'?)
4つ目,stable diffusionの中に無料と有料があるのですが,何れが有料で無料なのか教えてくださいm(__)m
質問は以上ですm(__)m
質問が多くて申し訳ないですm(__;)m
Stable Diffusion web UI のプログラムはオープンソースソフトウェアなのでお金はかかりません。ただし、だれも面倒を見てくれません。すべて自分で動かさなくてはなりません。DIYの基本、自己責任です。
高価なグラフィックボードを搭載したゲーミングPCで動かします。
そんな高価なパソコンを買えない、ゲーミングPCよりもっと高速なコンピュータを使いたい、というならクラウドサービスを使います。いろいろな会社がインターネットで使えるサービスを立ち上げています。当然お金がかかります。インターネットで操作できのでスマホで使えるサービスもあるでしょう。具体的にどんなサービスがあるかは 私は知りません。調べてください。
死にたくなってくる😢 今日は髪切ってきたよ😂😊
自然に触れましょう
AI is advancing too quickly AAAAAAAAAAAAAAAAGGGGGGHHHHHHHHHHHHH
As long as we can hold our breath, we run and catch up.