Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
Wow..... even if I dont understand japanese I was able to keep up just because of how clear you explain visually. Thank you!!A,I Translation: 日本語が分からなくても、視覚的に分かりやすく説明してくれているので、ついていけました。ありがとうございました!
I'm glad I could help you!
長年 Mac ユーザーの私は Stable Diffusion をやる目的で先月に WinPC(HX99G) を 15年ぶりに追加購入しました。マシンをコスパ重視で検討したため搭載グラフィックスが AMD Radeon™ RX 6600M (8GB) であったため、一般的な「nvidia じゃないと Stable Diffusion は使えない」旨の情報群をハードを購入したあとから知って「これはやっちまった…Orz」と大後悔しておりました。諦めきれずにネットで情報を探していたところ DirectML 版で AMD でも起動できる話を知り、こちらの解説動画通りに実際にやってみたらしっかりと実行することができました。ありがとうございます。(私の環境独自における各種エラーは ChatGPT4.0 に質問攻めをして解決しました)次に心配だったのは AMD Radeon™ RX 6600M が 8GB しかなかったため「VRAM が足りるのか?」ということだったのですたが、Sampling Step が 20 前後であれば、解像度 1536 x 1024 あたりまでなら --medvram コマンドで特に問題なく実行できました。ふぅ。質問なのですが、「Stable Diffusion Web UI DirectML」に本家の Web UI の拡張機能である「Controlnet」や「Tiled diffusion」などをインストールすることは可能でしょうか。自分でもちょっとやってみたのですが、Extensions → install from URL からの流れで各 URL を入力してインストールしようとしてもエラーでうまくいかなかったです💦(こちらはネットに情報がなさすぎて ChatGPT4.0 を使っても欲しい回答がもらえませんでした…Orz)私の環境で試せることがあればどんどんやってみますので、もしそういったリクエストがあれば遠慮なく指示してください。
Tiled Diffusionについては申し訳ありません、使ったことが無いのでわからないです。ControllNetについては私の環境では、同じように拡張のURL指定でインストールし、動かす事が出来ています。Openpose Editorも同様。ただし、私がControlNetを導入したのが確か4月中旬頃。※動画に載せている環境は、動画用に構築したため未導入自分では試してませんが、他の方の動画なんかを見る限りだとControlNetはすごい勢いでバージョンアップを繰り返しているようです。新しいバージョンだと問題が出るのかなあ・・・。すでに確認済みかもしれませんが、パッと調べた感じだと以下のような例があるようです。・「--listen」が入ってるとエラーになるhastaluegoblog.hatenablog.com/entry/2023/04/16/093759それと、・DirectML版のGitHubのディスカッションgithub.com/lshqqytiger/stable-diffusion-webui-directml/issues・ControlNetのGitHubのディスカッションgithub.com/Mikubill/sd-webui-controlnet/issuesこの辺りをGoogle翻訳で、同じようなエラーのスレッドがないか確認をしてみると、見つけられるかもしれません。
本当に助かりました感謝の正拳突き
お役に立てたようであれば何よりです。よきお絵描きライフを!
Thank u very much bro !!!
低スペックのAMD でも無事動きました ここにたどり着いて正解でした
2~3分かかりましたが、APUのRyzen 7 Pro 4750Gでも動いたので、地味に選択肢は広い感じかなと思ってます。ただ、負荷が高いのでハードウェアへのダメージは気を付けてください。よいお絵描きライフを!
RuntimeError: Input type (c10::Half) and bias type (float) should be the same このエラーの解決方法がいまだに分からない。。。
自分の環境では発生しないエラーなので、ネットで探してみたものになるのですが、・GPUで生成を行う場合、起動オプションに--skip-torch-cuda-test を追加しているのであれば削除・起動オプションに--use-directmlを追加・venvフォルダを削除この辺りが有効なようです。【参考】github.com/lshqqytiger/stable-diffusion-webui-amdgpu/issues/510他のサイトにもGPUを使わずにCPUを使っている場合に起こるエラーっぽいことが書かれていたので--use-directmlの追加は有効そう。venvフォルダは変に設定していなければwebuiのフォルダの直下にあると思います。
@@gamingogch 返信ありがとうございます。参考通りに書き換えたらいけました。ありがとうございます
やったぜ!
ついにROCmがWindowsに対応したらしいですねあとは対応したUI待ちですかね?完全対応になったら動画化期待してます!
コメントありがとうございます!とうとう、ついに、やっとですよ!私の知る限りでは、Automatic1111版はLinux上でROCmに対応する方法があるようです。そのため、Windows版もAutomatic版にて動作させるような対応が入るのではないかとGithub等の情報更新をチェックしてます!実現でき次第動画作成いたします!
@@gamingogch Linux上だとROCmけっこう早いみたいですね!期待せずにはいられません!正座して待っときます!
こちらはDirectXベースなのでintelやAMDの内蔵GPUも活用できますね。CPUで生成するより多少は速くなるので助かりました。
DeskMiniに載せている4750Gでも画像生成できました。メインメモリをGPUメモリに割り振れるので速度を無視すればもしかしたらアップスケールとかはAPUの方がイケる可能性もあるのかなあ。うちの環境はメインメモリが16Gしかないのでダメダメでしたが。来月あたりにDirectML自体がAMD最適化のテコ入れが入るみたいなので、そっちも楽しみですね。
APUは共有メモリなので融通は利きますが16GB程度のPCでは厳しいですね。32GBに増設したい...。あと、Auto1111版では普通に使えていたLoraモデルが読み込めず苦戦しています。
Loraは試しに一回いれてみた程度なので特にトラブルはなかったですね。本家ではすでに治ってて、DirectML版にはまだマージされてないバグとかかもしれませんねえ。
Loraが読めない問題解決しました。\stable-diffusion-webui-directml\extensions\a1111-sd-webui-locon\scripts\main.py を以下のように書き換えですね。371 行目: lora.mtime = os.path.getmtime(lora_on_disk)373 行目: sd = sd_models.read_state_dict(lora_on_disk)webui-user.batに--disable-nan-check を追加
おおおお!?すごい!Loraを使う際には参考にさせていただきます!
ありがとうございます。Ryzen7+Radeon RX590 の環境です。Automatic1111でなんとか使ってましたが、LORAが効いてなかったりして、本当に使えてるのか疑心暗鬼だったんですが。。使い込まないとわからないですけど、安定しているようです。
コメントありがとうございます!お役に立てたようで何よりです。それにしても、Automatic1111版を直接使う方法は結構面倒くさかったと思うのですが、すごいですね!両方動かせるのは、比較したり、ハード的な選択肢を増やせたりで利点もあると思うのでうらやましいですね。
@@gamingogch 返信ありがとうございます。お察しの通り、Automatic1111は、大変でしたね。わかってもらえてうれしいです。もちろん、ネットの皆様の知恵を拝借してですけど。これから使い込んでいきたいです。
@@KingofDaba この動画を作成する際にAutomatic版も検討したのですが、手順が面倒そうだったのでDirectML版を選択したという経緯がありました。そういったわけで、Automatic版をやられたとの事ですごいな、と思った次第です。
ああ^〜いいっすね^〜
あざます。他の関連動画も見とけよ見とけよ~
RX580-8GBで1 girlと打ち込むと、おおよそ1m 7.15sですね。set COMMANDLINE_ARGS= --lowvram で動作しましたが、さらにset COMMANDLINE_ARGS= --lowvram --always-batch-cond-uncond --opt-split-attention と追加しています。アスカベンチを動かそうとしたら絵が違って困りましたよ(;^_^A
--lowvramは、処理速度に大きなマイナスが発生するようですね。VRAM8Gであれば--medvramでも動いたりしませんかね?絵が変わってしまうのはseed値を-1(成果物の内容がランダムになる)とかにしてるからかもしれません。私はパフォーマンスチェック時はSeed値を固定(1にしている)いて、そうすると出力される成果物に大きな差が出ないみたいです。今まさにパフォーマンスチューニングに関する動画を作っているところです。本日中には挙げられると思うので、よかったらご覧いただければと思います。※世代の違うカードなので参考程度に
@@gamingogch ベンチなのでseed値やstep数はPNG infoからの転写です、モデルデーターも合っていたはずなのですけど(;^_^A
アスカベンチは聞いたことはあるのですが使ったことが無いのです。お力になれず申し訳ない。
ありがとうございます。おかげさまでRadeonで動くようになりました。感謝です。ちなみに計測結果:Ryzen 5 5600、RX6700XT、(1 girl)で28秒でした。あれ、6600と変わりない?
コメントありがとうございます。動画内の最終的な処理時間は、ある程度の最適化を行った後の処理時間です。また、WebUIのプログラム自体がこの動画作成時のバージョンより高速化がされています。ua-cam.com/video/uiOq8kJmju4/v-deo.html↑続編で、高速化後のプログラムでの最適化方法を紹介したものがあります。まだ未視聴であれば参考になると思います。6700xtはVRAMが6600xtとくらべて大きくなってますし、すごく興味があります。
APIのチューンが進んでくると面白いことになりそうですね。この辺に目をつけたSDKがAMDから出ているのがこなれてくると面白いのですが。NVIDIAにしてもゲーム以外の用途用のSDKをかなり前から出しているわけでその辺が充実してグラボの性能を引き出せるといろいろな意味で楽しいことになるかなと思いました。
複数のメーカーが競争して技術が高まっていくという形が我々ユーザにとっても有益な状態になると思うので、頑張ってもらいたいですね。RX7000世代には使われていない(?)AI用のユニットが入っているという噂もありますし、この辺も楽しみですな。
これはすばらしい。私の環境もRX6600XTなので明日試してみます。
Geforceと比べるとやはり色々性能は落ちるようですが、Radeonでもそれなりには楽しめるはずです。よきお絵描きライフを!
今日は休みだったので一日かけて手懐けました。モデルの導入も解ったし各種調整も良い感じです。すべてこちらの動画のおかげです。感謝感激雨あられ!!!ちなみにわたしの環境はIntel core i5-13600K DDR4 32GBAMD Radeon RX6600XT
@@MrPontanium2 本番はこれからです!たくさんお絵描きして楽しんでください!
動画を参考に、MINISFORUMのHX90で使って見ました。速度マシマシの起動オプション良いですね。メモリをmaxの64GBまで載せて、内蔵GPUのVRAMを16GBにしたら、サンプリングステップ20、470×740の画像を1:35くらいで出せるようになりました。まだ、リサイズとかインペイントが上手く動作しませんが、雰囲気を味わうくらいのは楽しめてます。また、有用なTIPSがあれば紹介してください
おお!HX90ってAPUが乗ってるタイプでしたっけ。どういう理屈かわからないですが、APU環境ではブルスクになる場合があるようです。でも、メモリをそれだけ詰んでれば楽しめそうですな!有用になるかどうかは微妙ですが、アップスケールはアルティメットアップスケーラーをアドオンで入れると結構大きめにアップスケールが出来ましたよ。ただ、処理時間や成果物のクオリティは微妙だったかな?
@@gamingogch 今度、試してみます♪
@@kaz1598 地味に絵が変わってしまった記憶があるので、お遊び程度に考えておいてください😀
どうもおひさしです。最近SDを使いだしました。やってきてわかってきたことを書きたいと思います。12GBメモリを搭載していますが、1024x1024あたりがどうやらリミットのようです。何回も作業させていると再利用できるメモリ量は徐々に減っていき、最後は諦めて再起動という流れを繰り返しています。とりあえず操作慣れとか実験段階ではなんとかなりそうですが将来高解像度を作りたいと思ったときは無理ですね。ちなみに、コントロールネットとか拡大系の処理も、メモリを沢山使うらしくこれも厳しい状態ですw
コメントありがとうございます!私の環境では、ControlNetやHiresを使うときは、場合によっては--lowvramのオプションを入れたりしないといけない場合があったので、VRAMの消費が激しいのは確かでしょうね。6月にあったアップデートで多少はメモリ消費が抑えられた感はありますが、それでも私の8Gの環境ではストレスがある状況です。運用的には、6月のアップデートで導入されたTokenMergeを使ってクオリティを犠牲にして速度を出す設定でとにかく絵を作りまくる→できた中で気に入ったプロンプトやSeedの組み合わせで、こんどはクオリティを上げた設定で仕上げる、というのがいいみたいです。ほかの方へのレスでも書きましたが、癖はありますが「Ultimate SD Upscale」という拡張機能も試してみると面白いかもです。Radeon用のCUDAに該当するROCmが何とか使えないかと調査したのですが、実現できず。ROCmがWindows対応するか、WSL2で使えるようになれば興味深い動画がつくれそうなのですが・・。
@@gamingogch そうですね。速度を出す設定でとにかく作りまくって、気に入ったやつを高設定で仕上げるって感じですね。確かにこれが効率いいです。今は顔作りしてるので512の顔なら不自由はない感じです。今後全身となったらどうしようか...TokenMerge良さそうですね、今度試してみます。Ultimate SD Upscaleも調べようかな。やることいっぱいだ。
@@フジィサン AIお絵描きは本当に日進月歩でいろんな拡張機能がガンガン増えていて、やることいっぱいですよ!
Ultimate SD Upscale導入しました!4kぐらいまで平気でアップスケールできちゃいますね。ただし画質を維持するために、またVRAMとの戦いが始まりなかなか苦労しそうですwこれプレビューを見る限り、画像を分割して処理して高解像度処理を実現しているようですね。すごいです。さらに、これがimg2imgで使えちゃうというのが最もすごいところですね。アップスケールどころか、もっと色々なことができると思うと、可能性を感じざる得ません!
img2imgとかinpaintとかは色々拡張機能があって、可能性の獣です!この界隈、ガンガン変わっていくのですごいのですが、ほんとAMDもうちょっと本腰いれてくれませんかねえ
コメント失礼します。この動画を拝見し導入まではできたのですが、いざ画像生成するとgpuのvramを一切使わずにCPUで処理してしまい時間がすごくかかってしまいます。再インストールなどは試しました。原因がわかれば教えて欲しいです、、、使用CPU i312100f Gpu rx6600xt
コメントありがとうございます。考えられる原因は2つ①以前使用していたRadeon以外のGPUのドライバが残っているこれはこのコメント欄でもご報告があった事例ですが、以前NVIDIAのGPUを使っていてRADEONに載せ替えたケースですね。コントロールパネルからのドライバの削除では何かしらのゴミが残るようで、そのゴミファイルを検出してCUDA使用のモードで動いていた可能性がありました。DDU等のドライバ完全削除ツールを使用して削除を行うことでDirectMLモードで動作するようになったとのご報告がありました。※申し訳ないですがDDUの使い方等はここでは説明できないのでググってもらえればと思います②最新版のStableDiffusionWebUIDirectMLを使用する場合、Directml用の起動オプションが必要github.com/lshqqytiger/stable-diffusion-webui-directml/issues/335上記はDirectML版のgithubのFAQのようなものなのですが、最新版(v1.7)からdirectmlモードはオプションになったようです。起動オプションに「--use-directml」をつけることでdirectmlモードになるようです。私の環境はまだ1.6.1を使用しているので実際にやったことはありませんが、directml版の作者lshqqytiger氏のコメントでそう記載されているので、コレが今後の正しい使用方法になるのかもしれません。上記のURLのスレッドをグーグル翻訳等で翻訳し、「--use-directml」でページ検索すると該当の書き込みを確認できます😀上記のスレッドに「torch-directml」を「requirements_versions.txt」に追加するとうまくいったという書き込みもありました。これらの方法を試してみてください。それにしてもDirectml版なのになんでデフォルトではないオプションにしたんだろう・・・おまけそれと、このスレッドではv1.7は問題があるから使いづらい、v1.6に戻すといったユーザの書き込みもあるようです。gitの使い方になってしまうので、エンジニア系以外の方にとっては少し面倒な作業になってしまうかもしれませんが、使用するバージョンをv1.6に戻して使うのも手だと思います。バージョンの戻し方は下記の動画でua-cam.com/video/Lvw1zKZB_44/v-deo.html※他所様の動画なので大変恐縮なのですが・・・・恐らくこれらの対応で何とかなるはず・・・
おかげで解決いたしました!本当にありがとうございました。
@@アルバス-y1q 解決できたようでホッとしました😃
めっちゃ生成早いなぁ、自分の環境だと1枚15分くらいかかるし、アップスケールだと40分から50分かかる・・・どうにかしたいけど解決法が分からない
GPUとVRAMサイズによって大きく生成時間がちがってくるとおもいます。ua-cam.com/video/uiOq8kJmju4/v-deo.htmlこちらの動画である程度の最適化について紹介していますので、もしまだご覧になっていなければ参考までにご確認ください(宣伝
AsrockがRadeon用の「生成AI」環境を一括インストールするツール公開してますよ。こちらのやつとどう違うんでしょうかねぇ。
すげーおもしろそう!とおもって早速ニュースサイトなどを見てみました。SharkとWebUI,WebUIONNXを入れられるみたいですね。Sharkというのはそこそこ前からあって、学習系の機能や拡張系の機能がない、もしくは少ないけれど、DirectML版より多少は早い、みたいな話をネットのどこかで見た記憶があります。簡易版みたいなイメージですかね、使ったことないので正確ではないかもしれませんが。ONNXのほうはモデルをそれ用に変換しないと使えないが処理はDirectML版とくらべて大分早い、だけどそのモデルの変換がめっちゃダルイという印象。これもやったことはなくて聞きかじりの情報ですが・・・。使い勝手や性能はともかく、面白そうだから試してみたい気はするのですが、7000番台なんすね・・・。しかもAsrock製のグラボのみとか。いずれにしても情報ありがとうございました!6000番台&Asrock以外でも使えるなら試して動画にしてみたいが、果たして・・。
動作要件はCPU含めかなり最新モデルに限られているうえ、GeForce環境では利用できない。グラフィックスカードには注意点として、ASRock製品のみをサポートしている旨が強調されている。なお、導入にあたってはインターネット接続が必要だ。CPU:第13~14世代Intel Coreプロセッサ、AMD Ryzen 5000 / 7000シリーズマザーボード:Intel 600 / 700シリーズ、AMD 600 / 500シリーズメモリ:32GB以上グラフィックスカード:ASRock AMD Radeon RX 7000 Series Graphics Cardsストレージ:25GB以上空いたSSD
@@MrPontanium2 Asrock製の7000番台ってのが解せないんですよね。結局手動でやってる作業の手順をスクリプトか何かでやってるだけなんじゃないかと思ってるのですが、そうするとなぜそういった要件が入ってくるのかが謎です。サポート外にはなるのでしょうが、やってみたら案外動いたりして、と思ってたりしますw
@@gamingogch たぶんそんなものでしょう。メーカーとして特色出したいからスクリプトにちょっとしたチェックが入っているだけかと
Visual Studioは不要なんですか?
不要です。動画内で説明がある通りPythonが必要です。
ありがとうございます。VRAMが4GBしかないRX6500XTでも動きました!録画しながらa girlで40秒、思ったより早いです。ua-cam.com/video/ZXpgOM0m3DU/v-deo.html
コメントありがとうございます!動画も拝見させていただきました。さすがにnVIDIAのGPUのようにはいきませんが、お絵描きライフを楽しんでいきましょう!
@@gamingogch 何度か実行しているとRX6500XTの共有GPUメモリ使用量がどんどん上がっていくのを確認しましたimg.ua-cam.com/users/viZXpgOM0m3DU/hqdefault.jpg専用の4GBで足りなくなると共有メモリを確保し始めるようですが2.4GBまでしか上がらず、ここを超えるとメモリ不足でエラーになりましたOG03さんの環境では共有GPUメモリ使用量上がっていきますか?
@@user-ue3bq5kv2k むむむ。共有メモリの部分は、むしろ共有メモリつかってくれない、どうにかした使わせたいみたいな記事をみたことがあります。実際に動かしている最中も、共有メモリが余っていて、共有メモリつかってくれたらなぁと思ってたくらいなので、共有メモリが大きく使用される場面は記憶にないですね。※気づいていなかっただけの可能性もあり環境の違い(VRAMの容量)、運用の違い(拡張機能やアップスケールの度合い等)もありますし、申し訳ないですが正確なことをお伝えすることは無理そうです。また、DirectML版自体のバージョンも頻繁に上がってるし、それで共有メモリを使うようになったとかもあるかもしれません。ありそうかなあと思うのは、処理そのものではなく、拡張機能やチェックポイント、成果物の書き出し時にメモリリークが発生していて、何回も使うとたまっていっちゃうとか・・・?他の皆様の環境下での共有メモリの動きも聞いてみたいですね。
rx6700xtを使用して動かしてみたんですが、cpu使用率が100%に張り付いてvramが1.4GBしか使われない謎の事態に陥りましたw もう挫折しそうですw
謎ですね・・・。clone時にdirectml版ではなく、automatic1111版を指定してたりしませんか?× clone github.com/AUTOMATIC1111/stable-diffusion-webui.git〇 clone github.com/lshqqytiger/stable-diffusion-webui-directml.git後は・・、複数GPUがある、もしくは、以前にnVIDIAのGPUを使っていて、そのドライバが残っているとか。その場合はnVIDIAのドライバを削除してみるとか。githubのissueやdiscussionsをgoogle翻訳で調べてみましたが、上記のようなことが記載されていました。それ以外にもありそうな感じですが、解決策が明確に記載されている様子はありませんでしたね・・・。
@@gamingogch コントロールパネルからnvidiaドライバーをアンインストールするだけでは十分では無かったらしく、DDUでアンインストールしてみると上手くいきました!pc内にnvidiaドライバー関連のファイルが少しでも検出された場合、ソフトウェア側が自動でcudaを使用するバージョンに切り替わるようです。本当に助かりました。ありがとうございます!
@@trancemitter918 おお!成功したようでなによりです!これは今後directml版で遊ぼうと思っている方々にも有用なtipsになりそうですね!😀
本人声じゃないっすよね?🤫
Voicevoxという合成音声の「ナースロボ_タイプT」というキャラの声です
可愛くて聴きとり易い声だし、少しハスキーで囁き成分もあるので、私はこの声が大好きですよ。登録もさせて頂きました❤ただ、解説がメインの動画なので、BGMはボリュームが大き過ぎると思えます。(番組の雰囲気作りのための、背景となる音楽なので、現在の1/4程度の聴こえるかどうかくらいで良いのではないでしょうか?)
@@tacossalsa7471 コメントありがとうございます!音量について、自分一人の感性や、スピーカやOS上のボリューム環境等どうしても視野が狭くなりがちなので、他の視点でのご意見ありがたいです。次回作成時意識してみたいと思います。
Wow..... even if I dont understand japanese I was able to keep up just because of how clear you explain visually. Thank you!!
A,I Translation: 日本語が分からなくても、視覚的に分かりやすく説明してくれているので、ついていけました。ありがとうございました!
I'm glad I could help you!
長年 Mac ユーザーの私は Stable Diffusion をやる目的で先月に WinPC(HX99G) を 15年ぶりに追加購入しました。マシンをコスパ重視で検討したため搭載グラフィックスが AMD Radeon™ RX 6600M (8GB) であったため、一般的な「nvidia じゃないと Stable Diffusion は使えない」旨の情報群をハードを購入したあとから知って「これはやっちまった…Orz」と大後悔しておりました。
諦めきれずにネットで情報を探していたところ DirectML 版で AMD でも起動できる話を知り、こちらの解説動画通りに実際にやってみたらしっかりと実行することができました。ありがとうございます。(私の環境独自における各種エラーは ChatGPT4.0 に質問攻めをして解決しました)
次に心配だったのは AMD Radeon™ RX 6600M が 8GB しかなかったため「VRAM が足りるのか?」ということだったのですたが、Sampling Step が 20 前後であれば、解像度 1536 x 1024 あたりまでなら --medvram コマンドで特に問題なく実行できました。ふぅ。
質問なのですが、「Stable Diffusion Web UI DirectML」に本家の Web UI の拡張機能である「Controlnet」や「Tiled diffusion」などをインストールすることは可能でしょうか。自分でもちょっとやってみたのですが、Extensions → install from URL からの流れで各 URL を入力してインストールしようとしてもエラーでうまくいかなかったです💦(こちらはネットに情報がなさすぎて ChatGPT4.0 を使っても欲しい回答がもらえませんでした…Orz)
私の環境で試せることがあればどんどんやってみますので、もしそういったリクエストがあれば遠慮なく指示してください。
Tiled Diffusionについては申し訳ありません、使ったことが無いのでわからないです。
ControllNetについては私の環境では、同じように拡張のURL指定でインストールし、動かす事が出来ています。Openpose Editorも同様。
ただし、私がControlNetを導入したのが確か4月中旬頃。
※動画に載せている環境は、動画用に構築したため未導入
自分では試してませんが、他の方の動画なんかを見る限りだとControlNetはすごい勢いでバージョンアップを繰り返しているようです。
新しいバージョンだと問題が出るのかなあ・・・。
すでに確認済みかもしれませんが、パッと調べた感じだと以下のような例があるようです。
・「--listen」が入ってるとエラーになる
hastaluegoblog.hatenablog.com/entry/2023/04/16/093759
それと、
・DirectML版のGitHubのディスカッション
github.com/lshqqytiger/stable-diffusion-webui-directml/issues
・ControlNetのGitHubのディスカッション
github.com/Mikubill/sd-webui-controlnet/issues
この辺りをGoogle翻訳で、同じようなエラーのスレッドがないか確認をしてみると、見つけられるかもしれません。
本当に助かりました
感謝の正拳突き
お役に立てたようであれば何よりです。
よきお絵描きライフを!
Thank u very much bro !!!
低スペックのAMD でも無事動きました ここにたどり着いて正解でした
2~3分かかりましたが、APUのRyzen 7 Pro 4750Gでも動いたので、地味に選択肢は広い感じかなと思ってます。
ただ、負荷が高いのでハードウェアへのダメージは気を付けてください。
よいお絵描きライフを!
RuntimeError: Input type (c10::Half) and bias type (float) should be the same
このエラーの解決方法がいまだに分からない。。。
自分の環境では発生しないエラーなので、ネットで探してみたものになるのですが、
・GPUで生成を行う場合、起動オプションに--skip-torch-cuda-test を追加しているのであれば削除
・起動オプションに--use-directmlを追加
・venvフォルダを削除
この辺りが有効なようです。
【参考】
github.com/lshqqytiger/stable-diffusion-webui-amdgpu/issues/510
他のサイトにもGPUを使わずにCPUを使っている場合に起こるエラーっぽいことが書かれていたので
--use-directmlの追加は有効そう。
venvフォルダは変に設定していなければwebuiのフォルダの直下にあると思います。
@@gamingogch 返信ありがとうございます。参考通りに書き換えたらいけました。
ありがとうございます
やったぜ!
ついにROCmがWindowsに対応したらしいですね
あとは対応したUI待ちですかね?
完全対応になったら動画化期待してます!
コメントありがとうございます!
とうとう、ついに、やっとですよ!
私の知る限りでは、Automatic1111版はLinux上でROCmに対応する方法があるようです。そのため、Windows版もAutomatic版にて動作させるような対応が入るのではないかとGithub等の情報更新をチェックしてます!
実現でき次第動画作成いたします!
@@gamingogch Linux上だとROCmけっこう早いみたいですね!
期待せずにはいられません!正座して待っときます!
こちらはDirectXベースなのでintelやAMDの内蔵GPUも活用できますね。CPUで生成するより多少は速くなるので助かりました。
DeskMiniに載せている4750Gでも画像生成できました。メインメモリをGPUメモリに割り振れるので速度を無視すればもしかしたらアップスケールとかはAPUの方が
イケる可能性もあるのかなあ。うちの環境はメインメモリが16Gしかないのでダメダメでしたが。
来月あたりにDirectML自体がAMD最適化のテコ入れが入るみたいなので、そっちも楽しみですね。
APUは共有メモリなので融通は利きますが16GB程度のPCでは厳しいですね。32GBに増設したい...。
あと、Auto1111版では普通に使えていたLoraモデルが読み込めず苦戦しています。
Loraは試しに一回いれてみた程度なので特にトラブルはなかったですね。
本家ではすでに治ってて、DirectML版にはまだマージされてないバグとかかもしれませんねえ。
Loraが読めない問題解決しました。
\stable-diffusion-webui-directml\extensions\a1111-sd-webui-locon\scripts\main.py を以下のように書き換えですね。
371 行目: lora.mtime = os.path.getmtime(lora_on_disk)
373 行目: sd = sd_models.read_state_dict(lora_on_disk)
webui-user.batに--disable-nan-check を追加
おおおお!?
すごい!
Loraを使う際には参考にさせていただきます!
ありがとうございます。Ryzen7+Radeon RX590 の環境です。Automatic1111でなんとか使ってましたが、LORAが効いてなかったりして、本当に使えてるのか疑心暗鬼だったんですが。。使い込まないとわからないですけど、安定しているようです。
コメントありがとうございます!
お役に立てたようで何よりです。
それにしても、Automatic1111版を直接使う方法は結構面倒くさかったと思うのですが、すごいですね!
両方動かせるのは、比較したり、ハード的な選択肢を増やせたりで利点もあると思うのでうらやましいですね。
@@gamingogch 返信ありがとうございます。お察しの通り、Automatic1111は、大変でしたね。わかってもらえてうれしいです。もちろん、ネットの皆様の知恵を拝借してですけど。これから使い込んでいきたいです。
@@KingofDaba この動画を作成する際にAutomatic版も検討したのですが、手順が面倒そうだったのでDirectML版を選択したという経緯がありました。
そういったわけで、Automatic版をやられたとの事ですごいな、と思った次第です。
ああ^〜いいっすね^〜
あざます。他の関連動画も見とけよ見とけよ~
RX580-8GBで1 girlと打ち込むと、おおよそ1m 7.15sですね。
set COMMANDLINE_ARGS= --lowvram で動作しましたが、さらに
set COMMANDLINE_ARGS= --lowvram --always-batch-cond-uncond --opt-split-attention と追加しています。
アスカベンチを動かそうとしたら絵が違って困りましたよ(;^_^A
--lowvramは、処理速度に大きなマイナスが発生するようですね。
VRAM8Gであれば--medvramでも動いたりしませんかね?
絵が変わってしまうのはseed値を-1(成果物の内容がランダムになる)とかにしてるからかもしれません。
私はパフォーマンスチェック時はSeed値を固定(1にしている)いて、そうすると出力される成果物に大きな差が出ないみたいです。
今まさにパフォーマンスチューニングに関する動画を作っているところです。本日中には挙げられると思うので、
よかったらご覧いただければと思います。
※世代の違うカードなので参考程度に
@@gamingogch ベンチなのでseed値やstep数はPNG infoからの転写です、モデルデーターも合っていたはずなのですけど(;^_^A
アスカベンチは聞いたことはあるのですが使ったことが無いのです。お力になれず申し訳ない。
ありがとうございます。おかげさまでRadeonで動くようになりました。感謝です。
ちなみに計測結果:Ryzen 5 5600、RX6700XT、(1 girl)で28秒でした。あれ、6600と変わりない?
コメントありがとうございます。
動画内の最終的な処理時間は、ある程度の最適化を行った後の処理時間です。
また、WebUIのプログラム自体がこの動画作成時のバージョンより高速化がされています。
ua-cam.com/video/uiOq8kJmju4/v-deo.html
↑続編で、高速化後のプログラムでの最適化方法を紹介したものがあります。
まだ未視聴であれば参考になると思います。
6700xtはVRAMが6600xtとくらべて大きくなってますし、すごく興味があります。
APIのチューンが進んでくると面白いことになりそうですね。
この辺に目をつけたSDKがAMDから出ているのがこなれてくると面白いのですが。NVIDIAにしてもゲーム以外の用途用のSDKをかなり前から出しているわけでその辺が充実してグラボの性能を引き出せるといろいろな意味で楽しいことになるかなと思いました。
複数のメーカーが競争して技術が高まっていくという形が我々ユーザにとっても有益な状態になると思うので、頑張ってもらいたいですね。
RX7000世代には使われていない(?)AI用のユニットが入っているという噂もありますし、この辺も楽しみですな。
これはすばらしい。
私の環境もRX6600XTなので
明日試してみます。
Geforceと比べるとやはり色々性能は落ちるようですが、Radeonでもそれなりには楽しめるはずです。
よきお絵描きライフを!
今日は休みだったので一日かけて手懐けました。
モデルの導入も解ったし各種調整も良い感じです。すべてこちらの動画のおかげです。
感謝感激雨あられ!!!
ちなみにわたしの環境は
Intel core i5-13600K DDR4 32GB
AMD Radeon RX6600XT
@@MrPontanium2 本番はこれからです!たくさんお絵描きして楽しんでください!
動画を参考に、MINISFORUMのHX90で使って見ました。速度マシマシの起動オプション良いですね。メモリをmaxの64GBまで載せて、内蔵GPUのVRAMを16GBにしたら、サンプリングステップ20、470×740の画像を1:35くらいで出せるようになりました。まだ、リサイズとかインペイントが上手く動作しませんが、雰囲気を味わうくらいのは楽しめてます。また、有用なTIPSがあれば紹介してください
おお!
HX90ってAPUが乗ってるタイプでしたっけ。
どういう理屈かわからないですが、APU環境ではブルスクになる場合があるようです。
でも、メモリをそれだけ詰んでれば楽しめそうですな!
有用になるかどうかは微妙ですが、アップスケールはアルティメットアップスケーラーをアドオンで入れると
結構大きめにアップスケールが出来ましたよ。ただ、処理時間や成果物のクオリティは微妙だったかな?
@@gamingogch 今度、試してみます♪
@@kaz1598 地味に絵が変わってしまった記憶があるので、お遊び程度に考えておいてください😀
どうもおひさしです。最近SDを使いだしました。
やってきてわかってきたことを書きたいと思います。
12GBメモリを搭載していますが、1024x1024あたりがどうやらリミットのようです。
何回も作業させていると再利用できるメモリ量は徐々に減っていき、最後は諦めて再起動という流れを繰り返しています。
とりあえず操作慣れとか実験段階ではなんとかなりそうですが将来高解像度を作りたいと思ったときは無理ですね。
ちなみに、コントロールネットとか拡大系の処理も、メモリを沢山使うらしくこれも厳しい状態ですw
コメントありがとうございます!
私の環境では、ControlNetやHiresを使うときは、場合によっては--lowvramのオプションを入れたりしないといけない場合があったので、VRAMの消費が激しいのは確かでしょうね。
6月にあったアップデートで多少はメモリ消費が抑えられた感はありますが、それでも私の8Gの環境ではストレスがある状況です。
運用的には、6月のアップデートで導入されたTokenMergeを使ってクオリティを犠牲にして速度を出す設定でとにかく絵を作りまくる→できた中で気に入ったプロンプトやSeedの組み合わせで、こんどはクオリティを上げた設定で仕上げる、というのがいいみたいです。
ほかの方へのレスでも書きましたが、癖はありますが「Ultimate SD Upscale」という拡張機能も試してみると面白いかもです。
Radeon用のCUDAに該当するROCmが何とか使えないかと調査したのですが、実現できず。
ROCmがWindows対応するか、WSL2で使えるようになれば興味深い動画がつくれそうなのですが・・。
@@gamingogch そうですね。速度を出す設定でとにかく作りまくって、気に入ったやつを高設定で仕上げるって感じですね。
確かにこれが効率いいです。
今は顔作りしてるので512の顔なら不自由はない感じです。
今後全身となったらどうしようか...
TokenMerge良さそうですね、今度試してみます。
Ultimate SD Upscaleも調べようかな。やることいっぱいだ。
@@フジィサン AIお絵描きは本当に日進月歩でいろんな拡張機能がガンガン増えていて、やることいっぱいですよ!
Ultimate SD Upscale導入しました!
4kぐらいまで平気でアップスケールできちゃいますね。
ただし画質を維持するために、またVRAMとの戦いが始まりなかなか苦労しそうですw
これプレビューを見る限り、画像を分割して処理して高解像度処理を実現しているようですね。すごいです。
さらに、これがimg2imgで使えちゃうというのが最もすごいところですね。
アップスケールどころか、もっと色々なことができると思うと、可能性を感じざる得ません!
img2imgとかinpaintとかは色々拡張機能があって、可能性の獣です!
この界隈、ガンガン変わっていくのですごいのですが、ほんとAMDもうちょっと本腰いれてくれませんかねえ
コメント失礼します。
この動画を拝見し導入まではできたのですが、いざ画像生成するとgpuのvramを一切使わずにCPUで処理してしまい時間がすごくかかってしまいます。再インストールなどは試しました。原因がわかれば教えて欲しいです、、、
使用CPU i312100f
Gpu rx6600xt
コメントありがとうございます。
考えられる原因は2つ
①以前使用していたRadeon以外のGPUのドライバが残っている
これはこのコメント欄でもご報告があった事例ですが、以前NVIDIAのGPUを使っていてRADEONに載せ替えたケースですね。
コントロールパネルからのドライバの削除では何かしらのゴミが残るようで、そのゴミファイルを検出してCUDA使用のモードで動いていた
可能性がありました。
DDU等のドライバ完全削除ツールを使用して削除を行うことでDirectMLモードで動作するようになったとのご報告がありました。
※申し訳ないですがDDUの使い方等はここでは説明できないのでググってもらえればと思います
②最新版のStableDiffusionWebUIDirectMLを使用する場合、Directml用の起動オプションが必要
github.com/lshqqytiger/stable-diffusion-webui-directml/issues/335
上記はDirectML版のgithubのFAQのようなものなのですが、最新版(v1.7)からdirectmlモードはオプションになったようです。
起動オプションに「--use-directml」をつけることでdirectmlモードになるようです。
私の環境はまだ1.6.1を使用しているので実際にやったことはありませんが、directml版の作者lshqqytiger氏のコメントでそう
記載されているので、コレが今後の正しい使用方法になるのかもしれません。
上記のURLのスレッドをグーグル翻訳等で翻訳し、「--use-directml」でページ検索すると該当の書き込みを確認できます😀
上記のスレッドに「torch-directml」を「requirements_versions.txt」に追加するとうまくいったという書き込みもありました。
これらの方法を試してみてください。
それにしてもDirectml版なのになんでデフォルトではないオプションにしたんだろう・・・
おまけ
それと、このスレッドではv1.7は問題があるから使いづらい、v1.6に戻すといったユーザの書き込みもあるようです。
gitの使い方になってしまうので、エンジニア系以外の方にとっては少し面倒な作業になってしまうかもしれませんが、
使用するバージョンをv1.6に戻して使うのも手だと思います。
バージョンの戻し方は下記の動画で
ua-cam.com/video/Lvw1zKZB_44/v-deo.html
※他所様の動画なので大変恐縮なのですが・・・・
恐らくこれらの対応で何とかなるはず・・・
おかげで解決いたしました!
本当にありがとうございました。
@@アルバス-y1q 解決できたようでホッとしました😃
めっちゃ生成早いなぁ、自分の環境だと1枚15分くらいかかるし、アップスケールだと40分から50分かかる・・・どうにかしたいけど解決法が分からない
GPUとVRAMサイズによって大きく生成時間がちがってくるとおもいます。
ua-cam.com/video/uiOq8kJmju4/v-deo.html
こちらの動画である程度の最適化について紹介していますので、もしまだご覧になっていなければ
参考までにご確認ください(宣伝
AsrockがRadeon用の「生成AI」環境を一括インストールするツール公開してますよ。こちらのやつとどう違うんでしょうかねぇ。
すげーおもしろそう!とおもって早速ニュースサイトなどを見てみました。SharkとWebUI,WebUIONNXを入れられるみたいですね。
Sharkというのはそこそこ前からあって、学習系の機能や拡張系の機能がない、もしくは少ないけれど、DirectML版より多少は早い、みたいな話をネットのどこかで見た記憶があります。簡易版みたいなイメージですかね、使ったことないので正確ではないかもしれませんが。
ONNXのほうはモデルをそれ用に変換しないと使えないが処理はDirectML版とくらべて大分早い、だけどそのモデルの変換がめっちゃダルイという印象。これもやったことはなくて聞きかじりの情報ですが・・・。
使い勝手や性能はともかく、面白そうだから試してみたい気はするのですが、7000番台なんすね・・・。しかもAsrock製のグラボのみとか。
いずれにしても情報ありがとうございました!
6000番台&Asrock以外でも使えるなら試して動画にしてみたいが、果たして・・。
動作要件はCPU含めかなり最新モデルに限られているうえ、GeForce環境では利用できない。グラフィックスカードには注意点として、ASRock製品のみをサポートしている旨が強調されている。なお、導入にあたってはインターネット接続が必要だ。
CPU:第13~14世代Intel Coreプロセッサ、AMD Ryzen 5000 / 7000シリーズ
マザーボード:Intel 600 / 700シリーズ、AMD 600 / 500シリーズ
メモリ:32GB以上
グラフィックスカード:ASRock AMD Radeon RX 7000 Series Graphics Cards
ストレージ:25GB以上空いたSSD
@@MrPontanium2 Asrock製の7000番台ってのが解せないんですよね。
結局手動でやってる作業の手順をスクリプトか何かでやってるだけなんじゃないかと思ってるのですが、そうするとなぜそういった要件が入ってくるのかが謎です。
サポート外にはなるのでしょうが、やってみたら案外動いたりして、と思ってたりしますw
@@gamingogch たぶんそんなものでしょう。
メーカーとして特色出したいからスクリプトにちょっとしたチェックが入っているだけかと
Visual Studioは不要なんですか?
不要です。
動画内で説明がある通りPythonが必要です。
ありがとうございます。
VRAMが4GBしかないRX6500XTでも動きました!
録画しながらa girlで40秒、思ったより早いです。
ua-cam.com/video/ZXpgOM0m3DU/v-deo.html
コメントありがとうございます!
動画も拝見させていただきました。
さすがにnVIDIAのGPUのようにはいきませんが、お絵描きライフを楽しんでいきましょう!
@@gamingogch
何度か実行していると
RX6500XTの共有GPUメモリ使用量がどんどん上がっていくのを確認しました
img.ua-cam.com/users/viZXpgOM0m3DU/hqdefault.jpg
専用の4GBで足りなくなると共有メモリを確保し始めるようですが
2.4GBまでしか上がらず、ここを超えるとメモリ不足でエラーになりました
OG03さんの環境では共有GPUメモリ使用量上がっていきますか?
@@user-ue3bq5kv2k むむむ。共有メモリの部分は、むしろ共有メモリつかってくれない、どうにかした使わせたいみたいな記事をみたことがあります。
実際に動かしている最中も、共有メモリが余っていて、共有メモリつかってくれたらなぁと思ってたくらいなので、共有メモリが大きく使用される場面は記憶にないですね。※気づいていなかっただけの可能性もあり
環境の違い(VRAMの容量)、運用の違い(拡張機能やアップスケールの度合い等)もありますし、申し訳ないですが正確なことをお伝えすることは無理そうです。
また、DirectML版自体のバージョンも頻繁に上がってるし、それで共有メモリを使うようになったとかもあるかもしれません。
ありそうかなあと思うのは、処理そのものではなく、拡張機能やチェックポイント、成果物の書き出し時にメモリリークが発生していて、何回も使うとたまっていっちゃうとか・・・?
他の皆様の環境下での共有メモリの動きも聞いてみたいですね。
rx6700xtを使用して動かしてみたんですが、cpu使用率が100%に張り付いてvramが1.4GBしか使われない謎の事態に陥りましたw もう挫折しそうですw
謎ですね・・・。
clone時にdirectml版ではなく、automatic1111版を指定してたりしませんか?
× clone github.com/AUTOMATIC1111/stable-diffusion-webui.git
〇 clone github.com/lshqqytiger/stable-diffusion-webui-directml.git
後は・・、複数GPUがある、もしくは、以前にnVIDIAのGPUを使っていて、そのドライバが残っているとか。その場合はnVIDIAのドライバを削除してみるとか。
githubのissueやdiscussionsをgoogle翻訳で調べてみましたが、上記のようなことが記載されていました。
それ以外にもありそうな感じですが、解決策が明確に記載されている様子はありませんでしたね・・・。
@@gamingogch コントロールパネルからnvidiaドライバーをアンインストールするだけでは十分では無かったらしく、DDUでアンインストールしてみると上手くいきました!
pc内にnvidiaドライバー関連のファイルが少しでも検出された場合、ソフトウェア側が自動でcudaを使用するバージョンに切り替わるようです。
本当に助かりました。ありがとうございます!
@@trancemitter918 おお!成功したようでなによりです!
これは今後directml版で遊ぼうと思っている方々にも有用なtipsになりそうですね!😀
本人声じゃないっすよね?🤫
Voicevoxという合成音声の「ナースロボ_タイプT」というキャラの声です
可愛くて聴きとり易い声だし、少しハスキーで囁き成分もあるので、私はこの声が大好きですよ。
登録もさせて頂きました❤
ただ、解説がメインの動画なので、BGMはボリュームが大き過ぎると思えます。
(番組の雰囲気作りのための、背景となる音楽なので、現在の1/4程度の聴こえるかどうかくらいで良いのではないでしょうか?)
@@tacossalsa7471 コメントありがとうございます!
音量について、自分一人の感性や、スピーカやOS上のボリューム環境等どうしても視野が
狭くなりがちなので、他の視点でのご意見ありがたいです。
次回作成時意識してみたいと思います。