AMD RadeonでStableDiffusionWebUIの性能は? Stable Diffusion Web UI DirectML

Поділитися
Вставка
  • Опубліковано 18 вер 2024

КОМЕНТАРІ • 80

  • @MTD420
    @MTD420 Рік тому +11

    Wow..... even if I dont understand japanese I was able to keep up just because of how clear you explain visually. Thank you!!
    A,I Translation: 日本語が分からなくても、視覚的に分かりやすく説明してくれているので、ついていけました。ありがとうございました!

  • @K2nd619
    @K2nd619 Рік тому +1

    長年 Mac ユーザーの私は Stable Diffusion をやる目的で先月に WinPC(HX99G) を 15年ぶりに追加購入しました。マシンをコスパ重視で検討したため搭載グラフィックスが AMD Radeon™ RX 6600M (8GB) であったため、一般的な「nvidia じゃないと Stable Diffusion は使えない」旨の情報群をハードを購入したあとから知って「これはやっちまった…Orz」と大後悔しておりました。
    諦めきれずにネットで情報を探していたところ DirectML 版で AMD でも起動できる話を知り、こちらの解説動画通りに実際にやってみたらしっかりと実行することができました。ありがとうございます。(私の環境独自における各種エラーは ChatGPT4.0 に質問攻めをして解決しました)
    次に心配だったのは AMD Radeon™ RX 6600M が 8GB しかなかったため「VRAM が足りるのか?」ということだったのですたが、Sampling Step が 20 前後であれば、解像度 1536 x 1024 あたりまでなら --medvram コマンドで特に問題なく実行できました。ふぅ。
    質問なのですが、「Stable Diffusion Web UI DirectML」に本家の Web UI の拡張機能である「Controlnet」や「Tiled diffusion」などをインストールすることは可能でしょうか。自分でもちょっとやってみたのですが、Extensions → install from URL からの流れで各 URL を入力してインストールしようとしてもエラーでうまくいかなかったです💦(こちらはネットに情報がなさすぎて ChatGPT4.0 を使っても欲しい回答がもらえませんでした…Orz)
    私の環境で試せることがあればどんどんやってみますので、もしそういったリクエストがあれば遠慮なく指示してください。

    • @gamingogch
      @gamingogch  Рік тому +1

      Tiled Diffusionについては申し訳ありません、使ったことが無いのでわからないです。
      ControllNetについては私の環境では、同じように拡張のURL指定でインストールし、動かす事が出来ています。Openpose Editorも同様。
      ただし、私がControlNetを導入したのが確か4月中旬頃。
      ※動画に載せている環境は、動画用に構築したため未導入
      自分では試してませんが、他の方の動画なんかを見る限りだとControlNetはすごい勢いでバージョンアップを繰り返しているようです。
      新しいバージョンだと問題が出るのかなあ・・・。
      すでに確認済みかもしれませんが、パッと調べた感じだと以下のような例があるようです。
      ・「--listen」が入ってるとエラーになる
      hastaluegoblog.hatenablog.com/entry/2023/04/16/093759
      それと、
      ・DirectML版のGitHubのディスカッション
      github.com/lshqqytiger/stable-diffusion-webui-directml/issues
      ・ControlNetのGitHubのディスカッション
      github.com/Mikubill/sd-webui-controlnet/issues
      この辺りをGoogle翻訳で、同じようなエラーのスレッドがないか確認をしてみると、見つけられるかもしれません。

  • @hisutario
    @hisutario Рік тому +2

    本当に助かりました
    感謝の正拳突き

    • @gamingogch
      @gamingogch  Рік тому +1

      お役に立てたようであれば何よりです。
      よきお絵描きライフを!

  • @gammingtoch259
    @gammingtoch259 Рік тому +4

    Thank u very much bro !!!

  • @インコほろほろ
    @インコほろほろ Рік тому +3

    低スペックのAMD でも無事動きました ここにたどり着いて正解でした

    • @gamingogch
      @gamingogch  Рік тому +1

      2~3分かかりましたが、APUのRyzen 7 Pro 4750Gでも動いたので、地味に選択肢は広い感じかなと思ってます。
      ただ、負荷が高いのでハードウェアへのダメージは気を付けてください。
      よいお絵描きライフを!

  • @International_Internet
    @International_Internet Місяць тому +2

    RuntimeError: Input type (c10::Half) and bias type (float) should be the same
    このエラーの解決方法がいまだに分からない。。。

    • @gamingogch
      @gamingogch  Місяць тому +1

      自分の環境では発生しないエラーなので、ネットで探してみたものになるのですが、
      ・GPUで生成を行う場合、起動オプションに--skip-torch-cuda-test を追加しているのであれば削除
      ・起動オプションに--use-directmlを追加
      ・venvフォルダを削除
      この辺りが有効なようです。
      【参考】
      github.com/lshqqytiger/stable-diffusion-webui-amdgpu/issues/510
      他のサイトにもGPUを使わずにCPUを使っている場合に起こるエラーっぽいことが書かれていたので
      --use-directmlの追加は有効そう。
      venvフォルダは変に設定していなければwebuiのフォルダの直下にあると思います。

    • @International_Internet
      @International_Internet Місяць тому +2

      @@gamingogch 返信ありがとうございます。参考通りに書き換えたらいけました。
      ありがとうございます

    • @gamingogch
      @gamingogch  Місяць тому +2

      やったぜ!

  • @iteee
    @iteee Рік тому +1

    ついにROCmがWindowsに対応したらしいですね
    あとは対応したUI待ちですかね?
    完全対応になったら動画化期待してます!

    • @gamingogch
      @gamingogch  Рік тому +1

      コメントありがとうございます!
      とうとう、ついに、やっとですよ!
      私の知る限りでは、Automatic1111版はLinux上でROCmに対応する方法があるようです。そのため、Windows版もAutomatic版にて動作させるような対応が入るのではないかとGithub等の情報更新をチェックしてます!
      実現でき次第動画作成いたします!

    • @iteee
      @iteee Рік тому

      @@gamingogch Linux上だとROCmけっこう早いみたいですね!
      期待せずにはいられません!正座して待っときます!

  • @taxchoochoo
    @taxchoochoo Рік тому +2

    こちらはDirectXベースなのでintelやAMDの内蔵GPUも活用できますね。CPUで生成するより多少は速くなるので助かりました。

    • @gamingogch
      @gamingogch  Рік тому +1

      DeskMiniに載せている4750Gでも画像生成できました。メインメモリをGPUメモリに割り振れるので速度を無視すればもしかしたらアップスケールとかはAPUの方が
      イケる可能性もあるのかなあ。うちの環境はメインメモリが16Gしかないのでダメダメでしたが。
      来月あたりにDirectML自体がAMD最適化のテコ入れが入るみたいなので、そっちも楽しみですね。

    • @taxchoochoo
      @taxchoochoo Рік тому

      APUは共有メモリなので融通は利きますが16GB程度のPCでは厳しいですね。32GBに増設したい...。
      あと、Auto1111版では普通に使えていたLoraモデルが読み込めず苦戦しています。

    • @gamingogch
      @gamingogch  Рік тому

      Loraは試しに一回いれてみた程度なので特にトラブルはなかったですね。
      本家ではすでに治ってて、DirectML版にはまだマージされてないバグとかかもしれませんねえ。

    • @taxchoochoo
      @taxchoochoo Рік тому +2

      Loraが読めない問題解決しました。
      \stable-diffusion-webui-directml\extensions\a1111-sd-webui-locon\scripts\main.py を以下のように書き換えですね。
      371 行目: lora.mtime = os.path.getmtime(lora_on_disk)
      373 行目: sd = sd_models.read_state_dict(lora_on_disk)
      webui-user.batに--disable-nan-check を追加

    • @gamingogch
      @gamingogch  Рік тому +1

      おおおお!?
      すごい!
      Loraを使う際には参考にさせていただきます!

  • @KingofDaba
    @KingofDaba Рік тому +1

    ありがとうございます。Ryzen7+Radeon RX590 の環境です。Automatic1111でなんとか使ってましたが、LORAが効いてなかったりして、本当に使えてるのか疑心暗鬼だったんですが。。使い込まないとわからないですけど、安定しているようです。

    • @gamingogch
      @gamingogch  Рік тому

      コメントありがとうございます!
      お役に立てたようで何よりです。
      それにしても、Automatic1111版を直接使う方法は結構面倒くさかったと思うのですが、すごいですね!
      両方動かせるのは、比較したり、ハード的な選択肢を増やせたりで利点もあると思うのでうらやましいですね。

    • @KingofDaba
      @KingofDaba Рік тому

      @@gamingogch 返信ありがとうございます。お察しの通り、Automatic1111は、大変でしたね。わかってもらえてうれしいです。もちろん、ネットの皆様の知恵を拝借してですけど。これから使い込んでいきたいです。

    • @gamingogch
      @gamingogch  Рік тому +1

      @@KingofDaba この動画を作成する際にAutomatic版も検討したのですが、手順が面倒そうだったのでDirectML版を選択したという経緯がありました。
      そういったわけで、Automatic版をやられたとの事ですごいな、と思った次第です。

  • @ふくいザウルス
    @ふくいザウルス 23 дні тому +1

    ああ^〜いいっすね^〜

    • @gamingogch
      @gamingogch  23 дні тому +1

      あざます。他の関連動画も見とけよ見とけよ~

  • @Y8L00
    @Y8L00 Рік тому +6

    RX580-8GBで1 girlと打ち込むと、おおよそ1m 7.15sですね。
    set COMMANDLINE_ARGS= --lowvram で動作しましたが、さらに
    set COMMANDLINE_ARGS= --lowvram --always-batch-cond-uncond --opt-split-attention と追加しています。
    アスカベンチを動かそうとしたら絵が違って困りましたよ(;^_^A

    • @gamingogch
      @gamingogch  Рік тому +2

      --lowvramは、処理速度に大きなマイナスが発生するようですね。
      VRAM8Gであれば--medvramでも動いたりしませんかね?
      絵が変わってしまうのはseed値を-1(成果物の内容がランダムになる)とかにしてるからかもしれません。
      私はパフォーマンスチェック時はSeed値を固定(1にしている)いて、そうすると出力される成果物に大きな差が出ないみたいです。
      今まさにパフォーマンスチューニングに関する動画を作っているところです。本日中には挙げられると思うので、
      よかったらご覧いただければと思います。
      ※世代の違うカードなので参考程度に

    • @Y8L00
      @Y8L00 Рік тому +1

      @@gamingogch ベンチなのでseed値やstep数はPNG infoからの転写です、モデルデーターも合っていたはずなのですけど(;^_^A

    • @gamingogch
      @gamingogch  Рік тому +2

      アスカベンチは聞いたことはあるのですが使ったことが無いのです。お力になれず申し訳ない。

  • @フジィサン
    @フジィサン Рік тому +2

    ありがとうございます。おかげさまでRadeonで動くようになりました。感謝です。
    ちなみに計測結果:Ryzen 5 5600、RX6700XT、(1 girl)で28秒でした。あれ、6600と変わりない?

    • @gamingogch
      @gamingogch  Рік тому +2

      コメントありがとうございます。
      動画内の最終的な処理時間は、ある程度の最適化を行った後の処理時間です。
      また、WebUIのプログラム自体がこの動画作成時のバージョンより高速化がされています。
      ua-cam.com/video/uiOq8kJmju4/v-deo.html
      ↑続編で、高速化後のプログラムでの最適化方法を紹介したものがあります。
      まだ未視聴であれば参考になると思います。
      6700xtはVRAMが6600xtとくらべて大きくなってますし、すごく興味があります。

  • @tatsu6911
    @tatsu6911 Рік тому

    APIのチューンが進んでくると面白いことになりそうですね。
    この辺に目をつけたSDKがAMDから出ているのがこなれてくると面白いのですが。NVIDIAにしてもゲーム以外の用途用のSDKをかなり前から出しているわけでその辺が充実してグラボの性能を引き出せるといろいろな意味で楽しいことになるかなと思いました。

    • @gamingogch
      @gamingogch  Рік тому

      複数のメーカーが競争して技術が高まっていくという形が我々ユーザにとっても有益な状態になると思うので、頑張ってもらいたいですね。
      RX7000世代には使われていない(?)AI用のユニットが入っているという噂もありますし、この辺も楽しみですな。

  • @MrPontanium2
    @MrPontanium2 Рік тому

    これはすばらしい。
    私の環境もRX6600XTなので
    明日試してみます。

    • @gamingogch
      @gamingogch  Рік тому +1

      Geforceと比べるとやはり色々性能は落ちるようですが、Radeonでもそれなりには楽しめるはずです。
      よきお絵描きライフを!

    • @MrPontanium2
      @MrPontanium2 Рік тому

      今日は休みだったので一日かけて手懐けました。
      モデルの導入も解ったし各種調整も良い感じです。すべてこちらの動画のおかげです。
      感謝感激雨あられ!!!
      ちなみにわたしの環境は
      Intel core i5-13600K DDR4 32GB
      AMD Radeon RX6600XT

    • @gamingogch
      @gamingogch  Рік тому +1

      @@MrPontanium2 本番はこれからです!たくさんお絵描きして楽しんでください!

  • @kaz1598
    @kaz1598 Рік тому +1

    動画を参考に、MINISFORUMのHX90で使って見ました。速度マシマシの起動オプション良いですね。メモリをmaxの64GBまで載せて、内蔵GPUのVRAMを16GBにしたら、サンプリングステップ20、470×740の画像を1:35くらいで出せるようになりました。まだ、リサイズとかインペイントが上手く動作しませんが、雰囲気を味わうくらいのは楽しめてます。また、有用なTIPSがあれば紹介してください

    • @gamingogch
      @gamingogch  Рік тому +2

      おお!
      HX90ってAPUが乗ってるタイプでしたっけ。
      どういう理屈かわからないですが、APU環境ではブルスクになる場合があるようです。
      でも、メモリをそれだけ詰んでれば楽しめそうですな!
      有用になるかどうかは微妙ですが、アップスケールはアルティメットアップスケーラーをアドオンで入れると
      結構大きめにアップスケールが出来ましたよ。ただ、処理時間や成果物のクオリティは微妙だったかな?

    • @kaz1598
      @kaz1598 Рік тому

      @@gamingogch 今度、試してみます♪

    • @gamingogch
      @gamingogch  Рік тому +2

      @@kaz1598 地味に絵が変わってしまった記憶があるので、お遊び程度に考えておいてください😀

  • @フジィサン
    @フジィサン Рік тому

    どうもおひさしです。最近SDを使いだしました。
    やってきてわかってきたことを書きたいと思います。
    12GBメモリを搭載していますが、1024x1024あたりがどうやらリミットのようです。
    何回も作業させていると再利用できるメモリ量は徐々に減っていき、最後は諦めて再起動という流れを繰り返しています。
    とりあえず操作慣れとか実験段階ではなんとかなりそうですが将来高解像度を作りたいと思ったときは無理ですね。
    ちなみに、コントロールネットとか拡大系の処理も、メモリを沢山使うらしくこれも厳しい状態ですw

    • @gamingogch
      @gamingogch  Рік тому +1

      コメントありがとうございます!
      私の環境では、ControlNetやHiresを使うときは、場合によっては--lowvramのオプションを入れたりしないといけない場合があったので、VRAMの消費が激しいのは確かでしょうね。
      6月にあったアップデートで多少はメモリ消費が抑えられた感はありますが、それでも私の8Gの環境ではストレスがある状況です。
      運用的には、6月のアップデートで導入されたTokenMergeを使ってクオリティを犠牲にして速度を出す設定でとにかく絵を作りまくる→できた中で気に入ったプロンプトやSeedの組み合わせで、こんどはクオリティを上げた設定で仕上げる、というのがいいみたいです。
      ほかの方へのレスでも書きましたが、癖はありますが「Ultimate SD Upscale」という拡張機能も試してみると面白いかもです。
      Radeon用のCUDAに該当するROCmが何とか使えないかと調査したのですが、実現できず。
      ROCmがWindows対応するか、WSL2で使えるようになれば興味深い動画がつくれそうなのですが・・。

    • @フジィサン
      @フジィサン Рік тому

      @@gamingogch そうですね。速度を出す設定でとにかく作りまくって、気に入ったやつを高設定で仕上げるって感じですね。
      確かにこれが効率いいです。
      今は顔作りしてるので512の顔なら不自由はない感じです。
      今後全身となったらどうしようか...
      TokenMerge良さそうですね、今度試してみます。
      Ultimate SD Upscaleも調べようかな。やることいっぱいだ。

    • @gamingogch
      @gamingogch  Рік тому

      @@フジィサン AIお絵描きは本当に日進月歩でいろんな拡張機能がガンガン増えていて、やることいっぱいですよ!

    • @フジィサン
      @フジィサン Рік тому

      Ultimate SD Upscale導入しました!
      4kぐらいまで平気でアップスケールできちゃいますね。
      ただし画質を維持するために、またVRAMとの戦いが始まりなかなか苦労しそうですw
      これプレビューを見る限り、画像を分割して処理して高解像度処理を実現しているようですね。すごいです。
      さらに、これがimg2imgで使えちゃうというのが最もすごいところですね。
      アップスケールどころか、もっと色々なことができると思うと、可能性を感じざる得ません!

    • @gamingogch
      @gamingogch  Рік тому

      img2imgとかinpaintとかは色々拡張機能があって、可能性の獣です!
      この界隈、ガンガン変わっていくのですごいのですが、ほんとAMDもうちょっと本腰いれてくれませんかねえ

  • @アルバス-y1q
    @アルバス-y1q 8 місяців тому +1

    コメント失礼します。
    この動画を拝見し導入まではできたのですが、いざ画像生成するとgpuのvramを一切使わずにCPUで処理してしまい時間がすごくかかってしまいます。再インストールなどは試しました。原因がわかれば教えて欲しいです、、、
    使用CPU i312100f
    Gpu rx6600xt

    • @gamingogch
      @gamingogch  8 місяців тому +2

      コメントありがとうございます。
      考えられる原因は2つ
      ①以前使用していたRadeon以外のGPUのドライバが残っている
      これはこのコメント欄でもご報告があった事例ですが、以前NVIDIAのGPUを使っていてRADEONに載せ替えたケースですね。
      コントロールパネルからのドライバの削除では何かしらのゴミが残るようで、そのゴミファイルを検出してCUDA使用のモードで動いていた
      可能性がありました。
      DDU等のドライバ完全削除ツールを使用して削除を行うことでDirectMLモードで動作するようになったとのご報告がありました。
      ※申し訳ないですがDDUの使い方等はここでは説明できないのでググってもらえればと思います
      ②最新版のStableDiffusionWebUIDirectMLを使用する場合、Directml用の起動オプションが必要
      github.com/lshqqytiger/stable-diffusion-webui-directml/issues/335
      上記はDirectML版のgithubのFAQのようなものなのですが、最新版(v1.7)からdirectmlモードはオプションになったようです。
      起動オプションに「--use-directml」をつけることでdirectmlモードになるようです。
      私の環境はまだ1.6.1を使用しているので実際にやったことはありませんが、directml版の作者lshqqytiger氏のコメントでそう
      記載されているので、コレが今後の正しい使用方法になるのかもしれません。
      上記のURLのスレッドをグーグル翻訳等で翻訳し、「--use-directml」でページ検索すると該当の書き込みを確認できます😀
      上記のスレッドに「torch-directml」を「requirements_versions.txt」に追加するとうまくいったという書き込みもありました。
      これらの方法を試してみてください。
      それにしてもDirectml版なのになんでデフォルトではないオプションにしたんだろう・・・
      おまけ
      それと、このスレッドではv1.7は問題があるから使いづらい、v1.6に戻すといったユーザの書き込みもあるようです。
      gitの使い方になってしまうので、エンジニア系以外の方にとっては少し面倒な作業になってしまうかもしれませんが、
      使用するバージョンをv1.6に戻して使うのも手だと思います。
      バージョンの戻し方は下記の動画で
      ua-cam.com/video/Lvw1zKZB_44/v-deo.html
      ※他所様の動画なので大変恐縮なのですが・・・・
      恐らくこれらの対応で何とかなるはず・・・

    • @アルバス-y1q
      @アルバス-y1q 8 місяців тому +1

      おかげで解決いたしました!
      本当にありがとうございました。

    • @gamingogch
      @gamingogch  8 місяців тому

      @@アルバス-y1q 解決できたようでホッとしました😃

  • @user-mk2tz4ud5d
    @user-mk2tz4ud5d Рік тому +3

    めっちゃ生成早いなぁ、自分の環境だと1枚15分くらいかかるし、アップスケールだと40分から50分かかる・・・どうにかしたいけど解決法が分からない

    • @gamingogch
      @gamingogch  Рік тому +2

      GPUとVRAMサイズによって大きく生成時間がちがってくるとおもいます。
      ua-cam.com/video/uiOq8kJmju4/v-deo.html
      こちらの動画である程度の最適化について紹介していますので、もしまだご覧になっていなければ
      参考までにご確認ください(宣伝

  • @MrPontanium2
    @MrPontanium2 7 місяців тому +1

    AsrockがRadeon用の「生成AI」環境を一括インストールするツール公開してますよ。こちらのやつとどう違うんでしょうかねぇ。

    • @gamingogch
      @gamingogch  7 місяців тому +2

      すげーおもしろそう!とおもって早速ニュースサイトなどを見てみました。SharkとWebUI,WebUIONNXを入れられるみたいですね。
      Sharkというのはそこそこ前からあって、学習系の機能や拡張系の機能がない、もしくは少ないけれど、DirectML版より多少は早い、みたいな話をネットのどこかで見た記憶があります。簡易版みたいなイメージですかね、使ったことないので正確ではないかもしれませんが。
      ONNXのほうはモデルをそれ用に変換しないと使えないが処理はDirectML版とくらべて大分早い、だけどそのモデルの変換がめっちゃダルイという印象。これもやったことはなくて聞きかじりの情報ですが・・・。
      使い勝手や性能はともかく、面白そうだから試してみたい気はするのですが、7000番台なんすね・・・。しかもAsrock製のグラボのみとか。
      いずれにしても情報ありがとうございました!
      6000番台&Asrock以外でも使えるなら試して動画にしてみたいが、果たして・・。

    • @MrPontanium2
      @MrPontanium2 7 місяців тому +1

      動作要件はCPU含めかなり最新モデルに限られているうえ、GeForce環境では利用できない。グラフィックスカードには注意点として、ASRock製品のみをサポートしている旨が強調されている。なお、導入にあたってはインターネット接続が必要だ。
      CPU:第13~14世代Intel Coreプロセッサ、AMD Ryzen 5000 / 7000シリーズ
      マザーボード:Intel 600 / 700シリーズ、AMD 600 / 500シリーズ
      メモリ:32GB以上
      グラフィックスカード:ASRock AMD Radeon RX 7000 Series Graphics Cards
      ストレージ:25GB以上空いたSSD

    • @gamingogch
      @gamingogch  7 місяців тому +1

      @@MrPontanium2 Asrock製の7000番台ってのが解せないんですよね。
      結局手動でやってる作業の手順をスクリプトか何かでやってるだけなんじゃないかと思ってるのですが、そうするとなぜそういった要件が入ってくるのかが謎です。
      サポート外にはなるのでしょうが、やってみたら案外動いたりして、と思ってたりしますw

    • @MrPontanium2
      @MrPontanium2 7 місяців тому +1

      @@gamingogch たぶんそんなものでしょう。
      メーカーとして特色出したいからスクリプトにちょっとしたチェックが入っているだけかと

  • @riofio2507
    @riofio2507 Рік тому +1

    Visual Studioは不要なんですか?

    • @gamingogch
      @gamingogch  Рік тому +1

      不要です。
      動画内で説明がある通りPythonが必要です。

  • @user-ue3bq5kv2k
    @user-ue3bq5kv2k Рік тому +2

    ありがとうございます。
    VRAMが4GBしかないRX6500XTでも動きました!
    録画しながらa girlで40秒、思ったより早いです。
    ua-cam.com/video/ZXpgOM0m3DU/v-deo.html

    • @gamingogch
      @gamingogch  Рік тому +2

      コメントありがとうございます!
      動画も拝見させていただきました。
      さすがにnVIDIAのGPUのようにはいきませんが、お絵描きライフを楽しんでいきましょう!

    • @user-ue3bq5kv2k
      @user-ue3bq5kv2k Рік тому

      @@gamingogch
      何度か実行していると
      RX6500XTの共有GPUメモリ使用量がどんどん上がっていくのを確認しました
      img.ua-cam.com/users/viZXpgOM0m3DU/hqdefault.jpg
      専用の4GBで足りなくなると共有メモリを確保し始めるようですが
      2.4GBまでしか上がらず、ここを超えるとメモリ不足でエラーになりました
      OG03さんの環境では共有GPUメモリ使用量上がっていきますか?

    • @gamingogch
      @gamingogch  Рік тому +1

      @@user-ue3bq5kv2k むむむ。共有メモリの部分は、むしろ共有メモリつかってくれない、どうにかした使わせたいみたいな記事をみたことがあります。
      実際に動かしている最中も、共有メモリが余っていて、共有メモリつかってくれたらなぁと思ってたくらいなので、共有メモリが大きく使用される場面は記憶にないですね。※気づいていなかっただけの可能性もあり
      環境の違い(VRAMの容量)、運用の違い(拡張機能やアップスケールの度合い等)もありますし、申し訳ないですが正確なことをお伝えすることは無理そうです。
      また、DirectML版自体のバージョンも頻繁に上がってるし、それで共有メモリを使うようになったとかもあるかもしれません。
      ありそうかなあと思うのは、処理そのものではなく、拡張機能やチェックポイント、成果物の書き出し時にメモリリークが発生していて、何回も使うとたまっていっちゃうとか・・・?
      他の皆様の環境下での共有メモリの動きも聞いてみたいですね。

  • @trancemitter918
    @trancemitter918 Рік тому

    rx6700xtを使用して動かしてみたんですが、cpu使用率が100%に張り付いてvramが1.4GBしか使われない謎の事態に陥りましたw もう挫折しそうですw

    • @gamingogch
      @gamingogch  Рік тому

      謎ですね・・・。
      clone時にdirectml版ではなく、automatic1111版を指定してたりしませんか?
      × clone github.com/AUTOMATIC1111/stable-diffusion-webui.git
      〇 clone github.com/lshqqytiger/stable-diffusion-webui-directml.git
      後は・・、複数GPUがある、もしくは、以前にnVIDIAのGPUを使っていて、そのドライバが残っているとか。その場合はnVIDIAのドライバを削除してみるとか。
      githubのissueやdiscussionsをgoogle翻訳で調べてみましたが、上記のようなことが記載されていました。
      それ以外にもありそうな感じですが、解決策が明確に記載されている様子はありませんでしたね・・・。

    • @trancemitter918
      @trancemitter918 Рік тому +2

      @@gamingogch コントロールパネルからnvidiaドライバーをアンインストールするだけでは十分では無かったらしく、DDUでアンインストールしてみると上手くいきました!
      pc内にnvidiaドライバー関連のファイルが少しでも検出された場合、ソフトウェア側が自動でcudaを使用するバージョンに切り替わるようです。
      本当に助かりました。ありがとうございます!

    • @gamingogch
      @gamingogch  Рік тому

      @@trancemitter918 おお!成功したようでなによりです!
      これは今後directml版で遊ぼうと思っている方々にも有用なtipsになりそうですね!😀

  • @user-goochokipanogoo
    @user-goochokipanogoo Рік тому

    本人声じゃないっすよね?🤫

    • @gamingogch
      @gamingogch  Рік тому +1

      Voicevoxという合成音声の「ナースロボ_タイプT」というキャラの声です

    • @tacossalsa7471
      @tacossalsa7471 Рік тому

      可愛くて聴きとり易い声だし、少しハスキーで囁き成分もあるので、私はこの声が大好きですよ。
      登録もさせて頂きました❤
      ただ、解説がメインの動画なので、BGMはボリュームが大き過ぎると思えます。
      (番組の雰囲気作りのための、背景となる音楽なので、現在の1/4程度の聴こえるかどうかくらいで良いのではないでしょうか?)

    • @gamingogch
      @gamingogch  Рік тому

      @@tacossalsa7471 コメントありがとうございます!
      音量について、自分一人の感性や、スピーカやOS上のボリューム環境等どうしても視野が
      狭くなりがちなので、他の視点でのご意見ありがたいです。
      次回作成時意識してみたいと思います。