- 60
- 44 183
Uncle AI's Learning Notes
Japan
Приєднався 25 лют 2024
Hello, this is Uncle AI. This channel will be a video memorandum of an ordinary uncle's daily life struggling with AI, and I hope it will be a helpful hint for those of you who are interested in ChatGPT and other AI technologies, but don't know where to start. Together, let's work hard!
ローカルLLM導入解説!!with Flux.1/Ollama×Llama3×ComfyUI
こんにちは、AIおじさんです。ローカルLLM導入解説、今回は、OllamaでLlama3モデルを作成し、ComfyUI-ollamaでComfyUIと統合しFlux.1で画像生成を行っています。近日中に応用編をアップしたいと現在検証中でございます。
OllamaSetup.exe
github.com/ollama/ollama?tab=readme-ov-file
Ollama インストール先 場所
C:\Users\ユーザー名\AppData\Local\Programs\Ollama
※インストール先場所が不明な場合
where ollama
elyza/Llama-3-ELYZA-JP-8B-GGUF ダウンロード
huggingface.co/elyza/Llama-3-ELYZA-JP-8B-GGUF/tree/main
modelfile の中身 ※LLMモデルが、C:\model に格納の場合
FROM C:/model/Llama-3-ELYZA-JP-8B-q4_k_m.gguf
Ollama モデル作成コマンド
cd C:\Model
ollama create Llama-3-ELYZA-JP-8B-q4_k_m.gguf -f Modelfile
モデル確認
ollama list
モデルを実行
作成したモデルを使用してプロンプトを実行します
ollama run "Llama-3-ELYZA-JP-8B-q4_k_m.gguf:latest"
※参考 comfyui-ollama ページ
github.com/stavsap/comfyui-ollama
今回、お世話になったブログページ
Ollama_ComfyUIでLLMを使う方法
note.com/catap_art3d/n/n61388639e2ef
#ローカルLLM #ollama #comfyui #llama #flux #chatgpt
OllamaSetup.exe
github.com/ollama/ollama?tab=readme-ov-file
Ollama インストール先 場所
C:\Users\ユーザー名\AppData\Local\Programs\Ollama
※インストール先場所が不明な場合
where ollama
elyza/Llama-3-ELYZA-JP-8B-GGUF ダウンロード
huggingface.co/elyza/Llama-3-ELYZA-JP-8B-GGUF/tree/main
modelfile の中身 ※LLMモデルが、C:\model に格納の場合
FROM C:/model/Llama-3-ELYZA-JP-8B-q4_k_m.gguf
Ollama モデル作成コマンド
cd C:\Model
ollama create Llama-3-ELYZA-JP-8B-q4_k_m.gguf -f Modelfile
モデル確認
ollama list
モデルを実行
作成したモデルを使用してプロンプトを実行します
ollama run "Llama-3-ELYZA-JP-8B-q4_k_m.gguf:latest"
※参考 comfyui-ollama ページ
github.com/stavsap/comfyui-ollama
今回、お世話になったブログページ
Ollama_ComfyUIでLLMを使う方法
note.com/catap_art3d/n/n61388639e2ef
#ローカルLLM #ollama #comfyui #llama #flux #chatgpt
Переглядів: 350
Відео
初心者向け導入マニュアル!ローカル環境でFlux.1_by ComfyUI/全編Stability Matrixで楽々インストール!!
Переглядів 434День тому
こんにちは、AIおじさんです。ローカル環境、Flux.1の導入マニュアルを改めて作成いたしました。全編StabilityMatrix内で完結するようになっております。ComfyUIの導入からFlux.1のダウンロード、初期設定、画像生成まで分かりやすく解説いたします。 Stability Matrix github.com/LykosAI/StabilityMatrix/blob/main/README.md ファイル名を下記のように変更します flux_schnell.sft → flux1-schnell.safetensors flux_dev.sft → flux1-dev.safetensors fluxVaeSft_aeSft.sft → ae.safetensors Save image 日付フォルダ自動作成 te:yyyy%-te:M%-te:d%/"ファイル名"...
ローカルLLM by ComfyUI with Flux.1/導入手順を分かりやすく解説いたします/予想以上に簡単導入できて面白いよ!!
Переглядів 64614 днів тому
こんにちは、AIおじさんです。ComfyUI でローカルLLMを導入いたしました。予想してたよりも割と簡単に導入できました。動作も思ってたよりも重くなく、簡単な指示文から詳細なプロンプトを生成してくれます。思い通りの画像を生成するには工夫と慣れ?が必要そうですが、中々面白いものですね。導入もそんなに手間がかからないので、興味のある方は一度お試しいただけたらと思います。 StableDiffusion3.5導入解説 ua-cam.com/video/ZM_LB3BBPew/v-deo.html black-forest-labs/FLUX.1-dev huggingface.co/black-forest-labs/FLUX.1-dev ByteDance Hyper-FLUX Acceleration LoRA civitai.com/models/691446/bytedance-...
Flux.1 Tools Canny&Depth導入解説!8step Lora使用で生成時間も短縮!導入から使用手順まで詳しく解説!
Переглядів 41821 день тому
こんにちは、AIおじさんです。Flux.1 CannyとDepthの解説をいたします。これで、一通りFlux.1 Toolsの解説は完了した感じですね。今回、生成時間の短縮でHyper Fluxを使用いたしましたが、これから先、まだまだ新しい技術が登場しそうで楽しみです。 canny depthのダウンロード black-forest-labs/FLUX.1-Canny-dev-lora huggingface.co/black-forest-labs/FLUX.1-Canny-dev-lora/tree/main black-forest-labs/FLUX.1-Depth-dev-lora huggingface.co/black-forest-labs/FLUX.1-Depth-dev-lora/tree/main StableDiffusion3.5導入解説 ua-cam.c...
ローカル環境で快適に使いたいPart2/Flux.1 by ComfyUI/PC環境の見直し、メモリ管理/軽量化モデル+8step-Lora/どこまで快適なるか検証してみました!
Переглядів 360Місяць тому
こんにちは、AIおじさんです。今回、PCの環境を見直し、軽量化モデル+8step-Loraを使用して、どこまで快適になるか検証いたしました。この動画をご覧になって、環境が改善することがあればとても嬉しいです。 ByteDance Hyper-FLUX Acceleration LoRA civitai.com/models/691446/bytedance-hyper-flux-acceleration-lora #flux #stablediffusion #chatgpt #画像生成ai
Open AI Sora/遂にリリース!早速使ってみたよ!生成結果をHailuo AIと比較してみた!
Переглядів 563Місяць тому
こんにちは、AIおじさんです。やっと、Open AI Soraログインできました。早速使ってみましたが、現時点では人物を含む画像のアップロードが、出来なかったり、アクセス過多なのか、エラーで落ちたりとかありました。でも絵のクオリティは、高そうに感じました。今後のアップデートを期待してます。あと、Hailuo AIと同じプロンプトでの生成比較をしてますので、良かったら見てやってくださいませ。 Open AI Sora openai.com/sora/ Sora - 請求とクレジットに関するよくある質問 help.openai.com/en/articles/10245774-sora-billing-credits-faq Hailuo AI hailuoai.video/ #openai #openaisora #hailuoai #chatgpt #チャットgpt #動画生成ai
ローカル環境で快適に使いたい!Flux.1_Tools_Fill使い倒してみた!軽量化モデルも比較検証!
Переглядів 973Місяць тому
こんにちは、AIおじさんです。Flux.1_Tools_Fill 、軽量化モデルも含めて検証いたしました。やっぱり、私のPC環境(RTX3060/12GB)では、デフォルトモデルは、時間がかかってしまい快適とは言い難いかな。しかし今回、検証した軽量化モデルは使用する価値があるかなと感じました。特にアウトペインティングは、画像領域を拡張するのでホントに生成時間がかかりますのでこういうモデルは大変ありがたいですね。 black-forest-labs/FLUX.1-Fill-dev huggingface.co/black-forest-labs/FLUX.1-Fill-dev ワークフローダウンロード comfyanonymous.github.io/ComfyUI_examples/flux/ SD3.5導入解説動画 ua-cam.com/video/ZM_LB3BBPew/v-de...
Flux.1_Tools_Redux使い方解説!面白くてハマってしまう事間違いなし!
Переглядів 1,1 тис.Місяць тому
こんにちは、AIおじさんです。Flux.1 Tools Reduxを使ってみました。他のCanny,Depth,Fillについても、近日中に配信したいと思います。Reduxですが、これ結構ハマります。ただ、まだ自分で制御することが出来なくてガチャ要素が強いことが少し残念です。日々精進ですw Flux.1 Tools 紹介ページ blackforestlabs.ai/ FLUX.1-Redux-dev huggingface.co/black-forest-labs/FLUX.1-Redux-dev Flux.1 fill-dev huggingface.co/black-forest-labs/FLUX.1-Fill-dev Flux.1 Depth-dev huggingface.co/black-forest-labs/FLUX.1-Depth-dev Flux.1 Canny-...
StableDiffusion3.5_コントロールネット登場!使い方解説いたします!
Переглядів 653Місяць тому
こんにちは、AIおじさんです。StableDiffusion3.5用のコントロールネット出ましたね。blur、canny、depth 中々良いのだけれど、欲を言えば、私のPC環境(RTX3060)で、もう少しサクサク動けばいいのだけど。もうじきMedium版もリリースするような噂があるので期待大♪ ControlNets for Stable Diffusion 3.5 Large stability.ai/news/sd3-5-large-controlnets ComfyUI.org blog.comfy.org/sd3-5-large-controlnet/ sd3.5_large_fp8_scaled.safetensors huggingface.co/Comfy-Org/stable-diffusion-3.5-fp8/tree/main Stability AI Com...
StableDiffusion3.5導入解説!新しくなったインターフェースのComfyUI対応!Stability Matrixで楽々インストール!
Переглядів 3 тис.Місяць тому
こんにちは、AIおじさんです。今回、ComfyUIの導入、モデル、Loraまで 一貫してStability Matrixで行っております。 Stability Matrix github.com/LykosAI/StabilityMatrix/blob/main/README.md clip_g.safetensors huggingface.co/stabilityai/stable-diffusion-3.5-large/tree/main/text_encoders Da Vinci Ink sketch civitai.com/models/212322 #stablediffusion #Stability Matrix #comfyui #chatgpt #チャットgpt #AI入門 #動画作成 #初心者向け #vrew
SunoAIとHailuoAIでMVを作ってみたよ!テーマは80's J-POP!
Переглядів 186Місяць тому
こんにちは、AIおじさんです。Suno AIが、V4になりましたね。早速使ってみましたが音質だけでなく、例えば歌い手さんの表現力も増したように思います。気のせいw 今回、80's J-POPをテーマにMV的なものを作ってみました。もう少し上手になったら、また制作手順について動画を配信したいと思います。 今回、使用したAIツール ・Suno AI・Flux.1 ・Recraft ・Hailuo AI ・Filmora ・Vrew #chatgpt #チャットgpt #AI入門#動画作成#AI教育#初心者向け#AI活用方法#vrew #suno #hailuoai
Flux.1-devが、Flux.1.1-Proスタイルに!WebUI ForgeでFlux.1使い倒します!
Переглядів 6922 місяці тому
こんにちは、AIおじさんです。FLUX [pro] 1.1 Style Loraという、Flux.1-devが、Flux.1.1 - pro風になるLoraを使ってみました。中々良い感じですよ。 Black Forest Labs blackforestlabs.ai/ fal ai fal.ai/dashboard Git Hub github.co.jp/ WebUI ForgeでFlux.1使ってみたよ!面倒な手順が無いのでサクッと導入完了! ua-cam.com/video/vWpW-NEhVWk/v-deo.html FLUX [pro] 1.1 Style Lora - Extreme Detailer for [FLUX.1-dev] civitai.com/models/832683/flux-pro-11-style-lora-extreme-detailer-fo...
Recraft AI V3 登場!操作手順をわかりやすく解説!!画像生成ツールだけじゃない!
Переглядів 8022 місяці тому
こんにちは、AIおじさんです。Recraft AIが、V3になって登場しましたね。以前も、Recraft AIについては解説動画を出していたのですが、当時は無料プランだったので、次第に使わなくなっていってました。今回、画像の生成クオリティが結構良くなったので、めでたく有料プラン(Basic)に課金いたしました。FluxとかSDとかとは、また別の使用用途となりそうですね。 Recraft AI www.recraft.ai/ 今回、動画プロンプトを生成したGPTs chatgpt.com/g/g-2DJ8FnqE8-huronhutokurieta #chatgpt #チャットgpt #AI入門#動画作成#AI教育#初心者向け#AI活用方法#vrew #Recraft
Stable Diffusion 3.5導入解説!Stability Matrixで楽々インストール!
Переглядів 4,2 тис.2 місяці тому
Stable Diffusion 3.5導入解説!Stability Matrixで楽々インストール!
Vrewでミュージックビデオの作成手順解説します!字幕処理~画像のエフェクト処理等!
Переглядів 4942 місяці тому
Vrewでミュージックビデオの作成手順解説します!字幕処理~画像のエフェクト処理等!
操作手順が、超シンプルなのに高クオリティ動画生成可能なHailuo AIが、想像以上に凄かった!!今なら無料だよ!
Переглядів 8163 місяці тому
操作手順が、超シンプルなのに高クオリティ動画生成可能なHailuo AIが、想像以上に凄かった!!今なら無料だよ!
Filmoraを使ってループ動画クリップを作ってみました!作成手順解説いたします!
Переглядів 2,2 тис.4 місяці тому
Filmoraを使ってループ動画クリップを作ってみました!作成手順解説いたします!
Flux.1でLoraを使ってみたよ!WebUI Forgeでの導入手順と検証報告します!
Переглядів 8634 місяці тому
Flux.1でLoraを使ってみたよ!WebUI Forgeでの導入手順と検証報告します!
WebUI ForgeでFlux.1使ってみたよ!面倒な手順が無いのでサクッと導入完了!
Переглядів 2,2 тис.4 місяці тому
WebUI ForgeでFlux.1使ってみたよ!面倒な手順が無いのでサクッと導入完了!
FLUX.1をローカルで使ってみた!導入手順をわかりやすく解説!ComfyUI導入からモデル導入、画像生成まで!
Переглядів 4,4 тис.4 місяці тому
FLUX.1をローカルで使ってみた!導入手順をわかりやすく解説!ComfyUI導入からモデル導入、画像生成まで!
Kaiber AI と Suno AIで、MVを作ってみました③ #kaiberai #sunoai
Переглядів 1085 місяців тому
Kaiber AI と Suno AIで、MVを作ってみました③ #kaiberai #sunoai
自分の声を選択したキャラクターの声にリアルタイムで変換してくれるSupertone Shiftが面白い!!
Переглядів 2525 місяців тому
自分の声を選択したキャラクターの声にリアルタイムで変換してくれるSupertone Shiftが面白い!!
Suno AIでソングスタイルのプロンプトを書いてくれるGPTsを作って色んな曲を作ったら無茶苦茶面白かった
Переглядів 1,4 тис.5 місяців тому
Suno AIでソングスタイルのプロンプトを書いてくれるGPTsを作って色んな曲を作ったら無茶苦茶面白かった
テキストから、簡単にゆっくり解説動画を作成してくれるNoLangを無料プランで使い倒してみた
Переглядів 8826 місяців тому
テキストから、簡単にゆっくり解説動画を作成してくれるNoLangを無料プランで使い倒してみた
いつも楽しく勉強になる動画をありがとうございます。BGMのジャズもとても素敵です! もしご存じであれば教えてください。 以前のAutomatic1111ではイラストのキャラを実写に描写を変換してくれる機能。。たしかtileとか呼んでいた機能があったと記憶しております。 色々な事が出来るComfyUIですがこちらのシステムにも同じようにイラストから実写に変換できるような機能はあったでしょうか?
管理上の都合でggufファイルをc:\modelじゃないフォルダに保存しmodelfileの中身のパスも変更したのですがollama createコマンドで失敗 modelfileの中身を絶対パスではなく相対パス FROM ./Llama-3-ELYZA-JP-8B-q4_k_m.gguf に変更したら成功したのでご報告。解説ありがとうございました~
コメントありがとうございます。成功したとの事、良かったです。modelfileのデフォルトでは、確か相対パスだったのですが、何故か上手くいかなくて、絶対パスで指定しました。相対パスでの記述もしておけば良かったかなと少し反省。
リクエストに応えて頂きありがとうございました。一応、こちらの動画公開前にAIに聞いて導入は出来ていたのですが、modelfileの中身やモデル名がシンプルでわかりやすいので改めて動画を見ながら再インストールさせて頂きました。とてもわかり易かったので助かりました。次回の設定内容の解説やLLaVAの解説も楽しみです。あと、またお願いなのですが、頃合いを見て「Comfy-WaveSpeed」の解説もお願いしたいです。それと、LoRAを使う時にtextプロンプトにトリガーワードを入れ忘れる事が多いので、自動で追加出来る方法があれば教えて欲しいです(表示する方法はあるのですが・・・)。こちらは全く急いでないので、暇な時にお願いします。
コメントありがとうございます。次回は応用編として、Ollama Gererateのアドバンスノードを使ってもう少し詳細な設定を解説と、LLavaモデル導入で、元画像から、その画像の特徴を記述してもらって、プロンプトを生成みたいな解説が出来たらと思っています。Comfy-WaveSpeed、なんか爆速生成出来るものくらいの認識しかないのですが、とても気になりますね。LoRA利用時のトリガーワード、自動で追加できる方法あれば便利ですね。何か良い方法を見つけたらご報告しますね。
11:03~Hyper-FLUX.1-dev-8stepsによる髪の毛のジャギや まつ毛周辺のノイズがどうにも気になったので、 個人的にHyper-FLUX.1-dev-8steps と FLUX.1-Turbo-Alphaの比較テストをしてみたのですが、FLUX.1-Turbo-Alphaの方が髪の毛の品質は高いです。Hyper-FLUXより少しだけ生成速度が遅くなりますが。
そうなんですよね、髪の毛周辺のジャギ気になりますね。なので、うちも8stepでなく16stepにしたりしてます。 FLUX.1-Turbo-Alphaは、まだ試してみた事なかったのですが一度試してみますね。いつもアドバイスありがとうございます。
いつもわかりやすい解説で参考にさせて頂いてます。ところで、私も「ComfyUI上でローカルLLM("Ollama"と"elyza /Llama-3-ELYZA-JP-8B-GGUF)を用いて生成されたプロンプトを使って Flux.1で画像生成しようと試みているのですが、「Gemini 2.0 flash experimental」の指示通りに導入しようとしたところ、なかなかうまく行きません。よろしければ、「Llama-3-ELYZA-JP-8B」かその量子化モデル「elyza/Llama-3-ELYZA-JP-8B-GGUF」で導入出来るかを試して欲しいです。
コメントありがとうございます。この動画を作るのにローカルLLMで色んな記事を見て回ったのですが、その時にollamaを利用したLLMの記事もあったので、気にはなっていました。これって、アシスタントという、ローカルLLMに指示を与える設定ファイルを.jsonファイルにして読み込めるみたいですね。配信時期は未定ですが、Llama-3-ELYZA-JP-8B-GGUFで、検証してみたいと思います。また、完成したら見てやってくださいませ。
わかりやすい説明でありがとうございます。 ただ、Stable Diffusion 3.5と入れても検索に引っ掛かりませんでした。 CLIP/text encoderという項目もありませんでした。 何がちがうのでしょうか。 わかれば教えていただけるとたすかります。
コメントありがとうございます。ひょっとして、Stability Matrixのバージョンが古いかもしれません。 それらについての手順を含めた簡単な動画を作成しましたので、一度お試しください。 ua-cam.com/video/8wVW8MRPHao/v-deo.html 不明点等ございましたら、またコメントください。
プロンプトにSearge LLM Nodeを繋いだ方が、予想外の面白い画像が生成されたり、試行錯誤の回数が減るのでは?🤔LLMを組み込む分、生成時間が少し伸びるかもしれませんが。
LLMとても気になります。まだ、あんまり把握してないんですよね。これって、ダイナミックプロンプトとのように、ランダムでプロンプトを生成するのとは違って言語モデルからプロンプトを生成するって認識でいいんですよね。一度試してみて、また、動画内でご報告するかもしれません。 いつも、助言ありがとうございます。また、来年もよろしくお願いいたします。
@@UncleAI733 >ランダムでプロンプト生成ではなく、言語モデルからプロンプトを生成するので合ってると思います。 ↓LLMを試すなら、下記動画が参考になるかと。 FlowStateチャンネル Searge LLM in ComfyUI is the SECRET to Prompting LIKE A BOSS 2024/09/26 この動画の概要欄に記述されてるpatreonの投稿を辿れば、ワークフローの画像も拾えます。
Recraft課金したのですがよくわからない機能がありました。こちらを拝見して理解できましたありがとうございます。
コメントありがとうございます。Recraft AI ホントにたくさん機能ありますよね。ロゴデザインとかも作れたりするのですが、あんまり把握できていません。日本語のロゴとかが作れるようになったら無敵のような気がしますw
can i use it in sd webui?
Thank you for your comment. It is still only available in ComfyUI. I am also waiting for it to be available in Webui forge.
まだまだこの機能は改善の余地大アリですが、AIの進化は凄いですね。
コメントありがとうございます。そうですね、AIの進化で作る楽曲もかなりクオリティが上がってきてるのですが、やっぱり人の生の声や、生の演奏で受ける感動には、まだ叶わないかなと思ったりします。多分、歌が上手いとか演奏が上手だとか以外の何かが伝わってくるのだと思います。 @hiraqu5696さんの曲、聞かせていただきました。中々良いですね、これは、Dawとかで作ってミキシングしてるのですか?また、音楽の話を聞かせていただけたらと思います。では、また!
歌詞のサビ部分で個々のキャラクターのアップカットを混ぜて変化を出した方が、視聴者の興味を引くようになると思います。曲の出だしでは、キャラの持つ楽器のアップを映して、「これから何が始まるんだろう?」感を出すのも有効かと。 とにかく「あまり変化が無い」「ずっと単調でほとんど同じ絵」では飽きられます。
ご視聴ありがとうございます。そうなんですよね。サビとか間奏で、色々と構想はあったのですが、中々思い通りに生成出来なくてw 例えば、ギターの娘にズームして、なんかさせるみたいなプロンプトを書いたんですが、ズームはするけど、その後全く違う人に変わったりとか。ホント難しいですね。あと、アニメ調とかの生成は、顔の表情が崩れる割合がとても多いですね。使えそうなのに当たるまでひたすらガチャです。 今度はもう少し良いものを出来るように頑張りますので、良かったらまた見てやってくださいませ。
@@UncleAI733 アニメキャラの顔崩れや一貫性の維持は難しそうですが、曲の出だしの「チャララ~ン」の部分で、各楽器のアップカットを混ぜる手法は使えると思います。
助言ありがとうございます~。参考にさせていただきます。今度は、もっと各キャラに個性を持たせたいなと思ったりしてます。難しそうだけどw
フィモーラでこれと同じやり方をしたら重なったとこが色が濃く2重になってます キーフレームもいれその間の不透明度も0%になってるんですがわかりますか?
コメントありがとうございます。 これって、ひょっとして上層のクリップのキーフレームが、効いていないような感じですね。 キーフレームは、上層のクリップのみに設定をします。 透明度の値を0にするのは、上層クリップの最後に設定するキーフレームのみです。 要は上層の画面が、段々と透明になって最終的に下層の画面が見えてくるような仕組みです。 一応念のため、ループ動画クリップの手順を下記しますね。 ・元の動画クリップを確認しながら、後半部分を切り取る ・切り取った部分を、上層の先頭に移動する ・下層のクリップを少し後ろに移動する ※上層と下層のクリップが重なる ・上層のクリップを選択して、バーを下層のクリップの先頭に移動する ・その状態で、キーフレームボタンを押す ・バーを上層クリップの最後に移動し、再度キーフレームボタンを押す ・その状態で、右メニューの不透明度の値を100から0にする これで、完了となります。 一度、ご確認いただいてよろしいでしょうか。また、不明な点がございましたらお気軽にお声がけくださいね。
15:00~ノードの繋ぎ変えについてですが、ラインの接続を切断しなくても、 Shiftキーを押しながら、繋ぎ変えをしたい元のノードのポイントからラインをドラッグすると、別のノードに繋ぎ変えられますよ。
あ、ホントだ!ありがとうございます。ComfyUIの便利設定色々ありますよね。他の方の記事もよく見るのですが、こんな事も出来るんだみたいな発見があります。
@@UncleAI733 ノードから繋ぎ変えたいラインの本数が1本ずつの場合なら、切断して繋ぎ直しても良いのですが、ラインが2ヶ所以上のノードに繋がってる場合は、Shiftキーを押しながらラインを繋げ変えた方が、見落としが無くて圧倒的に便利です。
確かに、切断したのはいいけど、あれ?何処に繋げたら良かったっけ?みたいなのがありますね。
このワークフローは、LLMを追加したり、個人的に初期のFLUXで作ったLoRAを組み込んでも機能しますか?🤔 FLUX.1-Turbo LoRAも組み込めるなら、さらに高速化できそうですけど。
貴重なコメントありがとうございます!!試しに、Hyper Fluxという、devを8ステップで動作するLoraを組み込んでfill devで、一応動作しました。生成時間は、Fill turboと同じくらいになりました。とりあえず、ご報告でした。
@@UncleAI733 ありがとうございます!GGUFとHyper Flux LoRAを組み合わせれば、もう少し速くなりそうですね?
@@UncleAI733 自分のPC環境、RTX3060、VRAM12GB(メインメモリは96GB)でインペイントだけ試しました。 t5-v1_1-xxl-encoder-Q4_K_S.ggufとFLUX1-Turbo-AlphaのLoRAを組み合わせ、STEP数は8に設定して、生成時間は70秒ほどでした。 まぁまぁ満足かな・・・?
検証ありがとうございます。こちらも、Hyper flux.1 dev 8step lora での生成結果は下記のようになりました。 題材は、今回の動画でも検証したニット帽の女性です Flux-fill-dev 1回目 95.18s 2回目 35.98s FluxFill-FP8_V10 1回目 70.09s 2回目 36.06s FluxfillV1FP8Turbo_10 1回目 70.24s 2回目 36.71s Flux-fill-dev-Q8_0 1回目66.77s 2回目46.72s これを見ると、2回目がほとんど大差なくなってしまいました。うーん、Turboくんの存在価値がw
@@UncleAI733 やっぱりLoRAは有効ですねぇ~~☺
いつも楽しくもありとても参考になる動画をありがとうございます、また説明もどのチャンネルよりも丁寧に感じました!!!
@GISIGISI-j4bさん、ありがとうございます~。とても嬉しいです。私自身、経験が浅い初級者なのですが、だからこそ上級者の方には当たり前でスルーするところも説明していけたらと思います。 これからもよろしくお願いします。
わかりやすい解説ありがとうございます
@arisa_tomiokaさん、こちらこそ ご視聴ありがとうございます~
sd3.5_large.safetensors がリンク切れてるみたいです 「サイトでファイルを受け取れませんでした」と出ます
ご質問ありがとうございます。動画概要欄にある、下記のリンクからこちらでもダウンロードしてみてるのですが 今のところ、ダウンロードは進んでるようです。また、結果をお知らせいたします。 huggingface.co/stabilityai/stable-diffusion-3.5-large/tree/main
一応、こちらでは問題なくダウンロード出来ました。結構時間はかかったけど。 リンクには多分問題ないようですね。ネットワークに問題が無いようでしたら、一時的に向こうのサーバーに問題があったとかかもしれないですね。また、お時間を変えて試していただいてよろしいでしょうか。 以上、よろしくお願いいたします。
わかりやすい動画をアップしていただき有難うございます! ワークフローをロードするためにComfyUIを立ちあげたのですがコントロールパネルが画面上にでてきません。どのようにすれば表示されるのか教えていただけないでしょうか?
ComfyUIの画面が新しくなったみたいですね。今までのコントロールパネルが無くなってますw 私も久しぶりにComFyUI起動したら面喰ってしまいました。 こちらについても、簡単ですが動画クリップ作成しましたので一度確認していただいてよろしいでしょうか。 ua-cam.com/video/MKji7Ud_T6w/v-deo.html あと、ComfyUIのインタフェースが新しくなって、割と便利な機能とかが追加になってるので、その辺りまた動画アップしたいと思ってますのでよかったら、また覗きに来てくださいませ。
@@UncleAI733 さっそく解説用動画まで作成いただきありがとうございました!おかげでワークフローのロードができました。チャンネル登録もさせていただきましたので、新作動画を楽しみにしています。また質問させていただく事があると思いますがよろしくお願いします☺
ワークフロー無事ロード出来て良かったです。ComfyUI、新インタフェースと絶賛格闘中wなので、まとまりましたら動画アップいたしますのでよろしくです。
TripleclipLoaderのclip1clip2clip3が変更したいけど他のものが選べません。何が原因でしょうか?
ご質問ありがとうございます。一度、確認をお願いしたいのですが、clipファイル3点が、\Packages\ComfyUI\models\clipフォルダに存在しますでしょうか? ひょっとして、以前、WebUI Forge等を導入したとかで、\Packages\stable-diffusion-webui-forge\models\VAEに間違って格納してないでしょうか? 以上、よろしくお願いいたします。
返信ありがとうございます。 PC〉Windows C〉ComfyUI〉models〉clipに3点入っている状態です。
ご確認ありがとうございます。Cドライブ直下に、Stability MatrixでComfyUIのパッケージ導入という認識でよいかと思うのですが、パスの説明で、/Packagesより上の階層を端折ってるので混乱を招いているのかも?と思ったので、Clipファイルの格納先について簡単な動画クリップを作りました。大変お手数ですが再度ご確認をお願いできますでしょうか。 ua-cam.com/video/L9Teyz9d8MA/v-deo.html
詳細の動画、ありがとうございました。 無事に変更することができました!
プレビューが最初の1フレームしか見れないのがなあ。 予期せぬ変化とか動きかましてくるし運任せにクレジット消費したくないのに…
コメントありがとうございます。確かにそれはありますね。私も以前、3回程生成して結局そのままじゃ使えないので良いとこどりして使ったことがあります。クレジットの消費がばかにならないので最近は短めで生成してます。 「予期せぬ変化」確かにw
@@UncleAI733 リンキンパークのMVみたいな尺を作ろうとすると、とてつもないぐらいクレジット必要になりそうですよね笑
ロストですね、あれカッコいいですよね。あれ見てKaiber始めた人も沢山いるんだろうなと思います。 しかし、現実は厳しくw そう簡単にはいきませんね。
参考になります。ありがとうございます。とちゅうまで別々のクリップだった動画が一つにまとまっているのですがこれはどうやって処理していますか?
ご質問ありがとうございます。ごめんなさい、別々のクリップだった動画が一つに....がどの部分を指しているのかがわからなくて... 今回の動画の流れを下記いたしますね。 ①楽曲、背景動画、環境音等、素材の生成 ②楽曲を、Filmoraに配置 ③背景動画を、Filmoraに配置 ④キーフレーム機能を使用して、ループクリップを作成→曲の終わりまでコピー ⑤環境音を、Filmoraに配置→楽曲サイズに合わせてコピー ⑥全ての設定が完了したら、MP4にエクスポートして動画の完成となります 概ね、以上のような感じとなります。
初めまして。 動画を作成しているのですが、 プレビュー方法が見あたらず、、 どこかにプレビューボタンてありますか? またURLでweb上で開くと 字幕を設定したのに、一瞬字幕が映って消えてしまいます。 なぜかわかりますでしょうか。 よろしくお願いいたします。
補足ですが、プレビューは 全画面で再生して確認したいです。
ご質問ありがとうございます。プレビュー表示ですが、ブラウザ表示がしたいという認識だと思うのですが、 Vrewのプロジェクトファイルを直接ブラウザ表示はできないので、下記の方法をお試しいただいてよろしいでしょうか。 ①プレビューしたいプロジェクトファイルをVrewで開いた状態で、エクスポート → プレビュー共有 を選択 ②プレビュー共有の画面で、共有するをクリック ③リンクが作成されるので、ブラウザで表示することができます※表示まで少し時間がかかります ④全画面表示にする場合は、動画画面の下に再生ボタン等のメニューがあり、一番右に全体画面というボタンあるのでそれをクリックします。 一度お試しくださいませ。
@@UncleAI733 ご返信ありがとうございます。 字幕を付け、プレビュー共有から 確認したのですが、 やはりプレビューから表示させようとすると字幕が一瞬出て消えてしまいます。(右側にはちゃんと字幕は入ってますが) また出力するとNotoSansJPBoldがPCにインストールされていませんというエラー文言がでます。
それが悪さしているのかと思いフォントダウンロードし、 Vrew内のシステムフォントにも該当フォントを確認したのですが、それでも表示がでてしまいます。 フォントを変更し字幕を作成し直すことは可能でしょうか。 (メインのvrewフォント設定が該当のエラーフォントになっているのであれば全て変更は不可と思いましたので、、)
それか 字幕の上にある[??]が5つあり 1つ1秒になっているのですが、 最初の1秒にしか字幕設定されていないとか そんなパターンもありますでしょうか。。
まったくわかりません、どのビデオから見たらよいのでしょうか?表題からもわかりにくいです。
ご質問ありがとうございます。WebUI Forgeの導入は、下記リンクからの動画をご参照ください ua-cam.com/video/vWpW-NEhVWk/v-deo.html
文字を順番に画面上に出したいのですがどうすればいいですか? 1.〇〇 2.〇〇 3〇〇 1から順番に表示させ、表示した文字は消えずに2の表示3の表示と徐々に文字を出したいのですがvrewで出来ますか?
ua-cam.com/users/shortsdzxOIGtDG0E こんな感じでしょうか?であれば、問題なくできますよ。 それぞれのクリップに下記のように入力 1個目のクリップ:①一番目 2個目のクリップ:①一番目 ②二番目 3個目のクリップ:①一番目 ②二番目 ③三番目 ひょっとしてやりたい事が違ってたらごめんなさい。
質問です。 これは、UA-camなどへの商用利用は出来るのでしょうか?
ご質問ありがとうございます。Hedra AIですが、以前ベータ版の時は特に商用利用については明記されていなかったのですが、最近サブスクリプションが始まってからは、無料プランが、”No commercial use”となりましたので有料プランで課金しないと商用利用はダメのようです。ちなみに、私も課金するか思案中ですw
@@UncleAI733さま、回答ありがとうございます。ちと無料版で試してみてから考えます。
非常に勉強になりました。ありがとうございます。
勉強になったとのことで、こちらも嬉しいです。ありがとうございました。
作成した動画の文字を追加したのですが、上の音声の部分に文字が入りません? 方法わかりますか。 よろしくお願いいたします。
ご質問ありがとうございます。クリップを追加で、テキストを入力したけど音声が入らないということですね。 多分、そのクリップは空きクリップかと思われますので、下記の手順でAI音声を作成してください ①テキスト欄にテキストを入力 ②トップメニューのAI音声を選択 ③斜め下辺りに、AI音声、効果音というボタンがあるのでそれをクリック ④空きクリップに、AI音声の画面が表示されるので、音声設定で編集 or エンターキーを押します これで、AI音声が作成されるかと思います。もし上手くいかなければまたご質問ください。
@@UncleAI733 🙏御座います。 試みてみます。
@@UncleAI733 やはりクリック出来ません。 この状態です。🙇 ua-cam.com/video/IoNv4PIrM0w/v-deo.html
動画拝見しました。メニューのAI音声は選択されてますね。そのメニューの左斜め下くらいに サブメニューで、AI音声効果音というメニューが出てるのでそれをクリックしてください また、結果を教えてください。
@@UncleAI733 ありがとう御座います。 やっと「AI音声効果音」という場所が解りました。 然し進めると? 「動画の最後にはAI音声の効果を追加できません。」との表示が出てきて進みませんでした。? 😭
3:35 解説ありがとうございます。devの「生成物は商用利用が可能」というのはライセンス契約をすれば、の話ですよね?
ご質問ありがとうございます。Devの生成物の、生成物とはDevで生成された画像のことで、個人的、科学的、商業的な目的で使用することが可能です。ただし、出力以外の派生物(ファインチューニングしたモデル、Lora等)は商業的な利用が不可とのことです。多分、DevをもとにLoraモデル等を自分で開発?して、それを商売にしてはダメよということだと思います。 なので、生成された画像をSNS等にアップロードすることは問題ないような感じですね。 すいません、私もざっくりとした説明しかできなくて申し訳ない。
@@UncleAI733 個人的にはミッドジャーニーの代替にしたいので商用できたらすごくありがたいのですが🥲
下記に、FLUX.1 [dev] 非商用ライセンスの要約について記述されています。 huggingface.co/black-forest-labs/FLUX.1-dev/blob/main/LICENSE.md Chat GPTに読み込んで、要約して調べてみたんだけど、「生成されたコンテンツ(Outputs)について、商用利用を含む任意の目的で使用することが許可されています。」とかの記述もあるんだけど、一方で 「商用利用の禁止: 非商用目的での利用が条件です。生成された画像を直接的または間接的に収益化することは許可されていません。したがって、SNSでのアップロードが商業活動や収益に結びつく場合は、追加の商用ライセンスが必要です。」みたいな記述もあるんですよね。誰かよく知っている方いらっしゃいましたら、ご教授お願いします。
@@UncleAI733 出力=生成画像という事なら問題無さそうですね。 動画を見ながら6分はきついなと思っていましたが当方20秒でいけました。何とかdevをmidjourneyの代わりにしたいところです。 2-4(ライセンスの付与ー出力) 当社は出力に対する所有権を主張しません。お客様は、お客様が生成した出力と、本ライセンスに従ったその後の使用について単独で責任を負います。お客様は、本ライセンスで明示的に禁止されている場合を除き、出力をあらゆる目的(商業目的を含む)で使用できます。
自分の声の登録で、マイクを接続して話しても反応がありません。 何か原因があるのでしょうか?
ご質問ありがとうございます。音声登録で、マイク入力が反応無いとのことですね。ちなみに、キャラクターを選択してプレイボタンを押してサンプル音声は聞こえますか?聞こえたら出力側はOKなので、Shiftの基本的な動作は大丈夫のようなので、入力側の確認で下記を試してみてください。 ①Shiftのセッティングで、Microphone(input)の項目が正しく選択されているか ②PCのコントロールパネル → サウンド → 録音タブで、マイクが選択されていて動作しているか ※複数の録音デバイスがある場合、対象のデバイスを規定値に設定してみる。 ③Shiftの再起動(終了して再度起動) ④PCを再起動してみる 一度お試しくださいませ。また何かございましたらお気軽にご連絡くださいませ。
音声データだけアップロードして、文言を変更することは可能ですか?
ご質問ありがとうございます。Hedra AIに音声をアップロードしたら、あとは、画像に合わせてリップシンク動画を生成する流れになりますので、その間で文言の変更は出来ません。違う文章を喋らせるには、また別の音声データをアップして動画を作成する手順となります。私もシーンごとに音声データをアップロードして、動画を作成してます。結構手間なのですが、Hedraで作ったリップシンク動画は表情豊かで気に入ってるので頑張って作ってますw
@@UncleAI733 なるほど!ありがとうございます!音声の学習は難しいようですね、、
使ってみました。いつも自分のだと似たような感じになるけど、こちらで新しい風を取り入れることができますね。無限の可能性を感じました。ありがとうございます。
使っていただきありがとうございます。音楽スタイルっていつも悩みますよね。このGPTsを使うことで スタイルの引き出しが増えて、より自分のイメージに近い楽曲が作れればいいなと思っています。 良い曲が出来た時ってホント楽しいですしね。