Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
讲的真的太棒了!!!!
老师~太强了
😄😄😄加油欧阳老师!!
感谢支持啦!
这个效果吊炸天
老师很棒,能不能出一期q版手办模型的教程?
上次看這影片聽的有點模糊,這次就聽的懂了!也許下次再來回看又會發現知道更多了;我一直在想應該有節點可以導入SD的textual_inversion吧,影片最後說的自己生成和導入embeding可以導入SD別人訓練好的textual_inversion?有沒有一個節點組可以像SD一樣可以導入和看別人訓練好的embeding效果預覽圖?
感谢这么仔细的教程 欧阳大大 现在ipadapter model的存放位置改了 可以在ipa plus的github上面看具体放在哪个位置🥰
一图LORA,真的很赞,,,,,这个可以直接替换掉人物LORA了,
感谢支持啦,后续来强化这一流程
😂我感觉用fooocus的固定脸去生成,效果更好,虽然底层逻辑是一样的,但fooocus自动给你调成最优设置
换脸的话后期会结合face ID和insight来做调优,可操控性应该要比那个高
就等老师下期FeceID,Insight 安装了,全网教程试过了都不行。
最近也开始想试试这个插件,结果发现需要的处理模型 clipvision H 自动下载持续崩坏,去huggingface 下载也是报错 malicious,不敢关闭安全检查机制,就搁一遍了= =
老师软件给换成英文的吧,否则出来的字,有什么不知道什么意思,比如图形组合批次
我在研究深层次的风格迁移,但目前卡在了一个ControlNet的细节上;在WebuiUI中ControlNet有一个tile_resample的功能,开启后图的细节更多,但在ComfyUI的ControlNet中并没有这样的预处理器,我有想过用lora细节解决,但不太理想,想知道有没有更好的解决办法,或者ComfyUI中有没有tile_resample的平替
就是tile啊,web得模型和comfy是共用得
你好,想问下为什么我的没有IP适配器应用这个选项
老师你的翻译好好,推荐一下呗
网页插件,沉浸式翻译😄
欧阳川你好,想問6:08處,官方說現在的ComfyUI\custom_nodes\ComfyUI_IPAdapter_plus\models目錄已經廢止,裡面有一個文件 legacy_directory_do_not_use,這些models要改放哪? 或是放一樣位置,然後直接回yaml路徑檔做設定? 剛剛,看了才三個禮拜,一些節點已經被官方廢了不能用,不知有無替代方法?
目录里那个说明文件不需要管它,把IPA的models放在ComfyUI/models/IPadapter 里面就好了。建议直接从manager里的models install里面安装模型会比较省力,另外可以直接用v2版本的 IPadapter advanced 节点代替旧版中apply Ipadapter 就可以了,還是很簡單的!
有伙伴和我一样,今天ipadapter-plus更新后,无法在界面中找到ipadapter apply节点的问题吗?提示 “”IPAdapter model not found“”,,,服了,这更新的,以前没错,现在报错了
官方有說:如果您有舊的工作流程,請刪除現有IPadapter Apply節點,IPAdapter Advanced像以前一樣新增並連接所有管道。請手動更改成IPAdapter Advanced吧!
是不是ipadapter更新了,我的打开和老师的完全不一样啊。。。
是的,这个还是老版本的插件,可以先看下后面的V2更新详解,再看这些后面的就可以对的上了
老师你好,我在进行SD放大的时候,放大模型加载器 里面什么都没有,请问如何调出来或是在哪里下载?谢谢
前面图生图那集有讲,老师网盘也有放大模型
中文翻译经常更新,还是用英文吧,都不知道原来空间名称
为什么我最新安装的IPAdapter-plus找不到那个IP适配应用(apply IPAdapter)的节点,全是英文的,和你的不一样
节点更新了,可以用 IPA 高级 节点代替
后面测试xl的时候忘了把噪音改成0了
IPAdapter应该更新了吧,节点和视频的完全都不一样了
马上就来!
ipadapter 适配编码找不到呢?
要看下V2版本最新的配置配置教程, 有些模型的位置发生了改变。
一样的情况
大佬啊,我有个问题呀,video2video的时候,脸部用IPAdapter控制,但是没法做到一致性,后面加了脸部修复,更加做不到脸部一致性,请问有什么解决办法吗
IPA控制面部特征最好是用faceID或比较新的insitantID控制,而如果面部区域太小,面部细节不会好,要通过放大来修复,如果不放大单纯靠修复面部插件来修复肯定会走样,这是三角冲突,速度,质量,相似性,没办法做到两全
🤣太难了,一个10秒的视频,15帧每秒,脸部闪烁让人极度不适,如果不加面部修复,那脸更加惨不忍睹呀@@OUYCC
问题是不能用人图片生成无人的图片
流程可以分开操作,看具体实现
老师还是跟以前一样,用中文节点讲,英文半天找不到
网络配置的问题
亟待insightface 安装教程,试了很多方法,无一有效
已经解决了,其实不是解决了,只是重新下载安装秋叶大佬的新包,然后自动更新了一个insightface模型压缩包buffalo_l.zip,就可以了。我把新下的模型复制到老的安装包内,运行依然出错,索性就把老的删掉了,应该是自己玩坏的,至今不知道是哪的原因
很简单,下期做分享。如果另有问题就可能是环境配置的问题
这个太难了,一直被控在这一步@@OUYCC
唉,感觉脑子不够用,看了三遍也很多不太理解
自己手动跟着试一下,很快就能理解啦!
腰脱了,髓核脱出了,没进上啊铁子,咋整啊,过两天请假去你那请教吧
哈哈,那就休整休整,回头聊聊天放松下😝🍻
讲的真的太棒了!!!!
老师~太强了
😄😄😄加油欧阳老师!!
感谢支持啦!
这个效果吊炸天
老师很棒,能不能出一期q版手办模型的教程?
上次看這影片聽的有點模糊,這次就聽的懂了!也許下次再來回看又會發現知道更多了;我一直在想應該有節點可以導入SD的textual_inversion吧,影片最後說的自己生成和導入embeding可以導入SD別人訓練好的textual_inversion?有沒有一個節點組可以像SD一樣可以導入和看別人訓練好的embeding效果預覽圖?
感谢这么仔细的教程 欧阳大大 现在ipadapter model的存放位置改了 可以在ipa plus的github上面看具体放在哪个位置🥰
一图LORA,真的很赞,,,,,这个可以直接替换掉人物LORA了,
感谢支持啦,后续来强化这一流程
😂我感觉用fooocus的固定脸去生成,效果更好,虽然底层逻辑是一样的,但fooocus自动给你调成最优设置
换脸的话后期会结合face ID和insight来做调优,可操控性应该要比那个高
就等老师下期FeceID,Insight 安装了,全网教程试过了都不行。
最近也开始想试试这个插件,
结果发现需要的处理模型 clipvision H 自动下载持续崩坏,
去huggingface 下载也是报错 malicious,不敢关闭安全检查机制,
就搁一遍了= =
老师软件给换成英文的吧,否则出来的字,有什么不知道什么意思,比如图形组合批次
我在研究深层次的风格迁移,但目前卡在了一个ControlNet的细节上;在WebuiUI中ControlNet有一个tile_resample的功能,开启后图的细节更多,但在ComfyUI的ControlNet中并没有这样的预处理器,我有想过用lora细节解决,但不太理想,想知道有没有更好的解决办法,或者ComfyUI中有没有tile_resample的平替
就是tile啊,web得模型和comfy是共用得
你好,想问下为什么我的没有IP适配器应用这个选项
老师你的翻译好好,推荐一下呗
网页插件,沉浸式翻译😄
欧阳川你好,想問6:08處,官方說現在的ComfyUI\custom_nodes\ComfyUI_IPAdapter_plus\models目錄已經廢止,裡面有一個文件 legacy_directory_do_not_use,這些models要改放哪? 或是放一樣位置,然後直接回yaml路徑檔做設定? 剛剛,看了才三個禮拜,一些節點已經被官方廢了不能用,不知有無替代方法?
目录里那个说明文件不需要管它,把IPA的models放在ComfyUI/models/IPadapter 里面就好了。建议直接从manager里的models install里面安装模型会比较省力,另外可以直接用v2版本的 IPadapter advanced 节点代替旧版中apply Ipadapter 就可以了,還是很簡單的!
有伙伴和我一样,今天ipadapter-plus更新后,无法在界面中找到ipadapter apply节点的问题吗?提示 “”IPAdapter model not found“”,,,服了,这更新的,以前没错,现在报错了
官方有說:如果您有舊的工作流程,請刪除現有IPadapter Apply節點,IPAdapter Advanced像以前一樣新增並連接所有管道。請手動更改成IPAdapter Advanced吧!
是不是ipadapter更新了,我的打开和老师的完全不一样啊。。。
是的,这个还是老版本的插件,可以先看下后面的V2更新详解,再看这些后面的就可以对的上了
老师你好,我在进行SD放大的时候,放大模型加载器 里面什么都没有,请问如何调出来或是在哪里下载?谢谢
前面图生图那集有讲,老师网盘也有放大模型
中文翻译经常更新,还是用英文吧,都不知道原来空间名称
为什么我最新安装的IPAdapter-plus找不到那个IP适配应用(apply IPAdapter)的节点,全是英文的,和你的不一样
节点更新了,可以用 IPA 高级 节点代替
后面测试xl的时候忘了把噪音改成0了
IPAdapter应该更新了吧,节点和视频的完全都不一样了
马上就来!
ipadapter 适配编码找不到呢?
要看下V2版本最新的配置配置教程, 有些模型的位置发生了改变。
一样的情况
大佬啊,我有个问题呀,video2video的时候,脸部用IPAdapter控制,但是没法做到一致性,后面加了脸部修复,更加做不到脸部一致性,请问有什么解决办法吗
IPA控制面部特征最好是用faceID或比较新的insitantID控制,而如果面部区域太小,面部细节不会好,要通过放大来修复,如果不放大单纯靠修复面部插件来修复肯定会走样,这是三角冲突,速度,质量,相似性,没办法做到两全
🤣太难了,一个10秒的视频,15帧每秒,脸部闪烁让人极度不适,如果不加面部修复,那脸更加惨不忍睹呀@@OUYCC
问题是不能用人图片生成无人的图片
流程可以分开操作,看具体实现
老师还是跟以前一样,用中文节点讲,英文半天找不到
网络配置的问题
亟待insightface 安装教程,试了很多方法,无一有效
已经解决了,其实不是解决了,只是重新下载安装秋叶大佬的新包,然后自动更新了一个insightface模型压缩包buffalo_l.zip,就可以了。我把新下的模型复制到老的安装包内,运行依然出错,索性就把老的删掉了,应该是自己玩坏的,至今不知道是哪的原因
很简单,下期做分享。如果另有问题就可能是环境配置的问题
这个太难了,一直被控在这一步@@OUYCC
唉,感觉脑子不够用,看了三遍也很多不太理解
自己手动跟着试一下,很快就能理解啦!
腰脱了,髓核脱出了,没进上啊铁子,咋整啊,过两天请假去你那请教吧
哈哈,那就休整休整,回头聊聊天放松下😝🍻