DeepSeek R1本地部署(二),联网搜索+完全破限+Ollama+OpenWebui界面+语音+非官方模型调用+手机连接!零基础教程-T8 AI工具推荐
Вставка
- Опубліковано 6 лют 2025
- 注册送671B DEEPSEEK API TOKEN:cloud.siliconf...
过年加更大家点个赞吧,谢谢,新年快乐
如果觉得视频有帮助,给T8点个赞,让我知道,谢谢你,这是我给大家做视频最大的动力!你也可以分享给你最好的朋友,让他在第四次工业革命AI时代不被落下,相信有一天,他也会感谢你!
ollama下载地址:ollama.com/
python下载地址:www.python.org...
open webui库:github.com/ope...
记得给作者点个star,赠人玫瑰手留余香
破限及常规模型下载:链接:pan.quark.cn/s...
上面只包含了几个模型,更多的还是需要HF下载,实在太大了
预设:底部星球下载
未破限GGUF模型下载:huggingface.co...
其他参数量的自己进入作者首页下载
破除限制的主要模型的都已经上传,包括70B
所有涉及的文件夹一律不要带中文!
图文版星球地址:
t.zsxq.com/k8Jl1
海外工作流openart:
本期没有
liblib工作流极速下载:www.liblib.art...
深入学习ComfyUI,AI知识,可加入永久免费的知识星球APP号:96920057
知识星球首页:t.zsxq.com/7F90A
官网:aix.studio/
Telegram群组:t.me/+mZ5Z-Kf_...
Github仓库:github.com/T8s...
x:x.com/t8star_aix
另外可领取T8自用包含84节点不冲突的Comfyui整合包,定时更新
以及最新的Comfyui节点简介表格,每日原创工作流等,定时更新!
评论区常见问题统一回复:
1、模型不听话重复,在右边有个重复的设置,可以设置数值高一点默认1.1他就会减少重复,另外我发的都是Q4和IQ4模型,损失比较大,如果显存够的情况下,尽量用Q8基本和原模型一个效果,或者Q6也不错
2、破限问题,破限需要先加上破甲的话术,上一个视频发了:obliterated完全破限!8G可玩DeepSeek R1本地部署!支持Nsfw!Lm Studio零基础安装教程,模型分享,参数详解,-T8 AI工具推荐,因为涉及到NSFW,所以防止被和谐,这一期就略过了,可以看下,简介区星球也有破甲文本下载
3、OPENWEBUI 安装问题,这个必须开魔法,然后简介区有星球地址,登录后里面有命令和图文,可以试下,如果不行建议用昨天的LM STUDIO更方便,视频直通车:obliterated完全破限!8G可玩DeepSeek R1本地部署!支持Nsfw!Lm Studio零基础安装教程,模型分享,参数详解,-T8 AI工具推荐
4、部分人GPU不用一直用CPU,这个评论区看到有2个人,目前不清楚怎么回事,解决方法可以直接用LM STUDIO,这个正常:obliterated完全破限!8G可玩DeepSeek R1本地部署!支持Nsfw!Lm Studio零基础安装教程,模型分享,参数详解,-T8 AI工具推荐,安装方式看这个
注册送671B DEEPSEEK API TOKEN:cloud.siliconflow.cn/i/MXRTqUfd
8哥,在这看到你❤
谢谢哈~~
666,坐等第三期
非常感谢, 搞了一天,第三期已发布
本地搭建 LM studio 也很好用。。
嗯是的,LM STUDIO基本不用调,OLLAMA需要调参,否则感觉有点傻
请问可以出一期SearXNG联网搜索的教程吗?
ua-cam.com/video/QgZ4BhtMPOc/v-deo.html 联网搜索
OLLAMA 下载没有网速怎么办呢
这个我没有办法呀0 0
老师,想请教一下,我的电脑用的是AMD RX7700 XT显卡,但是运行的时候完全没有用到GPU,是需要哪里特别设置一下吗?
AMD不支持CUDA,是跑不了显存哦
❤
感谢支持
我是python3.11.9版本,可是下载不了open-webui,开魔法显示代理无法使用,不开搜不到,但是open-webui官方文档里的代码是这么写的,怎么解决?
需要打开TUN模式,如果还不行就是魔法问题
请问,7b的模型实际上有7.6b的参数 怎么样指定裁剪掉不需要的参数 降低到7b以下
这个我没研究过,抱歉
请问文档创建好了,输入ollama过后显示创建命令,但是在输入allama没反应是哪里有问题吗,还是系统带不动不允许加载模型呢
不可能没有反应啊。。。就算失败也会有报错,这需要自己检查
我也遇到了同样的问题,请问您解决了么? 假如解决了能不能麻烦告诉我一下方法呢
你好 博主 ,我在导入模型中的create这个命令中不成功怎么办,显示Error:accepts 1 arg(s), received 0😢😢😢
那说明你弄得不对哦,按照这个: ua-cam.com/video/EsEqFpirjHo/v-deo.html
博主。。我这modlefile创建“新”模型以后,cmd测试直接变傻了啊,别的啥都没动呢,原模型没问题,但是新模型会问我问题!!!就是我说一半问题,它自动补到我的问题上,没答案……
我的也是
ua-cam.com/video/EsEqFpirjHo/v-deo.html
按照:ua-cam.com/video/EsEqFpirjHo/v-deo.html
八哥又更啊
是的哈哈,最近DEEPSEEK比较火,更新下
請教一下
OLLAMA_HOST設置0,0,0,0:11434
系統變數和帳號變數都有設置
可是在下載模型的時候,總是顯示無法連絡0.0.0.0:11434
這個要如何解決?
这个是用来连通局域网的,和下载应该没关系啊,那你先下好了在设置看看呢
open webui 是python里自带的吗?还是要另外下载?
需要下载,视频里有说哦
为什么我点击0.0.0.0:8080后显示网页无法正常工作?edge和chrome都试过了,都无法正常工作。
使用localhost:8080后正常了
如果打不开,就输入localhost:8080 或者 127.0.0.1:8080
请问,我按照你的步骤已经部署成功了,我想用VScode调用模型,我怎么调用,我输入192.168.8.100:8080,可以打开网页版本,但是我如果用VScode输入的话,就一直显示链接错误
vscode调用我还没试过,哈哈,你得研究下,我在外面
不能上传文件
啊这,这个可以给作者发个ISSUES
为什么我这个提示 gathering model components Error: invalid model name
找到问题原因了,命名规则一定要是DeepSeeK 不能小写
嗯嗯~~没错
不行啊,构建破解模型进命令窗,也选中了破解的模型,敲下ollama create 就是不行。
这肯定你自己弄得不对哦
ua-cam.com/video/EsEqFpirjHo/v-deo.html
遇到了新问题,设置了联网搜索,问deepseek的时候还是不能联网搜索,博主能答疑一下吗?
晚点我出视频
您好,我在启动webui时显示“无法访问此网站”
经检查发现127.0.0.1:11434和localhost:11434会显示“ollama is runing”
地址0.0.0.0:11434和ip地址+11434均显示:“无法访问此网站”
请问有什么解决方法吗?
0.0.0.0是环境变量,并不是登录地址,用localhost:11434试下
@@T8star-Aix 您好,请问如何使用localhost:11434地址?我在浏览器输入localhost:11434会显示“ollama is runing”。但是根据视频中的步骤,打开webui提供的链接会显示”无法访问此网页“
想了解一下本地版DeepSeek安裝後是否可以聯網呢?
我已經裝了Docker與OPENWEBUI
也在管理員設置>網頁搜尋中加入了Google PSE API 金鑰與Google PSE 引擎 ID
但在設置完成後問問題仍然回應"我无法直接联網搜尋"
这个倒没碰到过,昨天我让人测试了下可以,这个可能需要给OPEN WEBUI发个ISSUES看看
请问要怎么判定,他有进行网路搜寻?我已经设定好google的 id and api
@@henrylin3707 ua-cam.com/video/cQ0R4fu7vIc/v-deo.html 在这个视频哦
请问怎么设置webui的代理,发现联网搜索的搜索引擎搜error
用CLASH ,V2RAY ,SSR等
@@T8star-Aix 是电脑直接挂上就可以吗,不需要别的操作吧
为什么我下载WIN版本下载到一半就会卡住不动,
哪个文件,我分享给你
大神好,您的网盘里70B破除的文件夹是空的,里面没有模型文件?
不好意思,我也发现了,是上传了一半中断了,我现在重新上传,要一点时间哈,晚点看下
@@T8star-Aix 感谢
我没独显,是不是不用尝试了,up
嗯暂时是的,等后续有了在玩
Python之前装过不同版本的怎么办呢?请问可以切换吗
可以的,需要装一下MINICONDA,因为视频太长了,所以我就简单点没做这方面教程,可以搜索下,很简单
求问大神,我用ipv4打开网页可以出现ollama is run,但是复制open-webui在chrom和edge都是“该网页无法正常运作”,这是出现什么问题了呢
我复制open-webui出现的0.0.0.0:8080不行,但是用其它网站教程里的localhost:8080/就可以。
这个到没碰到过。用localhost或者127.0.0.1都不行吗,是不是开了什么防火墙
使用localhost:8080可以打开,用CMD给的0.0.0.0:8080打不开。
@@T8star-Aix 使用“localhost:8080”可以进去,但是用CMD给出的“0.0.0.0:8080”进不去。防火墙只有Win10自带的。😮💨😮💨
@@JheysiObaldo 这个是的,这个意思就是127.0.0.1,0.0.0.0不是内网IP啊
高允贞,向你问好。😆
哈哈哈,真的吗,哈哈哈
视频过于不清楚😂
你是不是网络问题,我这看没问题啊。。
ollama create local:D:\Work\ollama\models\DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf
怎么啦,