Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
哈哈这个分享笑死我了,但是也很有帮助!🤣
感謝分享~~~希望這系列的分享能持續
博主好幽默
非常感謝你的介紹,簡單明瞭,現在最大的問題就是顯示卡的顯存不足導致有很多大模型都無法本地運行,但是我相信並且希望未來應該要有辦法解決直接讓模型使用電腦的內存而不是用顯存,否則顯存一般無法讓user自己擴充,這就產生了一個很大的障礙
其實你真的想的話有中國俄羅斯黑科技可以自己改
下模型的时候看一下模型大小,给20%左右的余量,大概就知道多大内存(显存)能跑了(如果没有桌面环境,用的linux的server系统,5~10%余量就可以)。只要模型能完整载入内存,就能跑,只是卡。如果模型能完整载入显存,那速度基本就不用担心了。
套壳后的模型路径怎么修改?😊
4060TI 16GB的話可以跑30B以下的model,而且回復速度大概一秒2-4個字
请问,这个方案如何能够调用给微信小程序的客服?有没有接口,希望得到您的支持
安装ollama后在cmd窗口输入“ollama”回车,显示“'OLLAMA' 不是内部或外部命令,也不是可运行的程序或批处理文件。”,请问如何解决?感谢指教!
应该是安装的时候没有添加到系统变量中
哈哈 謝謝分享 很有趣
您的电脑硬件配置是什么?比如内存,8G还是16g?显卡独立?还是集成?
感谢分享!!
谢谢分享。Web UI 成功下载后。报错( 如下)原因未知(HTTP code 500) server error - Ports are not available: exposing port TCP 0.0.0.0:3000 -> 0.0.0.0:0: listen tcp 0.0.0.0:3000: bind: An attempt was made to access a socket in a way forbidden by its access permissions.
端口被占用 了 重新下载的时候 把端口号换了 在回车下载
我也是 一直报错,你解决了嘛
openwebui上用ollama本地安装模型,貌似不是真的本地模型,和cmd命令行的效果完全不一样
为什么我用 ollama 下载的 llama3.1 8B模型在装了open web UI之后看不到?难道我又在 open webUI 中重新下载一遍吗
我也是一样的问题,又在open webui重装一遍才看到,而且跟命令提示符运行的效果差很多。我明明运行的无限制版本,结果在open webui上各种限制
1、无法锁定中文回复,要不断的给中文指令。2、有字符限制,超过了就给你发一堆的符号
可以用llama的中文微调模型
微调需要什么配置
@@shengliu3501 不用自己微调,ollama里面有中文的lamama模型
我显卡是4070,下了一个lama3,为什么输入以后就回答不了呢
我看了一下运行模型的时候gpu没有被调用,这是怎么回事呀,求解答😅
@@灿锋来他有个设置,叫gpu offload 你把那个勾选上,拉满就可以显卡跑了
@@ruingd5237 具体在哪里呀,没有看到这个设置,我这感觉还是cpu跑的
'docker' 不是内部或外部命令,也不是可运行的程序或批处理文件。这是怎么回事
1。检查docker 有没有加入环境变量2. 确保docker 进程有在运行
为什么之前下载了一个7b的千问模型,之后webui界面完成后又要下载模型 ,不能之前下好的吗
能用的,这个视频我用了两台电脑演示,所以后面的电脑又重新下载了一次模型
都是量化过的模型吗
但 ollama 本地服务现在都不支持 tools calling
我觉得Chatollama比open-webui更加好用。
一直报错,WSL的问题
Open WebUI中加载模型时出现524错误
《简单礼貌的问候语》
你好,请问如何让open webui运行的模型能够联网搜索内容呢
哈哈这个分享笑死我了,但是也很有帮助!🤣
感謝分享~~~希望這系列的分享能持續
博主好幽默
非常感謝你的介紹,簡單明瞭,現在最大的問題就是顯示卡的顯存不足導致有很多大模型都無法本地運行,但是我相信並且希望未來應該要有辦法解決直接讓模型使用電腦的內存而不是用顯存,否則顯存一般無法讓user自己擴充,這就產生了一個很大的障礙
其實你真的想的話有中國俄羅斯黑科技可以自己改
下模型的时候看一下模型大小,给20%左右的余量,大概就知道多大内存(显存)能跑了(如果没有桌面环境,用的linux的server系统,5~10%余量就可以)。只要模型能完整载入内存,就能跑,只是卡。如果模型能完整载入显存,那速度基本就不用担心了。
套壳后的模型路径怎么修改?😊
4060TI 16GB的話可以跑30B以下的model,而且回復速度大概一秒2-4個字
请问,这个方案如何能够调用给微信小程序的客服?有没有接口,希望得到您的支持
安装ollama后在cmd窗口输入“ollama”回车,显示“'OLLAMA' 不是内部或外部命令,也不是可运行的程序或批处理文件。”,请问如何解决?感谢指教!
应该是安装的时候没有添加到系统变量中
哈哈 謝謝分享 很有趣
您的电脑硬件配置是什么?比如内存,8G还是16g?显卡独立?还是集成?
感谢分享!!
谢谢分享。
Web UI 成功下载后。报错( 如下)原因未知
(HTTP code 500) server error - Ports are not available: exposing port TCP 0.0.0.0:3000 -> 0.0.0.0:0: listen tcp 0.0.0.0:3000: bind: An attempt was made to access a socket in a way forbidden by its access permissions.
端口被占用 了 重新下载的时候 把端口号换了 在回车下载
我也是 一直报错,你解决了嘛
openwebui上用ollama本地安装模型,貌似不是真的本地模型,和cmd命令行的效果完全不一样
为什么我用 ollama 下载的 llama3.1 8B模型在装了open web UI之后看不到?难道我又在 open webUI 中重新下载一遍吗
我也是一样的问题,又在open webui重装一遍才看到,而且跟命令提示符运行的效果差很多。我明明运行的无限制版本,结果在open webui上各种限制
1、无法锁定中文回复,要不断的给中文指令。2、有字符限制,超过了就给你发一堆的符号
可以用llama的中文微调模型
微调需要什么配置
@@shengliu3501 不用自己微调,ollama里面有中文的lamama模型
我显卡是4070,下了一个lama3,为什么输入以后就回答不了呢
我看了一下运行模型的时候gpu没有被调用,这是怎么回事呀,求解答😅
@@灿锋来他有个设置,叫gpu offload 你把那个勾选上,拉满就可以显卡跑了
@@ruingd5237 具体在哪里呀,没有看到这个设置,我这感觉还是cpu跑的
'docker' 不是内部或外部命令,也不是可运行的程序
或批处理文件。这是怎么回事
1。检查docker 有没有加入环境变量2. 确保docker 进程有在运行
为什么之前下载了一个7b的千问模型,之后webui界面完成后又要下载模型 ,不能之前下好的吗
能用的,这个视频我用了两台电脑演示,所以后面的电脑又重新下载了一次模型
都是量化过的模型吗
但 ollama 本地服务现在都不支持 tools calling
我觉得Chatollama比open-webui更加好用。
一直报错,WSL的问题
Open WebUI中加载模型时出现524错误
《简单礼貌的问候语》
你好,请问如何让open webui运行的模型能够联网搜索内容呢