Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
我用ms copilot运行鸡兔同笼问题,答案是正确的
请问您有会员群吗? 继续可以交流和学习
hi hi,目前还没有😂,抱歉,如果大家有兴趣我过阵子建一个。最近如果有啥想交流的随时留言哈
网址都不留看个毛啊
可以要求用llama 3回覆中文
對的!我沒有強制要求它用中文😁
询问问题,在后面加上一句要求中文回复。但是为啥我测试了LLAMA2和LLAMA3,询问金庸写过哪些小说,都会回答写过三国演义和红楼梦
你問他羅貫中寫了什麼小說 他才會回天龍八部
中文語料還是偏少,最近中文微調的Llama3快出來了,到時候可以試試看
五言变成七言了 没发现
谢谢分享!请教个问题,如何解决Windows下大模型自动从vram中退出的问题?现在的问题是ollama加载模型后,5分钟之内没有活动,就会自动从vram中删除模型。要用的话,还得临时重新加载,有点不方便。@chang-workshop
抱歉我手头没有windows没法尝试。有个api里面设置 可能可以解决你的问题。curl localhost:11434/api/generate -d '{"model": "llama2", "keep_alive": "24h" }' , 设置 keep_alive ,24h就指的是把模型在内存中保持24小时。 可以参考下面两篇文章, github.com/ollama/ollama/blob/main/docs/api.md github.com/ollama/ollama/issues/1339
@chang-workshop 谢谢回复!是的,对于api是可以这样设置。但是我只是想用基本的chat,不知道windows上ollama app有没有什么办法实现。再次感谢!
@@marswalker4512 ollama serve -h 能看到一个OLLAMA_KEEP_ALIVE的环境变量,可以试试
我用ms copilot运行鸡兔同笼问题,答案是正确的
请问您有会员群吗? 继续可以交流和学习
hi hi,目前还没有😂,抱歉,如果大家有兴趣我过阵子建一个。最近如果有啥想交流的随时留言哈
网址都不留看个毛啊
可以要求用llama 3回覆中文
對的!我沒有強制要求它用中文😁
询问问题,在后面加上一句要求中文回复。但是为啥我测试了LLAMA2和LLAMA3,询问金庸写过哪些小说,都会回答写过三国演义和红楼梦
你問他羅貫中寫了什麼小說 他才會回天龍八部
中文語料還是偏少,最近中文微調的Llama3快出來了,到時候可以試試看
五言变成七言了 没发现
谢谢分享!
请教个问题,如何解决Windows下大模型自动从vram中退出的问题?现在的问题是ollama加载模型后,5分钟之内没有活动,就会自动从vram中删除模型。要用的话,还得临时重新加载,有点不方便。@chang-workshop
抱歉我手头没有windows没法尝试。
有个api里面设置 可能可以解决你的问题。curl localhost:11434/api/generate -d '{"model": "llama2", "keep_alive": "24h" }' , 设置 keep_alive ,24h就指的是把模型在内存中保持24小时。 可以参考下面两篇文章, github.com/ollama/ollama/blob/main/docs/api.md
github.com/ollama/ollama/issues/1339
@chang-workshop 谢谢回复!是的,对于api是可以这样设置。但是我只是想用基本的chat,不知道windows上ollama app有没有什么办法实现。再次感谢!
@@marswalker4512 ollama serve -h 能看到一个OLLAMA_KEEP_ALIVE的环境变量,可以试试