【Llama 3 使用详解和评测】Meta开源大语言模型Llama3 详细使用方法以及对比Gemini和Copilot测试。 | Llama3 中文能力如何?|Meta AI好用吗?|谁写的代码最好用

Поділитися
Вставка
  • Опубліковано 15 лис 2024

КОМЕНТАРІ • 14

  • @MaxwellFromChina
    @MaxwellFromChina 6 місяців тому +2

    我用ms copilot运行鸡兔同笼问题,答案是正确的

  • @martiniscoming
    @martiniscoming 6 місяців тому

    请问您有会员群吗? 继续可以交流和学习

    • @chang-workshop
      @chang-workshop  6 місяців тому +1

      hi hi,目前还没有😂,抱歉,如果大家有兴趣我过阵子建一个。最近如果有啥想交流的随时留言哈

  • @白嫖哥
    @白嫖哥 3 місяці тому

    网址都不留看个毛啊

  • @looprand3965
    @looprand3965 6 місяців тому +1

    可以要求用llama 3回覆中文

    • @chang-workshop
      @chang-workshop  6 місяців тому

      對的!我沒有強制要求它用中文😁

  • @54shanghairen
    @54shanghairen 6 місяців тому +1

    询问问题,在后面加上一句要求中文回复。但是为啥我测试了LLAMA2和LLAMA3,询问金庸写过哪些小说,都会回答写过三国演义和红楼梦

    • @looprand3965
      @looprand3965 6 місяців тому

      你問他羅貫中寫了什麼小說 他才會回天龍八部

    • @chang-workshop
      @chang-workshop  6 місяців тому +1

      中文語料還是偏少,最近中文微調的Llama3快出來了,到時候可以試試看

  • @jorjiang1
    @jorjiang1 6 місяців тому

    五言变成七言了 没发现

  • @marswalker4512
    @marswalker4512 6 місяців тому

    谢谢分享!
    请教个问题,如何解决Windows下大模型自动从vram中退出的问题?现在的问题是ollama加载模型后,5分钟之内没有活动,就会自动从vram中删除模型。要用的话,还得临时重新加载,有点不方便。@chang-workshop

    • @chang-workshop
      @chang-workshop  6 місяців тому +1

      抱歉我手头没有windows没法尝试。
      有个api里面设置 可能可以解决你的问题。curl localhost:11434/api/generate -d '{"model": "llama2", "keep_alive": "24h" }' , 设置 keep_alive ,24h就指的是把模型在内存中保持24小时。 可以参考下面两篇文章, github.com/ollama/ollama/blob/main/docs/api.md
      github.com/ollama/ollama/issues/1339

    • @marswalker4512
      @marswalker4512 6 місяців тому

      @chang-workshop 谢谢回复!是的,对于api是可以这样设置。但是我只是想用基本的chat,不知道windows上ollama app有没有什么办法实现。再次感谢!

    • @withseventeen
      @withseventeen 6 місяців тому

      @@marswalker4512 ollama serve -h 能看到一个OLLAMA_KEEP_ALIVE的环境变量,可以试试