【 Ollama + Open webui 】 这应该是目前最有前途的大语言LLM模型的本地部署方法了。提升工作效率必备!| Llama2 | Gemma | Mistral

Поділитися
Вставка
  • Опубліковано 19 гру 2024

КОМЕНТАРІ • 41

  • @Sallyno1998
    @Sallyno1998 2 місяці тому

    哈哈这个分享笑死我了,但是也很有帮助!🤣

  • @jamesyen7288
    @jamesyen7288 7 місяців тому

    感謝分享~~~希望這系列的分享能持續

  • @tiffany2435-q1i
    @tiffany2435-q1i 3 місяці тому +1

    博主好幽默

  • @fxchesscom
    @fxchesscom 6 місяців тому

    非常感謝你的介紹,簡單明瞭,現在最大的問題就是顯示卡的顯存不足導致有很多大模型都無法本地運行,但是我相信並且希望未來應該要有辦法解決直接讓模型使用電腦的內存而不是用顯存,否則顯存一般無法讓user自己擴充,這就產生了一個很大的障礙

    • @doge7562
      @doge7562 22 дні тому

      其實你真的想的話有中國俄羅斯黑科技可以自己改

  • @青竹-j1l
    @青竹-j1l 7 місяців тому +1

    下模型的时候看一下模型大小,给20%左右的余量,大概就知道多大内存(显存)能跑了(如果没有桌面环境,用的linux的server系统,5~10%余量就可以)。只要模型能完整载入内存,就能跑,只是卡。如果模型能完整载入显存,那速度基本就不用担心了。

  • @weihe-nt3em
    @weihe-nt3em 7 днів тому

    套壳后的模型路径怎么修改?😊

  • @jerryhuang3565
    @jerryhuang3565 3 місяці тому +1

    4060TI 16GB的話可以跑30B以下的model,而且回復速度大概一秒2-4個字

  • @dannywolf2491
    @dannywolf2491 5 місяців тому

    请问,这个方案如何能够调用给微信小程序的客服?有没有接口,希望得到您的支持

  • @qikevin-qm3kw
    @qikevin-qm3kw 5 місяців тому

    安装ollama后在cmd窗口输入“ollama”回车,显示“'OLLAMA' 不是内部或外部命令,也不是可运行的程序或批处理文件。”,请问如何解决?感谢指教!

    • @grandpabai
      @grandpabai  5 місяців тому

      应该是安装的时候没有添加到系统变量中

  • @cpyi1
    @cpyi1 4 місяці тому

    哈哈 謝謝分享 很有趣

  • @leeuwmeanfee4726
    @leeuwmeanfee4726 3 місяці тому

    您的电脑硬件配置是什么?比如内存,8G还是16g?显卡独立?还是集成?

  • @andrewzhao7769
    @andrewzhao7769 5 місяців тому

    感谢分享!!

  • @lincodev
    @lincodev 7 місяців тому +1

    谢谢分享。
    Web UI 成功下载后。报错( 如下)原因未知
    (HTTP code 500) server error - Ports are not available: exposing port TCP 0.0.0.0:3000 -> 0.0.0.0:0: listen tcp 0.0.0.0:3000: bind: An attempt was made to access a socket in a way forbidden by its access permissions.

    • @xuanw1741
      @xuanw1741 6 місяців тому +1

      端口被占用 了 重新下载的时候 把端口号换了 在回车下载

    • @杨明龙-z1n
      @杨明龙-z1n 4 місяці тому

      我也是 一直报错,你解决了嘛

  • @jdandrew-n1j
    @jdandrew-n1j Місяць тому

    openwebui上用ollama本地安装模型,貌似不是真的本地模型,和cmd命令行的效果完全不一样

  • @cityturbo_EZ
    @cityturbo_EZ 4 місяці тому

    为什么我用 ollama 下载的 llama3.1 8B模型在装了open web UI之后看不到?难道我又在 open webUI 中重新下载一遍吗

    • @啊陈-e8r
      @啊陈-e8r Місяць тому

      我也是一样的问题,又在open webui重装一遍才看到,而且跟命令提示符运行的效果差很多。我明明运行的无限制版本,结果在open webui上各种限制

  • @jason8007
    @jason8007 8 місяців тому +2

    1、无法锁定中文回复,要不断的给中文指令。2、有字符限制,超过了就给你发一堆的符号

    • @grandpabai
      @grandpabai  8 місяців тому

      可以用llama的中文微调模型

    • @shengliu3501
      @shengliu3501 7 місяців тому

      微调需要什么配置

    • @grandpabai
      @grandpabai  7 місяців тому

      @@shengliu3501 不用自己微调,ollama里面有中文的lamama模型

  • @灿锋来
    @灿锋来 6 місяців тому +1

    我显卡是4070,下了一个lama3,为什么输入以后就回答不了呢

    • @灿锋来
      @灿锋来 6 місяців тому

      我看了一下运行模型的时候gpu没有被调用,这是怎么回事呀,求解答😅

    • @ruingd5237
      @ruingd5237 5 місяців тому

      ​@@灿锋来他有个设置,叫gpu offload 你把那个勾选上,拉满就可以显卡跑了

    • @wqX-z8v
      @wqX-z8v 4 місяці тому

      @@ruingd5237 具体在哪里呀,没有看到这个设置,我这感觉还是cpu跑的

  • @Justin-j4d
    @Justin-j4d 6 місяців тому

    'docker' 不是内部或外部命令,也不是可运行的程序
    或批处理文件。这是怎么回事

    • @kongyutay4852
      @kongyutay4852 6 місяців тому

      1。检查docker 有没有加入环境变量2. 确保docker 进程有在运行

  • @嘉文周
    @嘉文周 7 місяців тому

    为什么之前下载了一个7b的千问模型,之后webui界面完成后又要下载模型 ,不能之前下好的吗

    • @grandpabai
      @grandpabai  7 місяців тому

      能用的,这个视频我用了两台电脑演示,所以后面的电脑又重新下载了一次模型

    • @shengliu3501
      @shengliu3501 7 місяців тому

      都是量化过的模型吗

  • @LErik-yc5oq
    @LErik-yc5oq 7 місяців тому

    但 ollama 本地服务现在都不支持 tools calling

  • @zxjason
    @zxjason 5 місяців тому

    我觉得Chatollama比open-webui更加好用。

  • @杨明龙-z1n
    @杨明龙-z1n 4 місяці тому

    一直报错,WSL的问题

  • @kejixueyuan
    @kejixueyuan 8 місяців тому

    Open WebUI中加载模型时出现524错误

  • @syr1145
    @syr1145 7 місяців тому

    《简单礼貌的问候语》

  • @黑尾兔
    @黑尾兔 4 місяці тому

    你好,请问如何让open webui运行的模型能够联网搜索内容呢