Ollama正式支持Llama 3.2 Vision | 本地运行多模态模型实现图像识别

Поділитися
Вставка
  • Опубліковано 25 гру 2024

КОМЕНТАРІ • 23

  • @haofan271
    @haofan271 23 дні тому

    请问Llama 3.2 Vision可以分析视频吗?

  • @jiakaichen950
    @jiakaichen950 Місяць тому +2

    苹果m4max可以跑的动

  • @pongpong5441
    @pongpong5441 Місяць тому

    先赞后看

  • @BruceChouTW
    @BruceChouTW Місяць тому

    這個模型有支援tool use嗎?

  • @jianboguo-i1b
    @jianboguo-i1b Місяць тому

    请问作者国内怎么注册 anthropic 的 api,我使用 visa 卡不行,有啥好方法吗,想玩一下 computer use

  • @xrl7408
    @xrl7408 Місяць тому

    Error: listen tcp 127.0.0.1:11434: bind: An attempt was made to access a socket in a way forbidden by its access permissions.
    大神,安装完ollama后报错,检查了端口占用以及防火墙都没有问题,这是什么原因?谢谢

  • @minfon2010
    @minfon2010 Місяць тому

    喜歡這些新model的嘗試,了解目前情況和如何運用

  • @wongeric1570
    @wongeric1570 Місяць тому

    试了本地跑11b,识别火车票啥的转成json还是可以的,大一点的就不行了。

  • @jameszhang3877
    @jameszhang3877 Місяць тому +1

    90b模型估计效果能不错,可惜一般的电脑跑不了

  • @pollylee8579
    @pollylee8579 Місяць тому

    模型需要再进化几轮

  • @looprand3965
    @looprand3965 Місяць тому

    這模型回應速度如何
    需要怎樣的硬體設備

  • @jakevin5
    @jakevin5 Місяць тому

    大佬要換 m4的air嗎? 這次真香啊

    • @chansonshi
      @chansonshi Місяць тому

      m4 air 出来了? 不是只有mini 嘛?

  • @jinxing-xv3py
    @jinxing-xv3py Місяць тому

    11b,16g显存32g内存的电脑能跑吗

    • @何俊-b7r
      @何俊-b7r Місяць тому

      我的12G卡都可以跑得起

    • @jinxing-xv3py
      @jinxing-xv3py Місяць тому

      @ 之前一个UP说11B要24G显卡才能跑所以都不敢奢想

    • @kironlau
      @kironlau Місяць тому

      ​@@jinxing-xv3pyollama预設是int4/q4_0, 差不多是除以4的佔用(精度也可自己選擇)

  • @jiayou3499
    @jiayou3499 Місяць тому

    很想试试90B模型,显卡要求太高😂

    • @chansonshi
      @chansonshi Місяць тому

      多大的显存要求?

    • @jameszhang3877
      @jameszhang3877 Місяць тому

      @@chansonshi 估计要A100,48G估计都不行

    • @sskhdsk
      @sskhdsk Місяць тому

      @@chansonshi 纯粹模型的话可能50GB吧,但是多模态模型存的中间值比较多,实际占用肯定比50G大很多