微调Llama 3 1,用神器Unsloth

Поділитися
Вставка
  • Опубліковано 25 лис 2024

КОМЕНТАРІ • 36

  • @huanyihe777
    @huanyihe777  3 місяці тому

    UA-cam会员:ua-cam.com/channels/PpdGTNbIKdiWgxCrbka4Zw.htmljoin
    Patreon:www.patreon.com/newtype_ai
    知识星球:t.zsxq.com/19IaNz5wK

  • @yikewang6411
    @yikewang6411 Місяць тому

    第二种模型导出方式是什么呢?第二种模型导出方式和第一种只导出adapter模型有什么区别呢?adapter模型可以脱离基础模型独立使用吗,还是说如何配合基础模型使用呢?

  • @teddychan8086
    @teddychan8086 19 днів тому

    請問unsloth 也可以微調 他沒列出的模型嗎

  • @jason77nhri
    @jason77nhri 3 місяці тому +2

    感謝教學 關於fine tune的類比說明的好棒 讓人能更具體了解是怎麼微調
    不過請問影片中示範Unsloth的介面是用什麼軟體平台? 是colab嗎? 示範的是用本地的gpu資源嗎? 執行後model會下載道本地的電腦?

    • @huanyihe777
      @huanyihe777  3 місяці тому +1

      用的是Google Colab,GPU也是他们的。完成后上传到Hugging Face。

    • @jason77nhri
      @jason77nhri 3 місяці тому

      @@huanyihe777 感謝 那請問Google Colab是用付費還是免費版的才能跑這樣的微調?
      有colab的相關範例資源嗎?

    • @huanyihe777
      @huanyihe777  3 місяці тому +1

      视频里用的是免费的T4。Unsloth官方GitHub有代码

    • @jason77nhri
      @jason77nhri 3 місяці тому

      ​@@huanyihe777 謝謝 所以 Unsloth只有支援這些models嗎? Llama 3.1 (8B), Mistral Nemo (12B), Gemma 2 (9B), Phi-3 (mini), Ollama, Mistral v0.3 (7B), ORPO, DPO Zephyr, TinyLlama

    • @huanyihe777
      @huanyihe777  3 місяці тому +1

      Unsloth的Hugging Face页面有很多模型,你看看

  • @RCCarl-i3r
    @RCCarl-i3r Місяць тому

    非常感谢分享,相当有用。请问大概的算力要求如何。
    如果对8b模型finetune,用colab的免费版 vs pro版,finetune数据来源几百本电子书PDF大概几个GB大小。这个需要大概多久。
    另外,请问如何对图片去finetune,有时间能否分享一下,非常非常期待。多谢🙏

    • @huanyihe777
      @huanyihe777  Місяць тому

      需要把PDF里的内容提取出来,转成特定格式的数据集,才能用于训练。

  • @phes11434
    @phes11434 2 місяці тому

    我使用你的模型但我遇到does not appear to have a file named pytorch_model.bin, model.safetensors, tf_model.h5, model.ckpt or flax_model.msgpack. 我應該如何解決這個問題

  • @颜造城
    @颜造城 3 місяці тому +3

    能不能用个场景 开微调,这样更容易理解

    • @huanyihe777
      @huanyihe777  3 місяці тому

      之后会围绕一个具体的微调目的展开

  • @changtimwu
    @changtimwu 3 місяці тому

    6:12 這個 finetune dataset 的三欄位, 跟 openai 的基本上差不多, system message, user message, assistant message

    • @huanyihe777
      @huanyihe777  3 місяці тому +1

      对的

    • @3a146
      @3a146 3 місяці тому

      因为InstructGPT的方法模式就是这样的。

  • @hwj8640
    @hwj8640 2 місяці тому

    最近看到好多AI聊天app,那個跟你對話自然,幾乎無法區別真人與否,例如英語的"Aspect",或是中文的"卿卿我我",請問Llama3.1能夠做到這種嗎? 如果沒有給它商業app的聊天紀錄當dataset,是否一般人就無法做到那種等級了?

    • @huanyihe777
      @huanyihe777  2 місяці тому

      可以通过微调增强模型的语言能力。比如,可以让模型具备文言文翻译的能力。只要有合适的dataset就可以

  • @FusionDraw9527
    @FusionDraw9527 3 місяці тому

    請問這根用LLaMA-Factory會有很大的差別?

  • @frankchen8136
    @frankchen8136 2 місяці тому

    mac电脑如何用unsloth或者其他工具微调大模型,能否出一期视频讲讲。

    • @huanyihe777
      @huanyihe777  2 місяці тому

      其实没区别,一样的设置

    • @frankchen8136
      @frankchen8136 2 місяці тому

      @@huanyihe777 Mac电脑运行不了

  • @cpyi1
    @cpyi1 3 місяці тому

    讚喔

  • @yikewang6411
    @yikewang6411 Місяць тому

    请问您的colab的 ipynb文件是否可 分享

  • @lawliet357
    @lawliet357 3 місяці тому +1

    3.0 70b我都要去租借80gb現存的顯卡才能跑得動unsloth, 405b怎麼可能一張T4搞定呢?

  • @planplay5921
    @planplay5921 3 місяці тому

    用私有数据使用google colab,上传之后会有泄漏风险吗

    • @huanyihe777
      @huanyihe777  3 місяці тому

      我觉得没事。担心的话就在本地训练吧,一样的

    • @andyyeh75
      @andyyeh75 3 місяці тому

      本地微調一定要用Nvidia GPU 嗎?

  • @dfhimail
    @dfhimail 3 місяці тому +2

    微调出来的模型失去了通用能力,而且挺严重的,同时出现重复输出问题。请问有没有相关的微调经验应对

    • @shiyiyuan6318
      @shiyiyuan6318 Місяць тому

      理论上peft是不会影响模型微调之后的通用能力

    • @EasyAI-InAction
      @EasyAI-InAction Місяць тому

      我的经验:
      1. 调整参数基本没用,如epoch,learing_rate等。所以不要做这一步无用功
      2. 核心是优化训练数据集,有以下几个方向:1. 数据的多样性,不要同一个问题来回问,要不断更换不同问题;2. answer要尽量长,太短几乎没用;3. 寻找到模型对哪个pattern或者token重复回答,然后减少这种token和pattern
      微调就是数据集的艺术,跟算法基本没关系🙂