[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

Поділитися
Вставка
  • Опубліковано 23 гру 2024

КОМЕНТАРІ •

  • @pkwanga
    @pkwanga Рік тому +1

    好快更新,謝謝老師

  • @chuanjiang6931
    @chuanjiang6931 Рік тому +1

    做预测的时候model name 依然用了 'daryl149/llama-2-7b-chat-hf \', 为什么没有用刚做完微调的模型?该如何指定呢?

    • @Largitdata
      @Largitdata  Рік тому

      你第一次下載模型後,模型會放在 ~/.cache/huggingface/hub/ 中,再一次呼叫的時候,他不是重新下載,是用本地端fine-tune 後的模型,不用另外指定

    • @chuanjiang6931
      @chuanjiang6931 Рік тому +1

      @@Largitdata 我猜你是想说 是用本地端fine-tune後的模型?

    • @Largitdata
      @Largitdata  Рік тому

      @@chuanjiang6931 哈 對,我更正一下

  • @李探花-e5h
    @李探花-e5h Рік тому +1

    result = F.linear(x, transpose(self.weight, self.fan_in_fan_out), bias=self.bias)
    RuntimeError: expected scalar type Float but found Half 请问老师这个怎么解决?

    • @Largitdata
      @Largitdata  Рік тому

      意思是型態精度不匹配,哪邊產生的錯誤?

  • @yi-lun1565
    @yi-lun1565 Рік тому

    請問影片教學範例中,
    1. 微調後的最終模型放在哪裡? 微調後最終模型的名稱為何?
    2. 微調後的最終模型格式是什麼? 是與 ggml-model-q4_0.bin 還是跟 pytorch_model-00001-of-00003.bin 相同呢?
    會這樣問是因為未來可能會想要自己重新載入模型再去跟其他模型結合,但有點不清楚格式所以想問問看得到解答~ 謝謝

    • @Largitdata
      @Largitdata  Рік тому

      你第一次下載模型後,模型會放在 ~/.cache/huggingface/hub/ 中,再一次呼叫的時候,他不是重新下載,是用本地端fine-tune 後的模型,不用另外指定

    • @Largitdata
      @Largitdata  Рік тому

      ggml 是能夠用CPU 運行的模型,預設的模型是 pth, ggml 需要再作轉換

    • @keycui
      @keycui 9 місяців тому

      ​@@Largitdata我第一次fine-tune完之后关闭了colab,然后第二天重新启动colab的A100,训练完的模型还在吗,我想进行预测和评估,他能找到fine-tune好的模型吗。希望能给予解答

  • @chuanjiang6931
    @chuanjiang6931 Рік тому

    请教一下您 微调llm 如果loss炸了 一般该检查哪些方面?

    • @Largitdata
      @Largitdata  Рік тому

      當損失值異常時,通常會首先降低學習率或使用梯度裁剪技術。如果這些方法不起作用,可能需要更細緻地調查數據和模型的細節。
      數據預處理的質量也要重新檢視
      可以先從範例數據開始

  • @keycui
    @keycui 9 місяців тому

    我第一次fine-tune完之后关闭了colab,然后第二天重新启动colab的A100,训练完的模型还在吗,我想进行预测和评估,他能找到fine-tune好的模型吗。希望能给予解答

    • @Largitdata
      @Largitdata  9 місяців тому

      你第一次下載模型後,模型會放在 ~/.cache/huggingface/hub/ 中,要把他放到Google drive! 如果 colab 重開,東西都會被清掉,要重新來歐

    • @keycui
      @keycui 9 місяців тому

      @@Largitdata 谢谢~~

  • @leoking8605
    @leoking8605 Рік тому

    感谢分享!但是还是有一些小问题,直接用您给的原代码跑(数据也是代码中的),无法成功,1是没有template,2是ValueError: Please specify `lora_target` in LoRA training,第一个加了template就行,第2个还是没搞懂

    • @Largitdata
      @Largitdata  Рік тому +1

      請問也是在colab 執行嗎

    • @moyudawang
      @moyudawang Рік тому

      老师您好,我也碰到了直接用原代码跑报错的问题,我的报错也是ValueError: Please specify which `template` to use.但是第一节课的模型调用是没有问题的@@Largitdata

  • @GooBello-gr2ls
    @GooBello-gr2ls Рік тому +1

    請問訓練完後,想使用model,是不是ckpoint裡的adapter_model.bin就是整個fine-tune好的model?

    • @GooBello-gr2ls
      @GooBello-gr2ls Рік тому

      想使用訓練好的model,應該如何運行它?看到很多運行HF上的model,如何運行已經在本地的model?

  • @SongJo-m6f
    @SongJo-m6f Рік тому

    请问老师这个错如何解决?
    ValueError: Original column name instruction not in the dataset. Current columns in the dataset: ['payload', 'title']

    • @Largitdata
      @Largitdata  Рік тому

      看起來是欄位名稱跑掉了,是怎麼產生這錯誤的呢?

    • @smolpawpaw
      @smolpawpaw Рік тому

      @@Largitdata 开始run起来就报这个错误,也不知道为什么

    • @smolpawpaw
      @smolpawpaw Рік тому

      还没下载dary之前

    • @Largitdata
      @Largitdata  Рік тому

      @@smolpawpaw 錯誤顯示你的資料集目前的欄位名稱是 payload 跟 title 不符合訓練模式,可以再檢查一下資料內容

  • @wilfredomartel7781
    @wilfredomartel7781 11 місяців тому

    great work!

  • @chiangandy
    @chiangandy Рік тому

    請問pre-Train模型有針對繁中的資料訓練的嗎?現在看到的都是英文或是簡中的~

    • @Largitdata
      @Largitdata  Рік тому

      繁中可以用opencc.把簡中翻譯過去即可,或用維基的資料集

  • @willy7703
    @willy7703 Рік тому

    想請問老師或其他大大
    有人知道 有辦法在colab上進行sft微調後
    將model結果檔下載到本地端 可以這樣做嗎?

    • @Largitdata
      @Largitdata  Рік тому +1

      可以呀 把模型下載下來就好

    • @willy7703
      @willy7703 Рік тому

      @@Largitdata 好的 感謝老師 那我再自行研究一下~~

  • @syunAI88
    @syunAI88 Рік тому

    範例程式7b試玩了筆電的RTX3080要跑4分鐘

    • @syunAI88
      @syunAI88 Рік тому

      但是直接試70b卻會出現error

    • @dkc566476
      @dkc566476 Рік тому +6

      70B的模型需要80GB的VRAM,完整模型不可能在你的筆電跑起來,那是給A100 80G或數顆T4串接才能跑
      即使是llama2 70B 的二位元量化GGML版也需要在Ram+Vram有32GB才能跑起來

    • @syunAI88
      @syunAI88 Рік тому

      @@dkc566476 的確後來我有認真去研究過。是跑不了的。當作學習玩玩的。

    • @leowang55
      @leowang55 Рік тому

      @@dkc566476請問T4串接要用什麼技術呢, 謝謝

    • @dkc566476
      @dkc566476 Рік тому

      @@leowang55 torch.nn.parallel.DistributedDataParallel 與 torch.nn.DataParallel選一個解決方案