Code Like a Pro: Setting Up Model Llama-3-70B as Your VS Code Copilot

Поділитися
Вставка
  • Опубліковано 3 лис 2024

КОМЕНТАРІ • 11

  • @mykojai
    @mykojai 5 місяців тому

    This is freaking gold my friend! instant subscribe! thanks so much keep up the good work.

  • @ranjaniitr
    @ranjaniitr 5 місяців тому +1

    This is basically recommended for faster llm token inference to be used in ai playground😊

  • @trustn01
    @trustn01 5 місяців тому

    thx for this video and free usage of 70b. but it looks like, that CodeQwen1.5-7B-Chat is outperforming Llama3-70B-instruct so u can use local llm?

    • @saurabhkankriya
      @saurabhkankriya  5 місяців тому

      It's completely your call. The purpose of the demo is to show that one can replace openai models with the open source ones.

    • @trustn01
      @trustn01 5 місяців тому

      @@saurabhkankriya Yes, of course, thanks so much for the demo. just thought share some other options if anyone is interested

  • @AmitDas-yb3re
    @AmitDas-yb3re 5 місяців тому

    How can you do this in Jetbrains IDE?

    • @saurabhkankriya
      @saurabhkankriya  5 місяців тому

      I don't have experience with Jetbrains. You can read the continue extension's github Readme. They probably may have a documentation on this kind of integration.

  • @utkarsh8719
    @utkarsh8719 5 місяців тому

    Revoke your api key

    • @saurabhkankriya
      @saurabhkankriya  5 місяців тому

      Thanks for pointing this out. After recording the video, I deleted the API keys.