Step-by-Step Guide to Build RAG App using LangChain | Ollama | Llama-2 | Python

Поділитися
Вставка
  • Опубліковано 2 лис 2024

КОМЕНТАРІ • 9

  • @CoderzColumn
    @CoderzColumn  7 місяців тому +1

    Do check out my other videos of building the RAG app using Ollama.
    Ollama RAG using LlamaIndex -> ua-cam.com/video/woBiq3Opg-Q/v-deo.html
    Ollama RAG -> ua-cam.com/video/et_EREAsIQE/v-deo.html
    Learn Ollama -> ua-cam.com/video/vfm_Pmxe-z8/v-deo.html

  • @lassevogelsang4322
    @lassevogelsang4322 7 місяців тому +1

    Great video, thanks!

    • @CoderzColumn
      @CoderzColumn  7 місяців тому

      Thanks for taking time to comment. Really appreciate it.

  • @sumeetdey6361
    @sumeetdey6361 7 місяців тому

    Good video. Thanks for sharing..

  • @FaisalM1
    @FaisalM1 7 місяців тому +1

    Hi, how can we train an LLM, say codelama, with our github repository or local repo, so that we can use the model to write new code following the code structure of the provided codebase?

    • @CoderzColumn
      @CoderzColumn  7 місяців тому +1

      You can take any existing model like CodeLlama and the fine-tune it on your codebase. It'll require GPU and the process will take time as well. You can use huggingface library for fine-tuning model. I'll create videos on fine-tuning LLMs in future.

  • @sriharshaboini
    @sriharshaboini 7 місяців тому +1

    ❤❤