Ollama Python Library: Use LLMs on your Local Computer | llama2 | mistral

Поділитися
Вставка
  • Опубліковано 2 лис 2024

КОМЕНТАРІ • 5

  • @CoderzColumn
    @CoderzColumn  7 місяців тому +1

    Learn Ollama Tool from here -> ua-cam.com/video/vfm_Pmxe-z8/v-deo.html

  • @chitranshtiwari7429
    @chitranshtiwari7429 7 місяців тому

    One and only man who give the correct working solution to connect python and ollama hats off highly appreciated

    • @CoderzColumn
      @CoderzColumn  7 місяців тому

      Thanks for feedback. Appreciate it.
      This tutorial uses "ollama" Python library to access Local LLMs available through Ollama Tool REST API. I have another video explaining Ollama Tool where I have explained how to access Local LLMS available through Ollama REST APIs using Python library "requests".
      * ua-cam.com/video/vfm_Pmxe-z8/v-deo.html

  • @Anonymous-bu9ch
    @Anonymous-bu9ch 8 місяців тому

    Great Lecture Brother!
    Where can i find the jupyter file?

    • @CoderzColumn
      @CoderzColumn  8 місяців тому

      Check description !!! I have included link to github.