Local Models with Ollama & Microsoft Extensions - Step-by-Step RAG Guide!

Поділитися
Вставка
  • Опубліковано 27 гру 2024

КОМЕНТАРІ • 6

  • @paulharrington9673
    @paulharrington9673 16 днів тому +2

    Would be great to see a video were the embeddings are persisted. Azure SQL and/or Postgres.

    • @elbruno
      @elbruno  15 днів тому

      This repo implements VectorStore using Azure AI Search: aka.ms/netaieshoplitesemanticsearchazureaisearch
      I hope this helps!

  • @LearnWithVarun
    @LearnWithVarun Місяць тому +2

    Wow, Love your content. upload more videos on these series :)

    • @elbruno
      @elbruno  Місяць тому +3

      Thanks Learn! NExt one is this example running with Qdrant local in docker.

  • @greenyngchannel855
    @greenyngchannel855 Місяць тому

    Esto tan solo tiene sentido para modelos en local? Tendría sentido para un modelo en Azure ai Studio ? Por cierto ánimo al equipo de phi3 a probar que tal bueno podría ser utilizar el dispositivo y procesador del equipo de M5Stack ... Gracias !!

    • @elbruno
      @elbruno  Місяць тому

      @@greenyngchannel855 si cambias las interfaces de Embeddings para que usen modelos de Azure OpenAI, funciona igual pero con los modelos en la nube.