ChromaDB en la nube | Despliega con AWS + ChromaDB + EC2

Поділитися
Вставка
  • Опубліковано 23 гру 2024

КОМЕНТАРІ •

  • @sebastian_cano
    @sebastian_cano 2 місяці тому +1

    Acabo de descubrir tu canal, y estoy muy contento con la información. He podido adentrarme en este tema y experimentar. Muchas gracias, un saludo desde Colombia

    • @NechuBM
      @NechuBM  2 місяці тому

      ¡Qué chimba colombia! Qué bueno saber que mis vídeos llegan a una tierra tan hermosa y con un café tan delicioso. Espero que aprendas muchos con los vídeos y no dudes en compartir cualquier pregunta que tengas en el canal.

  • @lnacache
    @lnacache Рік тому +1

    Estimado Nechu. Muy completo este taller. Aunque AWS no es mi fuerte, es grandioso seguir el paso a paso y lograr implementarlo. La satisfacción es tremenda. Muchas gracias. Sin desperdicio cada segundo de tu video. Muchas gracias por tu dedicación 👏

    • @NechuBM
      @NechuBM  Рік тому +1

      ¡Gracias a ti por tu dedicación y entusiasmo! 👏 Es genial saber que seguir el paso a paso te permitió implementarlo con éxito y que fue muy satisfactorio. Parece que ahora AWS si es tu fuerte 🎉

  • @yeiferrodriguez3434
    @yeiferrodriguez3434 4 місяці тому +1

    Hola Nechu, esto tiene algo que ver con el enfoque RAG?

    • @NechuBM
      @NechuBM  4 місяці тому

      Si, para utilizar el enfoque RAG necesitas una base de datos vectorial como por ejemplo ChromaDB o Pinecone donde almacenar los vectores. Este vídeo se enfoca en el despliegue en la nube, si busca un vídeo donde entender mejor la técnica de RAG aquí te dejo el enlace : ua-cam.com/play/PLxJ3eugu174Jcm7F-Yxt7XQzgPR1FSSLu.html

  • @paulodmanace4812
    @paulodmanace4812 Рік тому +1

    Hola muy buen video, muchas gracias. En lugar de Chatgpt podrías usar una alternativa open source, llama2 en local por ejemplo?

    • @NechuBM
      @NechuBM  Рік тому +1

      ¡Claro, es una gran alternativa lo que propones! Solo necesitas cambiar las líneas donde llamamos a ChatGPT por modelos open-source. Con las librerías HuggingFace o LangChain puedes hacerlo en muy pocas líneas de código.
      ¡Muchas gracias por el feedback!

    • @paulodmanace4812
      @paulodmanace4812 Рік тому +1

      @@NechuBM Muchas gracias! buscare para ver que encuentro del tema.

    • @NechuBM
      @NechuBM  11 місяців тому +1

      @@paulodmanace4812 Si se te complica me dices y te comparto algún ejemplo, estoy justo preparando un vídeo con un modelo open-source.

    • @paulodmanace4812
      @paulodmanace4812 11 місяців тому +1

      @@NechuBM Hola si estaría bueno un ejemplo con llama2 mistral por ejemplo, trabajando con documentos RAG, también para que vea la comunidad.
      También vi por allí que usan varios modelos con un múltiple agente si mal no recuerdo. Desde ya muchas Gracias!

    • @NechuBM
      @NechuBM  11 місяців тому

      @@paulodmanace4812 Aquí tienes un ejemplo con código que compartió @pazalla en uno de los comentarios:
      llm = HuggingFaceHub(
      huggingfacehub_api_token="MY_HF_TOKEN",
      repo_id="mistralai/Mistral-7B-v0.1",
      model_kwargs={"temperature":0.7}
      )
      qa_chain = load_qa_chain(llm, chain_type="stuff")
      input_documents = data_knowledge.similarity_search(question, 3)
      result = qa_chain.run(input_documents=input_documents, question=question)
      Solo necesitas cambiar "MY_HF_TOKEN" por tu token de HuggingFace

  • @adalbot
    @adalbot Рік тому +1

    viejo puedes preaparar un video de streamlit..saludosudos

    • @NechuBM
      @NechuBM  Рік тому

      ¿Te refieres a un minicurso sobre Streamlit? La verdad que Streamlit es una herramienta muy potente. Aquí puedes ver alguno de los vídeos donde ya utilizamos Streamlit y en las próximas semanas vienen más.
      ua-cam.com/video/iDrpdkIHMq8/v-deo.html
      ua-cam.com/video/adq0BFxQ4C0/v-deo.html