💥¡Crea un ChatGPT en tu equipo sin la nube! Con Ollama, Microsoft PHI-3 y Semantic Kernel💥

Поділитися
Вставка
  • Опубліковано 19 вер 2024

КОМЕНТАРІ • 23

  • @riccardodangelo
    @riccardodangelo 2 дні тому

    Muy claro, tanto que resulta comprensible incluso para un italiano que no conoce el español

  • @AstridSiry
    @AstridSiry 2 місяці тому

    Muy interesante! Gracias 🤜🏻🤛🏼

  • @Gustavofuentesm
    @Gustavofuentesm 2 місяці тому

    Genial, Rodrigo, te felicito. Voy a intentarlo y te cuento

  • @luisdavidmercadoortega3553
    @luisdavidmercadoortega3553 2 місяці тому

    Super excelente contendió, muy bueno como siempre muchas Gracias!

  • @yayihernandez129
    @yayihernandez129 2 місяці тому

    Rod eres un crack, explicando de forma tan sencilla algo que es tan complejo y tan novedoso! Crack!

  • @ajperez0001
    @ajperez0001 2 місяці тому

    Excelente explicación! Gracias por un video tan detallado!

  • @hiunkeru
    @hiunkeru 2 місяці тому

    Grande!

    • @CODERTECTURA
      @CODERTECTURA  2 місяці тому

      Muchas gracias maestro!!! 🥰🥰🥰

  • @vidasalud9275
    @vidasalud9275 2 дні тому

    Hola Rodrigo, muchas gracias por tu contenido he aprendido mucho. Quisiera saber por qué este mensaje cuando ejecuto el último ejemplo: "phi3 does not support tools" ?? saludos.

  • @greenyngchannel855
    @greenyngchannel855 2 місяці тому

    Mañana te veo el video !

  • @emilanocortez1083
    @emilanocortez1083 2 місяці тому

    Hola Rodrigo, muy bueno!! Una pregunta, se puede agregar plugins ? es decir quiero agregar funciones nativas

    • @CODERTECTURA
      @CODERTECTURA  2 місяці тому +1

      ¡Hola! Si, perfectamente podrías. De hecho el plugin ‘TextMemoryPlugin’ que utilizo es un tipo de plugin que solo tiene funciones nativas.

    • @emilanocortez1083
      @emilanocortez1083 2 місяці тому

      si tienes razon, perfecto. Lo he intentado anteriormente importandolo como plugin en el Kernel, pero no me ha funcionado (utilizando un SML). Pero utilizando Azure Open AI si funcionaba . Voy a probar agreandolo al prompt del mensaje, muchas graciasss! muy bueno el contenidoo!

    • @CODERTECTURA
      @CODERTECTURA  2 місяці тому +1

      Es importante que el SLM que uses soporte function calling. Lamentablemente no todos lo soportan. Algunos SLM han sido "fine-tuneados" para poder hacer algo parecido a function calling. Quizás por eso es que los plugins no te estarían funcionando.
      ¡Suerte!

    • @emilanocortez1083
      @emilanocortez1083 2 місяці тому

      @@CODERTECTURA Muchas graciass!!

  • @greenyngchannel855
    @greenyngchannel855 2 місяці тому

    Indicas al principio que se necesitan gpu de nvidia , sería suficiente con las NPU, osea un portátil de la nueva hornada de Microsoft u otro?

    • @CODERTECTURA
      @CODERTECTURA  2 місяці тому +1

      Esa es una buena pregunta! Teóricamente las nuevas NPU que van a traer las portátiles de Microsoft, y algunos dispositivos como los futuros iPhones, están pensados para poder ejecutar en local y sin conexión a la red un SLM.
      Hay gente que ha logrado hacer funcionar el modelo Phi-3:mini en un Samsung, sólo que no recuerdo qué modelo exactamente.

    • @greenyngchannel855
      @greenyngchannel855 2 місяці тому

      @@CODERTECTURA estas capacidades de uso desconectado lo veo muy interesante , pero aun creo que es complejo desarrollar aplicaciones para el publico masivo, ya que la gran mayoría no dispone de los recursos necesarios ...aunque es el principio. Como experto que eres, estoy pensando aún así utilizar un poderlo como phi-3 en azure, porque tengo el convencimiento que será la apuesta de Microsoft y seguro que es más económico que utilizar las apis de openai , que opinas ?

    • @CODERTECTURA
      @CODERTECTURA  2 місяці тому +1

      Efectivamente.
      De hecho, Phi-3:Medium con contexto de 128k tokens te saldría en modalidad de pago por uso a razón de 0.0015$ cada 1000 tokens generados, que es el mismo precio que el modelo más barato de Azure OpenAI (el GPT-3.5-Turbo), y muchísimo más barato que el más poderoso (GPT-4o) que te sale diez veces más: 0.015$ por cada 1000 tokens generados.
      Así que si, un Phi-3, un Mistral, Falcon e incluso el Llama3 podrían ser más económicos y rentables dependiendo del caso de uso.
      Tienes más info aquí: techcommunity.microsoft.com/t5/ai-machine-learning-blog/affordable-innovation-unveiling-the-pricing-of-phi-3-slms-on/ba-p/4156495?wt.mc_id=MVP_348953

    • @greenyngchannel855
      @greenyngchannel855 2 місяці тому

      @@CODERTECTURA de hecho nosotros tenemos licencias Copilot 365, y con azure ai Studio podríamos acceder a un phi-3 medium vía semantic kernel y acceder desde nuestras apps mobile a signalr que tuviera semantic-kernel y acceder al modelo vía azure AI Studio, lo malo es el inglés para hacer la traducción utilizar algún traductor ....es la pieza que no contaba...no serà Muy rápido pero como primera aproximación podría funcionar , que opináis . Signalr lo tenemos ya integrado con .net Maui en las apps mobile para un set de escenarios, este podría aportarnos un chat donde a la larga interactuar en nuestros agentes mobile

    • @CODERTECTURA
      @CODERTECTURA  2 місяці тому

      Existen - aunque ahora no me vienen a la cabeza - librerías que sin conexión a Internet te realizan traducciones de inglés a español bastante bien.