¡Mi propio ChatGPT en Casa! : Así lo he hecho (Mini PC Geekom A8)

Поділитися
Вставка
  • Опубліковано 15 вер 2024
  • He aprovechado la potencia y el bajo consumo de este Geekom A8 para montar el cerebro de mi Inteligencia Artificial en casa: Ollama junto a Llama3, Whisper y otros modelos para interactuar desde Home Assistant.
    ✅ Existen dos modelos del Geekom A8 con diferente modelo de CPU:
    ► Official ES:www.geekom.es/...
    Descuento: UNA8YTB
    ► Versión Ryzen 9 en Amazon: unloco.link/LBDJB
    Descuento: V3BQ9AKY
    ► Versión Ryzen 7 en Amazon: unloco.link/iMOkL
    Descuento: UNR7YTB24
    ⚡ Apúntate a la newsletter del canal y recibe consejos y trucos: unloco.link/ne...
    Blog: unlocoysutecno...
    🔴 Tienda de domótica en Amazon: www.amazon.es/...
    👍 🅳🅰🅻🅴 🅻🅸🅺🅴 🅰🅻 🆅🅸🅳🅴🅾 🚀
    // 👍 𝗔𝗣𝗢𝗬𝗔 𝗔𝗟 𝗖𝗔𝗡𝗔𝗟 🛑
    Puedes 𝗶𝗻𝘃𝗶𝘁𝗮𝗿𝗺𝗲 a un café: www.buymeacoff...
    🛑 Puedes convertirte en miembro del canal en UA-cam: / @unlocoysutecnologia
    🛑 o puedes hacerlo en Patreon:
    / unlocoysutecnologia
    💥 𝗦𝗨𝗦𝗖𝗥𝗜𝗕𝗘𝗧𝗘 𝗔𝗟 𝗖𝗔𝗡𝗔𝗟 𝗬 𝗗𝗔𝗟𝗘 𝗔 𝗟𝗔 𝗖𝗔𝗠𝗣𝗔𝗡𝗜𝗧𝗔. 𝗚𝗥𝗔𝗖𝗜𝗔𝗦! 💥
    ⚡ 𝗧𝗘𝗟𝗘𝗚𝗥𝗔𝗠 ► t.me/unlocoysu...
    📱 𝗧𝗜𝗞𝗧𝗢𝗞 ► / unlocoysutecnologia
    📸 𝗜𝗡𝗦𝗧𝗔𝗚𝗥𝗔𝗠 ► / unlocoysutecnologia
    ==== ENLACES Y OTROS VÍDEOS DEL CANAL ====
    Enlaces de todo lo visto en el vídeo:
    www.ollama.com/
    www.amd.com/en...
    Override Ollama para usar GPU Radeon 780M: github.com/oll...
    Ollama GPU con iGPUs: github.com/oll...
    Force allocate VRAM: github.com/seg...
    Hugging Face: huggingface.co/
    Home LLM para HACS: github.com/aco...
    Llama 3: ai.meta.com/bl...
    Open WebUI: docs.openwebui...
    Te recomiendo que veas estos vídeos para entender algunos conceptos:
    🔝 Scheduler para Home Assistant - • Programador VISUAL par...
    🔝 Migramos a Z-Wave JS - • Migramos de ZWave a ZW...
    🔝 ¿Cómo actualizar Home Assistant? - • ¿Cómo actualizar Home ...
    🔝 Instalación de HACS en Home Assistant - • Instalación de HACS en...
    🔝 Home Assistant Cloud - • Pagarías por Home Assi...
    🔝 Conectar Node-Red y Home Assistant - • Home Assistant y Node ...
    #chatpgt #inteligenciaartificial #geekom

КОМЕНТАРІ • 76

  • @adiazlopez8
    @adiazlopez8 3 місяці тому +10

    A mi más q estos modelos lo que más me atrae es q empiecen a salir soluciones locales de altavoces para home assistant. Que funcionen bien y q no haya q dejarse los dos riñones para comprarlos y ser ingeniero informático para hacerlos correr :)

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому +2

      Todavía queda para tener una solución plug and play, pero supongo que todo llegará

  • @milicsantiago
    @milicsantiago 3 місяці тому

    Gracias, Carlos! Saludos desde Argentina

  • @enmoto82
    @enmoto82 2 місяці тому

    Muy interesante. Gran trabajo. Gracias por compartir. Saludos.

  • @SuCondegr
    @SuCondegr 2 місяці тому

    Gran video! Y realmente increíble lo que se viene!!!

  • @carlesmesquidajoanes5823
    @carlesmesquidajoanes5823 3 місяці тому

    Me ha gustado las referéncias a Star Trek. El saludo vulcaniano mientras aludias a la típica frase de los Borg "Toda resisténcia es futil". El video como siempre, muy bien explicado. Habrá que ir aprendiendo de IA...

  • @peladocontrenzas1061
    @peladocontrenzas1061 Місяць тому

    We are borg.
    Muy buen video.
    Probaste hacer fine-tuning de ese modelo?
    Excelente canal.
    Saludos

  • @jorgermartinez
    @jorgermartinez 3 місяці тому +2

    Pues un video de como mandarle todos esos datos, calendar, sensores, etc y que te diga un resumen si que sería interesante!

  • @unobuscando
    @unobuscando 2 місяці тому

    Hola Carlos. Te resultaría interesante hacer un vídeo sobre cómo controlar un extractor de aire bidireccional en función de dos termómetros, uno interior y otro exterior a la vivienda? Requisitos: debe poderse elegir entre modo invierno (introduzco aire caliente diurno) y verano (introduzco aire fresco nocturno y extraigo aire caliente diurno), además de un interruptor de parada. Gracias. Saludos.

  • @MrRabeliyo
    @MrRabeliyo 3 місяці тому

    Estaba esperando un video tuyo de esto!!
    La integración llm local a mi no le funciona, uso extended conversation pero no me funciona bien.
    Deseando la segunda parte del video!!!

  • @mariogonzalezdelafuente1828
    @mariogonzalezdelafuente1828 3 місяці тому

    Respecto al tema de las librerias solo compatibles con Ubuntu, seguramente se pueda a llegar ejecutar en la version de Debian de la que hereda Ubuntu 22 solo que con trabajo extra, me paso en su momento con las librerias OpenVINO de Intel y al final si que pude.

  • @miquelbotanch6170
    @miquelbotanch6170 3 місяці тому

    Star Trek… como vas a hablar con ella, le podías haber puesto Locutus.por cierto mírate borg backup. El sistema de backup más geek que hay. Es como un Git+rsync. La resistencia también es futil. Hace copias de los cambios y guarda los datos con deduplicacion. Un saludo

  • @FEEDSRRSS
    @FEEDSRRSS 2 місяці тому

    Muy buenas. Uno de los puntos de inflexión sería el poder crear un sistema para dar órdenes mediante voz a la implementación de IA y que ejecutara acciones domóticas. Lo que vendría a ser un sustituto real e inteligente a los ladrillos de Alexa y Google.

  • @stan.s.stanman
    @stan.s.stanman 3 місяці тому

    Menuda locura de video! No me importaria el dia de mañana tener que cambiar mi extremadamente humilde NUC por algo bastante mas potente para meterle IA a la domotica. Pero ademas de mejorar, tendra que ser mas user friendly su implementacion. Esto ya se me escapa 😂

  • @MaximoFernandezNunez
    @MaximoFernandezNunez 3 місяці тому

    Te recomiendo también los modelos GGUF, ollama los acepta. Hay que hacer un modelfile como en docker, pero se pueden usar. Son mopdelos cuantizados y los de 4 bits funcionan bien. La documentación de ollama para hacer los modelfiles es muy mala si no sabes Go. Yo tengo un post explicándo cómo hacerlos, no lo pongo para no hacer spam, pero si te interesa te lo paso

  • @rkcyanide
    @rkcyanide 3 місяці тому +2

    Buenas Loco, con chatgpt plis se podria llamar a la Api de Openai que ya es multimodal? Aunque se pierda ese plus de privacidad? Saludos y muchas gracias por tu contenido.

  • @ScorgeRudess
    @ScorgeRudess 3 місяці тому

    el modelo GPT-4o es gratuito para su uso con chatgpt pero solo que limitado a cierta cantidad de prompts, se puede pagar por aumentar 5x con la suscripcion plus.

  • @Guinnberg
    @Guinnberg 3 місяці тому +1

    Gran video! Y justo ahora que estoy pensando en comprar un servidor más potente.
    Crees que este podría correr junto a Llama, home assistant, frigate y reconocimiento facial?
    Con el nuc que tengo ahora, whisper en small me tarda cerca de 3s en transcribir algo como "enciende la luz de la oficina" 😂

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому +1

      Ojo con whisper que tiene sus cosillas. En amd la aceleración no va tan fina como con nvidia. No he sacado tiempos porque lo utilizo para transcribir asi que la inmediatez no es un problema, aunque desde luego potencia tiene por un tubo

    • @Guinnberg
      @Guinnberg 3 місяці тому

      @@unlocoysutecnologia entonces crees que podría correr todo en el mismo servidor?

  • @gersong1350
    @gersong1350 3 місяці тому

    Vaya crack da gusto ver tus videos. Gracias

  • @CoDeC__
    @CoDeC__ 3 місяці тому

    lo que he observado, que ya lo comentas en el vídeo, es que las IAs tienen respuesta para todo y si es necesario se lo inventan y esto en según que entornos es hasta peligroso. Incluso en entornos profesionales y acotados, l@s "jodid@s" te contestan. Grande como siempre Carlos.

  • @charlie663
    @charlie663 3 місяці тому

    Carlos, podrias hacer un video acerca de como montar uno potente con una grafica dedicada?. Sería interesante tener una IA donde podamos hacer uso de un LLM similar a chatGPT sin las limitaciones que este tiene. Ejemplo: limitación de datos a años anteriores o pedirle cosas que no te las puede responder: predicciones de cosas, etc

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому

      Si tienes un equipo con una dedicada de nvidia, montate ollama, es super sencillo y se pueden hacer cosas muy chulas

  • @javituh
    @javituh 3 місяці тому

    Grande Carlos. Cuando le quites el HDMI tal vez tienes que usar un HDMI headless para no desactivar la aceleración por HW... Ya comentarás sí hace falta o no.

  • @MaximoFernandezNunez
    @MaximoFernandezNunez 3 місяці тому

    Te recomiendo qwen2 7B, tiene mejores métricas en benchmarks que llama3 8B. Entiende bien el español y al tener 7B en vez de 8B ira un poco más rápido

  • @moralitosrodrigo
    @moralitosrodrigo 14 днів тому

    Por lo general las gigantes del hardware o software, si toman en cuenta a linux, siempre es con ubuntu o red hat y sus derivadas

  • @GEEKOMPC
    @GEEKOMPC 2 місяці тому

    Gracias por comentar sobre nuestro producto. ¡Sus comentarios sobre los productos GEEKOM son muy valiosos para nosotros!

  • @galdakaMusic
    @galdakaMusic 3 місяці тому +1

    Ha salido el módulo Hailo 8L como Hat para Rpi5. Quizás el vídeo interesante sería HAOS sobre Rpi5 con Hat doble SSD y modulo Hailo 8L. Y ver rendimiento con Frigate.

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому

      Hay que tener cuidado con meter mucho hat, la line pcie que tiene es 1x. En cualquier caso, si consigo hacerme con uno a un precio decente, si, quiero probarlo

    • @galdakaMusic
      @galdakaMusic 3 місяці тому

      Yo el futuro lo veo por ahí el Hailo 8L original para Frigate y otra Rpi en paralelo para la IA general de tu casa y conexión privada Ollama con HAOS

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому

      @@galdakaMusicla rpi no tiene potencia suficiente por si misma para los llm, la jetson es otro cantar, pero el precio es otro

    • @galdakaMusic
      @galdakaMusic 3 місяці тому

      ​@@unlocoysutecnologiaDesde mi punto de vista estás equivocado. Hay modelos pequeños y tuneados para ejecutarse en Rpi5 sin problema. A día de hoy para pisos de 50 a 120 M2 con 60 dispositivos Zigbee y 3/4 cámaras RTSP es suficiente una Rpi 8GB con Coral o Hat AI oficial y disco duro SSD. Si le metes IA otra Rpi5 dedicada sería suficiente para el grueso de usuarios.

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому

      @@galdakaMusic Todo depende de lo que signifique para ti "sin problemas". Si te refieres a un llm que tarda 1 minuto en contestar y con una tasa de alucinaciones enorme, entonces si, hay modelos que entran en una raspi. Con respecto a lo de la casa, seguro que si, pero económicamente no tiene ningún sentido. Entre raspi, accesorios y los hats son más de 200€. Por ese precio tienes mini pcs de buena calidad y mucha más potencia. Un cosa es utilizar la raspi pelada para lo que es, que ahí tiene encaje, pero irte a más de 200€...

  • @ATTICA535
    @ATTICA535 Місяць тому

    Es mejor este a8 o el it13?

  • @Erosgenuino
    @Erosgenuino 3 місяці тому

    Yo, lo que busco es una IA local que le des ordenes por voz y te entienda, que me encienda la cafetera , que le eche la comida a los gatos y el agua, y que me riege las lechugillas.

  • @aparre
    @aparre 3 місяці тому

    Es posible meter whisper por docker en un Nas Asustor6704t gen2 con 20gb de ram?

  • @jlfloresvideos
    @jlfloresvideos 3 місяці тому +1

    No habrá Borgs por ahí?

  • @lelito4
    @lelito4 3 місяці тому

    Jajaja, pues tanto por los borg de star trek como los bogones de la guía de autoestopista galáctico (obviamente los segundos parodian a los primeros) 😂

  • @MaximoFernandezNunez
    @MaximoFernandezNunez 3 місяці тому

    Deberías probar una Nvidia Orin Nano

  • @groger9388
    @groger9388 3 місяці тому

    Tienes pensado hacer algun video paso a paso de como instalar una IA que pueda controlar la casa automáticamente? Me interesa para un nuc de pocas prestaciones, siilar a raspi5, gracias

  • @Atmel4fun
    @Atmel4fun 2 місяці тому

    Muy interesante poder tener un modelo en local, pero eso no va a evitar que todos seamos asimilados.....

  • @teamgaesgarminbyorbea6002
    @teamgaesgarminbyorbea6002 3 місяці тому

    Entiendo que en un Nodo de proxmox como lxc también se podría?

  • @ch0wch0w83
    @ch0wch0w83 3 місяці тому

    Buen trekkie

  • @sergimaurimoreno3298
    @sergimaurimoreno3298 3 місяці тому

    Estoy 100% de acuerdo en la apreciación de que tarde o temprano la IA controlara nuestras casas, es el siguiente escalon lógico.
    Por ahora lo veo un poco verde, me gustaría trastear con todo esto pero no dispongo del tiempo y recursos suficientes.
    De todas maneras se agradece esta actualización y quedamos pendientes de saber cual sera el camino a seguir.... porsupuesto en español.
    Now me voy a tomar un "fucking" cafe con leche de mileurista bro...

  •  3 місяці тому

    🖖

  • @gbm3050
    @gbm3050 3 місяці тому +1

    Tienes algunos mini errores de conceptos (lo cual es perfectamente normal si no tu especialidad) pero como comentario constructivo si que queria comentar que el uso de LLMs es mas secundario, es una cosa que se puede delegar a la api de openAI perfectamente. Lo importante aqui a nivel local para mi es el uso de RAGs para acceser a tu información ya sea de documentos o sensorica

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому

      Segurísimo, soy aprendiz de todo esto. Si que te agradecería que comentases los errores de conceptos, asi puedo añadirlos a la descripción. Con respecto a openai, siempre está la opción, y buena es… pero barata no sale

    • @gbm3050
      @gbm3050 3 місяці тому

      ​@@unlocoysutecnologiaPues mira, te voy diciendo con tiempos 5:54 no exactamente. Chatgpt si que es un modelo, me explico, una LLM como funciona tradicionalmente es tu escribes algo le das a enter y sigue escribiendo. Por ejemplo empiezas un cuento y continúa con lo que estás escribiendo. Eso sería GPT, la base, luego está chatgpt que es un fine tunning en las ultimas capas para que acepte la estructura de chat, que es lo que te ofrece la web pero que también es un modelo. Voy a vuela pluma, no sé si me he explicado.
      6:55 yo tiraría de mixtral. Me fío más de ellos que de meta. No he probado meta para ser honesto pero por compliance estoy poniendo mixtral a mis clientes (o API de openai). Es más interesante por ser europeo y más transparente.
      13:04 justo esto es lo que te digo que debería hacer un RAG pero que también lo puedes hacer de una manera "hardcodeada" como lo has hecho tú.
      14:50 aquí está el otro fallo. No es que este menos entrenado, el modelo es el mismo lo que haces es reducirle bits. Me suena que le vi un vídeo del tema dotcsv, te intento buscar enlace.
      Te busco también una serie de artículos sobre arquitectura básica de estos chismes. Otra cosa, a mí la API de chatgpt para pruebas me consume mierda tbh baratísima. Meto 10€ hace 6 meses y ahí siguen 9€ y pico todavía. A nivel corpo es cuando sale caro por la escalabilidad

    • @Mouta77
      @Mouta77 3 місяці тому

      No, si usas la api de openAi, tienes que enviar tus datos a ellos. La ventaja de instalar una IA local también está en que no tenga acceso a tus datos

    • @gbm3050
      @gbm3050 2 місяці тому

      Puse dos respuestas largas pero como le etiquete directamente y no sale la respuesta xD supongo que lo tendrá capado. Si efectivamente, con la API yo llevo gastado menos de 50 cts en tres meses en la API de pruebas que tengo para mis clientes. Y le doy caña. Pero claro, esto se encarece con la escalabilidad y no porque un usuario haga cosas

  • @lroqcor
    @lroqcor 3 місяці тому

    We are the Borg. You will be assimilated. xD

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому +1

      We will add your biological and technological distinctiveness to our own. Your culture will adapt to service us. Resistance is futile.

  • @yeasturianin
    @yeasturianin 3 місяці тому +1

    Has considerado un mac mini? Diría que te permitiría correr modelos más grandes y consume muy poco.
    Edito: ¿Y una Jetson Nano?

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому +1

      El problema es el precio. El mac mini con 16gb se va a más de 1500 euros

    • @aioras
      @aioras 3 місяці тому

      si no te importa el tamaño, hay bastantes servidores usados con potencia de sobra para que funcione todo a un precio mínimo.

    • @ch0wch0w83
      @ch0wch0w83 3 місяці тому +1

      @@aioras demasiado consumo

    • @Paw_Low
      @Paw_Low 3 місяці тому

      Una jetson podría correr el modelo completo de llama? O al menos el mismo que el del video sin retraso alguno?

    • @aioras
      @aioras 3 місяці тому

      @@ch0wch0w83 el consumo en mi opinión es relativo al precio de coste del ordenador, ya que si hay que gastar x8 en cuanto tardas en amortizar ese sobre coste? todo es hacer números y ya te adelanto que yo no he hecho

  • @elialogeek
    @elialogeek 3 місяці тому

    mejor que los belink de 200€?

    • @unlocoysutecnologia
      @unlocoysutecnologia  3 місяці тому

      No son comparables, son dos productos completamente distintos y con specs distintas

  • @crstnmtchll8650
    @crstnmtchll8650 3 місяці тому

    lastima que el saludos es de la serie original y el borg cube es next generation jajjajajajaaja

  • @galicianatura
    @galicianatura 3 місяці тому

    Primero!

  • @MaximoFernandezNunez
    @MaximoFernandezNunez 3 місяці тому

    Ya paro de escribir