Prueba gratis Llama 3.2 un nuevo modelo LLM con vision - No necesitas GPU para usarlo

Поділитися
Вставка
  • Опубліковано 26 лис 2024

КОМЕНТАРІ • 18

  • @javaboy6581
    @javaboy6581 Місяць тому

    Cuanto se te echa de menos cuando no estas, maestro. Me encantan los RAGS, LORAS Y TTS en modo local, alucino con estas cosas. Que pena que para un LORA local no tengo GPU

  • @zonadock
    @zonadock Місяць тому

    Gracias, César

  • @FENIXDO0166
    @FENIXDO0166 Місяць тому +1

    Hola a ver pruebo, gracias crack

    • @LaHoraMaker
      @LaHoraMaker  Місяць тому

      A ver que tal te funciona este modelo! Ya nos contarás!

  • @revandarth2680
    @revandarth2680 Місяць тому +1

    Muchas gracias

    • @LaHoraMaker
      @LaHoraMaker  Місяць тому

      Gracias por comentar. Seguimos explorando los últimos modelos y compartiendo los resultados en abierto!

  • @jaimemunoz3025
    @jaimemunoz3025 Місяць тому +1

    como siempre el mejor canal de IA

    • @LaHoraMaker
      @LaHoraMaker  Місяць тому

      Gracias por el cumplido Jaime!

  • @juanpablo9717
    @juanpablo9717 Місяць тому

    Sabes si es posible correr estos modelos aue rscibwn imágenes de manera local? He visto aue en los modelos de Llama hay uno llamado Lava y wuisoera probar en alguna herramienta como Anything LLM para hacer pruebas como las que acabas de hacer
    Gracias por la info, nuevo sub!

  • @yosoyjose
    @yosoyjose Місяць тому

    Hola Cesar cómo estás? te quería preguntar qué esperas de los nuevos procesadores de AMD con NPU de 50TOPS, AMD Ryzen AI 9 HX 370, crees que será suficiente para ejecutar modelos de lenguaje de forma local? tienes alguna expectativa sobre esta nueva generación de procesadores? un saludo

  • @FedeCiencias
    @FedeCiencias Місяць тому

    Hola te hago una consulta.. o a la comunidad: que modelo me recomiendan para traducir textos. son textos académicos, complejos.

  • @mariron42
    @mariron42 Місяць тому

    Hola, me encantan tus videos. En tu experiencia cual sería el mejor dispositivo para montar un micro server arm que pueda ejecutar ia generativa? Habrá salido alguno nuevo interesante?

    • @TheJaaavier
      @TheJaaavier Місяць тому

      No es más barato, confiable y potente usar cualquier pc viejo?

    • @mariron42
      @mariron42 Місяць тому

      @@TheJaaavier a corto plazo probablemente pero si tomamos en cuenta el consumo de electricidad, el tamaño que ocupa en un departamento y la necesidad de refrigeración entonces un modesto arm puede ser ideal para servidor personal en un futuro.

    • @TheJaaavier
      @TheJaaavier Місяць тому

      @@mariron42 a largo plazo si le quieres sacar todo el jugo posible a un servidor vas a necesitar mas ram. Todavia no hay mucho en arm las rasberry son para entretenerse corriendo juegos retro o multimedia, eso si, tendrás que cambiar las sd muy seguido que mueren solas al exigirles correr un sistema operativo. Quizas si qualcom compra intel como se rumorea la cosa podría cambiar

    • @TheJaaavier
      @TheJaaavier Місяць тому

      En espacial si quieres correr AI que valgan la pena necesitaras montones de ram y procesamiento. Son muy llamativas por su tamaño chiquito pero no lo valen tanto. Nvidia esta fabricando minis cacharros para correr AI. como la orin nano viene con arm. Sera mas barato y potente una mini-atx ordinaria pero si te interesa lo super mini podría ser una opción

  • @zirus8346
    @zirus8346 19 днів тому

    cómo puedo tener esto en mi pc?

  • @Reyiman
    @Reyiman Місяць тому