Descubre Qwen2.5: Los Modelos de IA Más Avanzados y Gratuitos (El Mayor Lanzamiento Open Source)

Поділитися
Вставка
  • Опубліковано 5 лют 2025

КОМЕНТАРІ • 62

  • @danielmoralestorres7884
    @danielmoralestorres7884 4 місяці тому +1

    Muy buenos videos. Eres un entusiasta de la IA, ¡Buen nicho!

  • @luiscorales
    @luiscorales 4 місяці тому

    Gracias por compartir amigo... Cómo siempre un crack....

  • @renierdelacruz4652
    @renierdelacruz4652 4 місяці тому

    Que buen contenido, gracias por compartir.

  • @davidjaciel6319
    @davidjaciel6319 4 місяці тому

    Muchas gracias por compartir conocimientos.

  • @fernandodiaz8231
    @fernandodiaz8231 4 місяці тому +1

    Interesante las novedades que presentas. Quisiera consultarte si me puedes dar algunas pautas para poder hacer uso del modelo haciendo uso de API de HuggingFace. Quisiera integrarlo con PHP.

  • @viangelo4z595
    @viangelo4z595 4 місяці тому +1

    Es una locura porfin podré añadirlo al modelo pequéño a mis proyectos

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому

      Si! Realmente estos modelos tan pequeños son excelentes para algunas tareas no tan complejas y en proyectos que podamos sacarle el provecho. Espero te resulten muy útiles. Gracias por comentar! 👋

  • @juampmiranda.4401
    @juampmiranda.4401 4 місяці тому

    Buen material¡¡¡

  • @henryksoto5464
    @henryksoto5464 4 місяці тому

    🎉 gracias bro!

  • @jhonyrun
    @jhonyrun 4 місяці тому

    Excelente...👏👏👏👏

  • @hernanangular8124
    @hernanangular8124 4 місяці тому

    Bravo 💪

  • @veslavaia
    @veslavaia 4 місяці тому

    Muy buen vídeo.
    Podrías hablarnos de tu setup? Con que ordenador lo ejecutas en local? Qué características recomiendas?
    Gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому +1

      Tengo una Ryzen 7 5700X, 32gb de RAM 3200mhz. Si ejecutas modelos con Ollama, según su documentación te pide el doble de gb de RAM conforme a los parámetros del modelo, por ejemplo, si descargas un modelo de 7 mil millones de parámetros, necesitarías como mínimo 14gb de RAM para ejecutarlo correctamente. ¡Saludos!

  • @InnovaTechIA
    @InnovaTechIA 12 днів тому

    ¡Qué interesante! Es impresionante ver el avance de la inteligencia artificial y que ahora sea de código abierto. ¿Cuáles son las principales ventajas de Qwen2.5 frente a otros modelos de IA? ¿Y qué tan accesible es para los desarrolladores principiantes?

    • @Conciencia_Artificial
      @Conciencia_Artificial  2 дні тому

      La principal ventaja es que son open source y que puedes correrlos localmente.

  • @chesterbeto
    @chesterbeto 4 місяці тому

    Muchas gracias por compartir este excelente material! Me ha resultado muy útil. Tengo una consulta respecto al formulario de evaluación del modelo: ¿Podrías recomendar alguna fuente bibliográfica o artículo para profundizar más en este tema?

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому

      Los dejé en la descripción del video, pero igual te los comparto. En casi todos los videos comparto siempre enlaces para que puedan profundizar en los temas:
      Enlaces importantes:
      🔗 Prueba Qwen2.5 en HuggingFace: huggingface.co/spaces/Qwen/Qwen2.5
      🔗 Descarga Qwen2.5 en Ollama: ollama.com/library?q=qwen2.5
      🔗 Accede al modelo Qwen2.5-72B Instruct en Open Router: openrouter.ai/models/qwen/qwen-2.5-72b-instruct
      🔗 Blog: t.co/3zHNhRKM1m
      🔗 Blog (LLM): t.co/b6vjxo0E7t
      🔗 Blog (Coder): t.co/a9nDIIXjeS
      🔗 Blog (Math): t.co/4VuZi0vlJw

  • @josealberto7485
    @josealberto7485 4 місяці тому +3

    Vamos a ponerlo en la pagina de nosotros😂vamos a tener mas modelos disponibles en la web

  • @contenidocontenido5688
    @contenidocontenido5688 4 місяці тому

    Gracias

  • @oscarbermea8838
    @oscarbermea8838 Місяць тому

    Tengo un i9, 32 de ram y quiero una tarjeta grafica que pueda servir para la ia mas poderosa posible ¿que tarjeta me recomiendas para correrla?

  • @lomokino
    @lomokino 4 місяці тому +5

    Si conozco los modelos hasta el modelo 3b, por que no tengo más de 8 gb ram y puedo decir que de agradece que ofrezcan para todas las necesidades desde el 0.5b .. hasta que no tenga un dispositivo de 16 gb supongo para el año que biene para usar el de 7b o el 14b quantificado a ver si puedo con q4Km que es lo más decente en respuestas de calidad
    Gracias por tu video y a Alibaba

  • @javierbeltran7623
    @javierbeltran7623 4 місяці тому +1

    Hola amigo... Gracias por tu trabajo...Te quería contar que lo usé para una "revisión de literatura", sin embargo las "fuentes" las inventó aunque me dió las citas con revista, año en incluso páginas (todo inventado)...Hay que tener cuidado!!!!!!

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому

      Para investigación no es bueno y no es recomendable, debido a que no tienen acceso a internet y si suelen inventarse las citas, te recomiendo que para esa tarea utilices otro tipo de herramientas que ya tengan navegación integrada. 👋

  • @ControlBodyiA
    @ControlBodyiA 3 місяці тому

    una pregunta en la pagina ya no sale Q8 solo hay Q4_K_M su ultima Updated 3 days ago

  • @jhonkevinfloresrojas3848
    @jhonkevinfloresrojas3848 4 місяці тому +1

    Pregunta, tienes un vídeo de cómo usar con proyectos y archivos locales? Es decir que pueda tener memoria, para hacer consultas específicas. Use open web ui, y solo me sirvió para la primera consulta.

    • @jossejosse952
      @jossejosse952 4 місяці тому

      Usa el memgpt

    • @jossejosse952
      @jossejosse952 4 місяці тому +1

      Y para el rag de documentos te recomiendo el anything llm

    • @pacashanaya
      @pacashanaya 4 місяці тому

      Crea tu propio rag con Llamaindex

  • @alguien42099
    @alguien42099 4 місяці тому

    Mamaaaaa uuuu uuu uuuu

  • @masian9921
    @masian9921 7 днів тому

    No esta en la PlayStore verdad?

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 дні тому

      aún no, quizá en un futuro Qwen saque alguna versión móvil como lo hizo DeepSeek

  • @davidcast22
    @davidcast22 4 місяці тому

    Muchas gracias por compartir, para ti cual es mejor Lobechat o Open Router?

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому +1

      LobeChat es una interfaz para implementar APIs de terceros como de OpenAI, Anthropic, DeepSeek, Groq, OpenRouter, etc
      Y Open Router es un servicio especializado que te brinda la mayoría de modelos disponibles en el mercado a través de una sola API, y no tener que estarte registrando en cada plataforma por separado. También una ventaja es que a veces por ser de algún país, región, idioma, suscripción, etc, tenemos limitaciones para obtener API de alguna empresa, Open Router puede brindarte acceso sin necesidad de procesos muy complicados.

    • @davidcast22
      @davidcast22 4 місяці тому

      @@Conciencia_Artificial Muchas gracias!

  • @nicovilla2742
    @nicovilla2742 4 місяці тому

    estimado, para ud hasta ahora cual es mejor generador de programas via prompt? gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому +1

      Uy que buena pregunta, pues la verdad creo que están compitiendo en ese lugar entre Aider y Claude Dev, ambas opciones son realmente muy buenas.
      Y ya en cuanto a modelos que puedes usar dentro de cada herramienta que mencione, pues dependerá si quieres usar modelos locales, comerciales o gratuitos (como Gemini, Groq, etc)

  • @alekon8349
    @alekon8349 Місяць тому

    Podría usar algún modelo no importa si sea pequeño es únicamente para ir practicando programación con cosas básicas y dudas etc, con: i5 octava generación, 16gb de ram tarjeta de video Nvidia 2gb.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Місяць тому +1

      Si, Qwen 2.5 tiene versiones pequeñas que puedes correr en tu equipo, podrías empezar con esos modelos y ollama para probarlos. Saludos! 👋
      ollama.com/library/qwen2.5

  • @nestora.a.n.995
    @nestora.a.n.995 4 місяці тому +1

    Excelente, pero a mi no me deja aun desde ollama descargar el de 32b. Muchos exitos.

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому +1

      Ya aparece en la lista, no te deja por algún error o no te aparecía?

    • @nestora.a.n.995
      @nestora.a.n.995 4 місяці тому

      @@Conciencia_Artificial Bueno, me confundi, coder no tiene mas opciones en cambio la version no coder si trae muchas.

  • @inteligenciafutura
    @inteligenciafutura 4 місяці тому

    conoces alguna ia a la que se le pueda pasar una formula y la resuelva paso a paso?

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому +1

      Pues paso a paso, creo que en este punto podría ser la nueva versión de 01-preview, alguna herramienta que trabaje con agentes-subagentes para resolver el problema en partes, o como en el video mencionan, con Qwen pero sus modelos especializados en matemáticas tienen esta funciona de “cadena de pensamientos”. No los he probado, pero estaría muy bueno quizá implementar algún problema así para evaluarlos.

  • @CarlosOrzabal
    @CarlosOrzabal 4 місяці тому

    Bienvenido sea, ahora por qué un regalo para occidente?
    *Muy buen canal*
    Saludos

  • @juanito73167
    @juanito73167 5 днів тому

    GRANDE CHINA

  • @Darporal
    @Darporal 4 місяці тому

    Yo he probado con el de 7b y la verdad es que codificar muy bien lo que se dice muy bien no lo hace, los ejemplos con respecto a otros codificadores son muy básicos, y la verdad es que a veces pierde un poco el contexto. Por lo menos en modo local con 7 b no es muy bueno programando

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 місяці тому

      Interesante, para que lenguaje y tecnologías lo has aplicado? Lo pregunto porque, quizá tenga cierta debilidad con alguno en específico

    • @Darporal
      @Darporal 4 місяці тому

      @@Conciencia_Artificial lo aplico con el lenguaje PHP.

  • @0007VICTORIO
    @0007VICTORIO 5 днів тому

    lo malo que no se puede descargar facilmente

    • @Conciencia_Artificial
      @Conciencia_Artificial  4 дні тому +1

      Puedes descargarlos facilmente con Ollama o LM Studio para uso local. ollama.com/library/qwen2.5

    • @0007VICTORIO
      @0007VICTORIO 3 дні тому

      @@Conciencia_Artificial muchas gracias