Interesante las novedades que presentas. Quisiera consultarte si me puedes dar algunas pautas para poder hacer uso del modelo haciendo uso de API de HuggingFace. Quisiera integrarlo con PHP.
Si! Realmente estos modelos tan pequeños son excelentes para algunas tareas no tan complejas y en proyectos que podamos sacarle el provecho. Espero te resulten muy útiles. Gracias por comentar! 👋
Tengo una Ryzen 7 5700X, 32gb de RAM 3200mhz. Si ejecutas modelos con Ollama, según su documentación te pide el doble de gb de RAM conforme a los parámetros del modelo, por ejemplo, si descargas un modelo de 7 mil millones de parámetros, necesitarías como mínimo 14gb de RAM para ejecutarlo correctamente. ¡Saludos!
¡Qué interesante! Es impresionante ver el avance de la inteligencia artificial y que ahora sea de código abierto. ¿Cuáles son las principales ventajas de Qwen2.5 frente a otros modelos de IA? ¿Y qué tan accesible es para los desarrolladores principiantes?
Muchas gracias por compartir este excelente material! Me ha resultado muy útil. Tengo una consulta respecto al formulario de evaluación del modelo: ¿Podrías recomendar alguna fuente bibliográfica o artículo para profundizar más en este tema?
Los dejé en la descripción del video, pero igual te los comparto. En casi todos los videos comparto siempre enlaces para que puedan profundizar en los temas: Enlaces importantes: 🔗 Prueba Qwen2.5 en HuggingFace: huggingface.co/spaces/Qwen/Qwen2.5 🔗 Descarga Qwen2.5 en Ollama: ollama.com/library?q=qwen2.5 🔗 Accede al modelo Qwen2.5-72B Instruct en Open Router: openrouter.ai/models/qwen/qwen-2.5-72b-instruct 🔗 Blog: t.co/3zHNhRKM1m 🔗 Blog (LLM): t.co/b6vjxo0E7t 🔗 Blog (Coder): t.co/a9nDIIXjeS 🔗 Blog (Math): t.co/4VuZi0vlJw
Si conozco los modelos hasta el modelo 3b, por que no tengo más de 8 gb ram y puedo decir que de agradece que ofrezcan para todas las necesidades desde el 0.5b .. hasta que no tenga un dispositivo de 16 gb supongo para el año que biene para usar el de 7b o el 14b quantificado a ver si puedo con q4Km que es lo más decente en respuestas de calidad Gracias por tu video y a Alibaba
Hola amigo... Gracias por tu trabajo...Te quería contar que lo usé para una "revisión de literatura", sin embargo las "fuentes" las inventó aunque me dió las citas con revista, año en incluso páginas (todo inventado)...Hay que tener cuidado!!!!!!
Para investigación no es bueno y no es recomendable, debido a que no tienen acceso a internet y si suelen inventarse las citas, te recomiendo que para esa tarea utilices otro tipo de herramientas que ya tengan navegación integrada. 👋
Pregunta, tienes un vídeo de cómo usar con proyectos y archivos locales? Es decir que pueda tener memoria, para hacer consultas específicas. Use open web ui, y solo me sirvió para la primera consulta.
LobeChat es una interfaz para implementar APIs de terceros como de OpenAI, Anthropic, DeepSeek, Groq, OpenRouter, etc Y Open Router es un servicio especializado que te brinda la mayoría de modelos disponibles en el mercado a través de una sola API, y no tener que estarte registrando en cada plataforma por separado. También una ventaja es que a veces por ser de algún país, región, idioma, suscripción, etc, tenemos limitaciones para obtener API de alguna empresa, Open Router puede brindarte acceso sin necesidad de procesos muy complicados.
Uy que buena pregunta, pues la verdad creo que están compitiendo en ese lugar entre Aider y Claude Dev, ambas opciones son realmente muy buenas. Y ya en cuanto a modelos que puedes usar dentro de cada herramienta que mencione, pues dependerá si quieres usar modelos locales, comerciales o gratuitos (como Gemini, Groq, etc)
Podría usar algún modelo no importa si sea pequeño es únicamente para ir practicando programación con cosas básicas y dudas etc, con: i5 octava generación, 16gb de ram tarjeta de video Nvidia 2gb.
Si, Qwen 2.5 tiene versiones pequeñas que puedes correr en tu equipo, podrías empezar con esos modelos y ollama para probarlos. Saludos! 👋 ollama.com/library/qwen2.5
Pues paso a paso, creo que en este punto podría ser la nueva versión de 01-preview, alguna herramienta que trabaje con agentes-subagentes para resolver el problema en partes, o como en el video mencionan, con Qwen pero sus modelos especializados en matemáticas tienen esta funciona de “cadena de pensamientos”. No los he probado, pero estaría muy bueno quizá implementar algún problema así para evaluarlos.
Yo he probado con el de 7b y la verdad es que codificar muy bien lo que se dice muy bien no lo hace, los ejemplos con respecto a otros codificadores son muy básicos, y la verdad es que a veces pierde un poco el contexto. Por lo menos en modo local con 7 b no es muy bueno programando
Muy buenos videos. Eres un entusiasta de la IA, ¡Buen nicho!
Muchas gracias por apoyar y comentar! Saludos! 👋
Gracias por compartir amigo... Cómo siempre un crack....
Gracias a ti por comentar ! 👋
Que buen contenido, gracias por compartir.
Gracias a ti por comentar y apoyar el contenido! 👋
Muchas gracias por compartir conocimientos.
Gracias a ti por comentar, saludos! 👋
Interesante las novedades que presentas. Quisiera consultarte si me puedes dar algunas pautas para poder hacer uso del modelo haciendo uso de API de HuggingFace. Quisiera integrarlo con PHP.
Es una locura porfin podré añadirlo al modelo pequéño a mis proyectos
Si! Realmente estos modelos tan pequeños son excelentes para algunas tareas no tan complejas y en proyectos que podamos sacarle el provecho. Espero te resulten muy útiles. Gracias por comentar! 👋
Buen material¡¡¡
Gracias por apoyar el contenido! 👋
🎉 gracias bro!
A ti por tu comentario! 😄
Excelente...👏👏👏👏
Gracias por tu comentario! 👋
Bravo 💪
Muchas gracias por el apoyo! 👋
Muy buen vídeo.
Podrías hablarnos de tu setup? Con que ordenador lo ejecutas en local? Qué características recomiendas?
Gracias
Tengo una Ryzen 7 5700X, 32gb de RAM 3200mhz. Si ejecutas modelos con Ollama, según su documentación te pide el doble de gb de RAM conforme a los parámetros del modelo, por ejemplo, si descargas un modelo de 7 mil millones de parámetros, necesitarías como mínimo 14gb de RAM para ejecutarlo correctamente. ¡Saludos!
¡Qué interesante! Es impresionante ver el avance de la inteligencia artificial y que ahora sea de código abierto. ¿Cuáles son las principales ventajas de Qwen2.5 frente a otros modelos de IA? ¿Y qué tan accesible es para los desarrolladores principiantes?
La principal ventaja es que son open source y que puedes correrlos localmente.
Muchas gracias por compartir este excelente material! Me ha resultado muy útil. Tengo una consulta respecto al formulario de evaluación del modelo: ¿Podrías recomendar alguna fuente bibliográfica o artículo para profundizar más en este tema?
Los dejé en la descripción del video, pero igual te los comparto. En casi todos los videos comparto siempre enlaces para que puedan profundizar en los temas:
Enlaces importantes:
🔗 Prueba Qwen2.5 en HuggingFace: huggingface.co/spaces/Qwen/Qwen2.5
🔗 Descarga Qwen2.5 en Ollama: ollama.com/library?q=qwen2.5
🔗 Accede al modelo Qwen2.5-72B Instruct en Open Router: openrouter.ai/models/qwen/qwen-2.5-72b-instruct
🔗 Blog: t.co/3zHNhRKM1m
🔗 Blog (LLM): t.co/b6vjxo0E7t
🔗 Blog (Coder): t.co/a9nDIIXjeS
🔗 Blog (Math): t.co/4VuZi0vlJw
Vamos a ponerlo en la pagina de nosotros😂vamos a tener mas modelos disponibles en la web
Gracias
Tengo un i9, 32 de ram y quiero una tarjeta grafica que pueda servir para la ia mas poderosa posible ¿que tarjeta me recomiendas para correrla?
Si conozco los modelos hasta el modelo 3b, por que no tengo más de 8 gb ram y puedo decir que de agradece que ofrezcan para todas las necesidades desde el 0.5b .. hasta que no tenga un dispositivo de 16 gb supongo para el año que biene para usar el de 7b o el 14b quantificado a ver si puedo con q4Km que es lo más decente en respuestas de calidad
Gracias por tu video y a Alibaba
Muchas gracias a ti por tu comentario y apoyo. Saludos! 👋
Hola amigo... Gracias por tu trabajo...Te quería contar que lo usé para una "revisión de literatura", sin embargo las "fuentes" las inventó aunque me dió las citas con revista, año en incluso páginas (todo inventado)...Hay que tener cuidado!!!!!!
Para investigación no es bueno y no es recomendable, debido a que no tienen acceso a internet y si suelen inventarse las citas, te recomiendo que para esa tarea utilices otro tipo de herramientas que ya tengan navegación integrada. 👋
una pregunta en la pagina ya no sale Q8 solo hay Q4_K_M su ultima Updated 3 days ago
Pregunta, tienes un vídeo de cómo usar con proyectos y archivos locales? Es decir que pueda tener memoria, para hacer consultas específicas. Use open web ui, y solo me sirvió para la primera consulta.
Usa el memgpt
Y para el rag de documentos te recomiendo el anything llm
Crea tu propio rag con Llamaindex
Mamaaaaa uuuu uuu uuuu
No esta en la PlayStore verdad?
aún no, quizá en un futuro Qwen saque alguna versión móvil como lo hizo DeepSeek
Muchas gracias por compartir, para ti cual es mejor Lobechat o Open Router?
LobeChat es una interfaz para implementar APIs de terceros como de OpenAI, Anthropic, DeepSeek, Groq, OpenRouter, etc
Y Open Router es un servicio especializado que te brinda la mayoría de modelos disponibles en el mercado a través de una sola API, y no tener que estarte registrando en cada plataforma por separado. También una ventaja es que a veces por ser de algún país, región, idioma, suscripción, etc, tenemos limitaciones para obtener API de alguna empresa, Open Router puede brindarte acceso sin necesidad de procesos muy complicados.
@@Conciencia_Artificial Muchas gracias!
estimado, para ud hasta ahora cual es mejor generador de programas via prompt? gracias
Uy que buena pregunta, pues la verdad creo que están compitiendo en ese lugar entre Aider y Claude Dev, ambas opciones son realmente muy buenas.
Y ya en cuanto a modelos que puedes usar dentro de cada herramienta que mencione, pues dependerá si quieres usar modelos locales, comerciales o gratuitos (como Gemini, Groq, etc)
Podría usar algún modelo no importa si sea pequeño es únicamente para ir practicando programación con cosas básicas y dudas etc, con: i5 octava generación, 16gb de ram tarjeta de video Nvidia 2gb.
Si, Qwen 2.5 tiene versiones pequeñas que puedes correr en tu equipo, podrías empezar con esos modelos y ollama para probarlos. Saludos! 👋
ollama.com/library/qwen2.5
Excelente, pero a mi no me deja aun desde ollama descargar el de 32b. Muchos exitos.
Ya aparece en la lista, no te deja por algún error o no te aparecía?
@@Conciencia_Artificial Bueno, me confundi, coder no tiene mas opciones en cambio la version no coder si trae muchas.
conoces alguna ia a la que se le pueda pasar una formula y la resuelva paso a paso?
Pues paso a paso, creo que en este punto podría ser la nueva versión de 01-preview, alguna herramienta que trabaje con agentes-subagentes para resolver el problema en partes, o como en el video mencionan, con Qwen pero sus modelos especializados en matemáticas tienen esta funciona de “cadena de pensamientos”. No los he probado, pero estaría muy bueno quizá implementar algún problema así para evaluarlos.
Bienvenido sea, ahora por qué un regalo para occidente?
*Muy buen canal*
Saludos
Gracias por el apoyo y por tu comentario! 👋
GRANDE CHINA
Yo he probado con el de 7b y la verdad es que codificar muy bien lo que se dice muy bien no lo hace, los ejemplos con respecto a otros codificadores son muy básicos, y la verdad es que a veces pierde un poco el contexto. Por lo menos en modo local con 7 b no es muy bueno programando
Interesante, para que lenguaje y tecnologías lo has aplicado? Lo pregunto porque, quizá tenga cierta debilidad con alguno en específico
@@Conciencia_Artificial lo aplico con el lenguaje PHP.
lo malo que no se puede descargar facilmente
Puedes descargarlos facilmente con Ollama o LM Studio para uso local. ollama.com/library/qwen2.5
@@Conciencia_Artificial muchas gracias