Perdonen mi ignorancia, soy nueva en todo este mundo, a penas estoy empezando un curso de inteligencia artificial. Veo por todas partes que es para windows, pero yo no tengo windows, uso mac. Me podrían explicar si es posible para mac, y si no cuál es la alternativa.
Me parecio muy raro que siendo un canal dedicado al LLM no tengas un video de AMD con LM STUDIO usando ROCm, espero pronto tengas uno, me gustaria ver que tal rinden
Es fascinante ver cómo Nvidia se sumerge en el mundo de los chatbots. Este movimiento no solo demuestra la diversificación de Nvidia en áreas más allá de sus conocidas capacidades gráficas, sino que también plantea una emocionante competencia en el ámbito de la inteligencia artificial. ¿Os leo en los comentarios?
Como no tengo windows no lo he podido probar, pero como no dejen introducir otros LLM de código abierto no llegarán muy lejos, aunque es un primer paso para meterse en el software
@@llmmaster_ a ver yo lo he probado, es como un gpt4all pero más rápido y con un mejor acceso a los documentos, de momento en mi opinión gpt4all es más personalizable y ahora en su última actualización permiten los mixtral moe y el modelo qwen.
Tenia una version previa a la ultima, estas dos solo me traen mistral y solo anda en ingles, pero veo en todos lados y en la propia pagina de nvidia que se supone puedes usar Llama2, gemma, en español y mil cosas, tengo un la 3080, no se porque soy el unico que no puede hacerlo funcionar en español ni ver llama2
Primero, para hacer un video sobre este tema deberías haber probado el programa como he hecho yo. Resumiendo, este chatbot es una auténtica porquería. Resulta que trabaja con tus propios archivos, y para hacer una búsqueda (prompt) de alguno de esos archivos le debes especificar claramente la ruta a ese archivo (alucina...). Cada vez que cambia la ruta de archivo, tarda unos 2 minutos usando a tope tu GPU, y la mía es un pepino de RTX 4090. No recomiendo para nada el uso, sobre todo si lo comparamos con versiones gratuitas tanto de ChatGPT como de Microsoft Copilot. He desinstalado este esperpento que consume los recursos del PC a lo bestia para ofrecer un rendimiento pobre y lento sobre TUS PROPIOS archivos.
Perdonen mi ignorancia, soy nueva en todo este mundo, a penas estoy empezando un curso de inteligencia artificial. Veo por todas partes que es para windows, pero yo no tengo windows, uso mac. Me podrían explicar si es posible para mac, y si no cuál es la alternativa.
Hola, por favor como se lo instala? me indica que falta un archivo ndi.dll
No podré usarla con una Nvidia gtx 1050 verdad?
No solamente es para las RTX
Me parecio muy raro que siendo un canal dedicado al LLM no tengas un video de AMD con LM STUDIO usando ROCm, espero pronto tengas uno, me gustaria ver que tal rinden
Es fascinante ver cómo Nvidia se sumerge en el mundo de los chatbots. Este movimiento no solo demuestra la diversificación de Nvidia en áreas más allá de sus conocidas capacidades gráficas, sino que también plantea una emocionante competencia en el ámbito de la inteligencia artificial.
¿Os leo en los comentarios?
Espero que se puedan integrar otros modelos de lenguaje de código abierto.
Como no tengo windows no lo he podido probar, pero como no dejen introducir otros LLM de código abierto no llegarán muy lejos, aunque es un primer paso para meterse en el software
@@llmmaster_ a ver yo lo he probado, es como un gpt4all pero más rápido y con un mejor acceso a los documentos, de momento en mi opinión gpt4all es más personalizable y ahora en su última actualización permiten los mixtral moe y el modelo qwen.
Y eso que planea tambien plantarse en el tema de procesadores
van con todo
NO FUNCIONA EN ESPAÑOL??
Sólo en inglés. Y si le preguntas en español, te contesta también en inglés.
Tenia una version previa a la ultima, estas dos solo me traen mistral y solo anda en ingles, pero veo en todos lados y en la propia pagina de nvidia que se supone puedes usar Llama2, gemma, en español y mil cosas, tengo un la 3080, no se porque soy el unico que no puede hacerlo funcionar en español ni ver llama2
Muy interesante! Lastima que solo funcione en windows.
se puede usar para programar?
Todos los LLM se pueden usar para programar, pero al final dependes de que el modelo genere buen código.
Esto no es un "GPT" nisiquiera tienen modelo propio. Usan modelos Open Source
Hola. Me pueden decir como entrar? Ya lo tengo instalado
debes pegar el link que te aparece en la consola. te recomiendo traducir lo que te sale en la consola para entender mejor
rtx 2060 ?
Sinceramente LM Studio esta 1000 veces mejor.
A día de hoy esta claro que LM Studio es muchisimo mejor. Pero veremos como avanza nvidia, si le sigue invirtiendo en chatRTX o lo olvida. .
Hubiera estado genial que lo hubieras probado
Gracias por comentar ;) No tengo windows y no pude probarlo, pero me quede con las ganas.
Gracias por avisar, casi miro el vídeo, saludos.
Este video es de cero valor.
Básicamente no entendí nada.
MAC 🤮
Primero, para hacer un video sobre este tema deberías haber probado el programa como he hecho yo. Resumiendo, este chatbot es una auténtica porquería. Resulta que trabaja con tus propios archivos, y para hacer una búsqueda (prompt) de alguno de esos archivos le debes especificar claramente la ruta a ese archivo (alucina...). Cada vez que cambia la ruta de archivo, tarda unos 2 minutos usando a tope tu GPU, y la mía es un pepino de RTX 4090. No recomiendo para nada el uso, sobre todo si lo comparamos con versiones gratuitas tanto de ChatGPT como de Microsoft Copilot. He desinstalado este esperpento que consume los recursos del PC a lo bestia para ofrecer un rendimiento pobre y lento sobre TUS PROPIOS archivos.