Otros vídeos que podrían interesarte: 🦙COMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS ✅REPO ua-cam.com/video/vjQAxJ7OVxw/v-deo.html Cómo ejecutar OpenWebUI en local con Llama3-8b en local y Ollama 💻🤖 ua-cam.com/video/xQLzkx6PWHo/v-deo.htmlsi=LIbXA-49lL83M9sr TUTOR DE IDIOMAS EN LOCAL ua-cam.com/video/sg_XoPrwjI0/v-deo.htmlsi=geqA3ercAce002hD
¡Por supuesto! Si tu empresa tiene documentos y quieres aprovechar las capacidades de una IA usarlos, es ideal. Ahora, de las IAs que he probado, llama-3 8b NO es la mejor, es buena si tiene la información necesaria, pero tiende a alucinar y no siempre sigue al pie de la letra las instrucciones. Te recomendaría que vieras el último vídeo que subí, tiene un repo que te puede ser de mucha utilidad
¡Muchas gracias por tu comentario! Poco a poco estoy intentando mejorar la calidad de los vídeos, no hago guiones así que a veces me equivoco en las palabras pero bueno, con la edición a veces corrijo. Qué bueno que te haya gustado.
@@joselimo4156 Admito que no he probabo LM Studio, aunque trabajo con dos máquinas y una de ellas lo tiene, al tener una API tipo OpenAI hace que el paso de cambio pueda ser tan pequeño como un endpoint.
me gustaría que hubiese una herramienta (opensource) que transcriba videos de youtube o cualquier fuente (o descargue las transcripciones existentes en los subtítulos con AutoSubSync) para resumirlos con chatgpt u otra ia, pero todo integrado, que solo tenga que pasarle la url o la ruta local del video y poder preguntarle con prompts para pedirle que me haga un resumen o cualquier pregunta relacionada, eso ahorraría muchisimo tiempo a muchísima gente, para no tener que ver aburridas conferencias o reuniones completas, te animas? :)
@@leonardox222 de hecho ya tengo una herramienta similar que hice para traducir los vídeos que hago y agregarles las transcripciones, sería de colocarle una nueva feature y hacer el vídeo. Excelente idea amigo 👌🏻 siéntate y prepárate y cuando lo suba lo verás. Aunque habría que usar Whisper timestamped en local
Muy buenos tus videos!!!. Como puedo hacer para crear un chat que lea datos de un archivo de Excel y responda sobre ese contenido?. Es posible descargar los modelos y agregarlos en mis proyectos?. Continua con tus videos y ayudando a los que estamos comenzando. Exitos!!!
Ya tengo una app que es capaz de leer archivos y responder sobre ellos, te explico cómo hacerlo: Si lo haces con Python, ten en cuenta que es cuestión de usar librerías como csv para extraer el texto del archivo csv que puedes exportar de Excel, pasárselo al modelo en el mensaje del usuario y claro, adaptar el prompt según lo que deseas conseguir. Limitaciones: Ten en cuenta que los modelos actuales de IA no son buenos para matemáticas, así que el csv es un archivo útil si quieres usar la IA para análisis y entender de qué van los datos o quizás llenar espacios que faltan, pero no matemáticas. Y sí, también es posible descargar los modelos para usarlos en tus proyectos, con ollama puedes hacerlo, aunque yo te recomendaría no tenerlos en los mismo proyectos porque dependiendo de dónde lo tienes desplegado puede tener problemas de performance, lo modelos pequeños puedes correr en CPU, pero para modelos más grandes ya necesitas mayor capacidad de cómputo. En estos días voy a desplegar una instancia de Llama en Azure, cuando lo haga hago un vídeo de cómo lo hice. ¡Muchas gracias por tu comentario!
@@ai.charly Muchas gracias por la respuesta, empecé a ver tus videos desde el principio y tienes una forma de explicar las cosas de manera muy simple. Podrias hacer un video mostrando como empezar con un proyecto simple, pero como lo harías de forma "profesional"?. Muchas gracias espero tus proximos videos!!
Acabo de subir un vídeo hace rato de un repo con Chroma y Llama, además que tiene un pequeño script con internet aún en desarrollo, cuando esté listo subo un vídeo sobre eso. ua-cam.com/video/vjQAxJ7OVxw/v-deo.htmlsi=TF_6vYy41p97VWCS
@@ai.charly Seria interesante ese video. El despliegue en azure es en servidor gratuito de pruebas o de pago? Lo haces sobre cpu solo, o se contrata gpu tambien?
De hecho quiero hacer un vídeo en detalle sobre eso, los precios de Azure para máquina potentes me parecen exorbitantes y la verdad la interfaz es HORRIBLE, peor que Google Cloud, entonces estoy viendo cuál es la mejor alternativa para desplegar modelos grandes no tan grandes, y modelos muy grandes en el futuro.
Es posible conectarlo a whastapp o telegram, ademas de que tenga historial o memoria de cada persona con la que hablas integrado con un prompt? . gracias
Sí se podría, subí otro vídeo en el que le agrego Chroma y un pequeño servidor de Fastapi que se puede customizar para usar la API de Telegram (que es mucho más developer friendly que la de WhatsApp). Con respecto a la memoria, con pasar los últimos 4 mensajes suele ser suficiente, y si ya quieres una memoria más a largo plazo podría usar una base de datos vectorial y que se vayan pasando en como extra contexto en cada iteración
Correcto, con OpenAI tendrás que tener créditos para poder usar la API, y los créditos son básicamente convertidos a USD, entonces puedes empezar por un monto pequeño y ver cómo te va, según tu uso tampoco es demasiado caro. Hoy en día la tendencia es bajarle el precio a los modelos, y eso implica que a la larga muchas personas podrán incluso preferir trabajar con una API de terceros por su rápida respuesta y no tener la necesidad de ejecutar sus modelos en local.
¡En el futuro puede ser! Ahora estoy siendo más constante y eso trae sus frutos, ¡gracias por tu comentario! Espero que te siga gustando la información
hermano una consulta este modelo hay una forma de que se pueda conectar a internet ? osea por medo de una api mandarlo una pregunta y el modelo busque en internet y te muestre los datos resumidos ?
*AHORA HACE UN VIDEO DE COMO CREAR IMAGENES CON STABLE DIFFUSION SIN USAR LA INTERFACE COMFYUI, OSEA DIRECTAMENTE DESDE LA LINEA DE COMANDOS, HACIENDO Q LAS IMAGENES GENERADAS LA GUARDE EN UNA CARPETA SIN MOSTRARLAS SOLO CREARLAS CON EL PROMPT Q UNO LE DE Y LISTO*
*NO SE NESECITA **#TARGETA** DE VIDEO EXTERNA PARA CORRER LLAMA NI OLLAMA, YO TENGO CORRIENDO EN MI PC, CON TARGETA DE VIDEO INTERNA OSEA CON SOLO CPU LO ESTOY CORRIENDO, Y TENGO EL MODELO PHI3 Y LLAMA 3 Q SON LOS MEJORES ACTUALMENTE Y FUNCIONAN REGULARMENTE NO RAPIDO PERO FUNCIONAN Y SOLO TENGO 4GB DE MEMORIA RAM*
¡Muchísimas gracias! Ya estaba casi desanimándome pero tres comentarios en un vídeo es para mí un gran logro. Ya voy a empezar a colocar: "Se vienen cosas" jajajaj, pero es la verdad, intentaré hacer cada vez cosas que me parezcan más interesantes para mostrarle a la gente, no importa si no entienden, lo importante es saber que estamos en una época de contínuos cambios a nivel tecnológico que son interesantes de apreciar. ¡Feliz día!
@@ai.charly Todo lleva su proceso, no te desanimes si no ves muchos comentarios. Siempre sé fiel a lo que sea que te guste y desees compartir, las personas que sepan apreciar ese contenido y que tengan la misma pasión llegarán. Tal vez no haya entendido, pero estos vídeos siempre abren una puerta a la gente curiosa como yo y quién sabe, tal vez algún día podría dedicarme a esto. ¡Felíz día para ti también! Y mucha suerte con tu canal. Saludos.
Hay temas y videos que el problema no es del que transmite que lo hace con esfuerzo. Valoralo. Esfuerzate. Tal vez no eres la persona adecuada para verlo.
Otros vídeos que podrían interesarte:
🦙COMO AGREGAR DOCUMENTOS A LLAMA 3 8B en LOCAL - RAG con CHROMA - 100% PRIVADO Y GRATIS ✅REPO
ua-cam.com/video/vjQAxJ7OVxw/v-deo.html
Cómo ejecutar OpenWebUI en local con Llama3-8b en local y Ollama
💻🤖 ua-cam.com/video/xQLzkx6PWHo/v-deo.htmlsi=LIbXA-49lL83M9sr
TUTOR DE IDIOMAS EN LOCAL
ua-cam.com/video/sg_XoPrwjI0/v-deo.htmlsi=geqA3ercAce002hD
muy importante poner las especificaciones tecicas de tu ordenador de pruebas , mas que todo de tu gpu, por lo demas muy buen bideo.
Excelente, gracias.
Seria super crear uno para consultar información local de la empresa.
¡Por supuesto! Si tu empresa tiene documentos y quieres aprovechar las capacidades de una IA usarlos, es ideal. Ahora, de las IAs que he probado, llama-3 8b NO es la mejor, es buena si tiene la información necesaria, pero tiende a alucinar y no siempre sigue al pie de la letra las instrucciones. Te recomendaría que vieras el último vídeo que subí, tiene un repo que te puede ser de mucha utilidad
Sos lo más grande que hay amigo. Impresionante y recomendable
Muchísimas gracias por tu comentario, Alejandro, ¡me alegra que te haya parecido útil la información!
Enhorabuena. Buena explicacion y precisa. Suerte y exito en tu canal
¡Muchas gracias por tu comentario! Poco a poco estoy intentando mejorar la calidad de los vídeos, no hago guiones así que a veces me equivoco en las palabras pero bueno, con la edición a veces corrijo. Qué bueno que te haya gustado.
buen video, ya tienes un suscriptor mas :)
Amigo gracias por la explicación, una consulta se puede usar LM Studio en vez de ollama? Para realizar e asistente de voz
@@joselimo4156 Claro que sí, es cuestión de ver la documentación.
@@joselimo4156 Y mientras respondía el mensaje lo hice, y la respuesta es: Use models through the in-app Chat UI or an OpenAI compatible local server
@@joselimo4156 Admito que no he probabo LM Studio, aunque trabajo con dos máquinas y una de ellas lo tiene, al tener una API tipo OpenAI hace que el paso de cambio pueda ser tan pequeño como un endpoint.
buenisimo 🔥🔥
@@M3taDarko gracias por tu comentario, me alegra que te haya gustado 👌🏻
Excelente espero que tu canal crezca+++, excelente contenido
Muchas gracias por tu comentario, cuando alguien comenta me anima a seguir haciendo vídeos
me gustaría que hubiese una herramienta (opensource) que transcriba videos de youtube o cualquier fuente (o descargue las transcripciones existentes en los subtítulos con AutoSubSync) para resumirlos con chatgpt u otra ia, pero todo integrado, que solo tenga que pasarle la url o la ruta local del video y poder preguntarle con prompts para pedirle que me haga un resumen o cualquier pregunta relacionada, eso ahorraría muchisimo tiempo a muchísima gente, para no tener que ver aburridas conferencias o reuniones completas, te animas? :)
@@leonardox222 de hecho ya tengo una herramienta similar que hice para traducir los vídeos que hago y agregarles las transcripciones, sería de colocarle una nueva feature y hacer el vídeo. Excelente idea amigo 👌🏻 siéntate y prepárate y cuando lo suba lo verás. Aunque habría que usar Whisper timestamped en local
@@ai.charly genial!!! 😀, lo espero ancioso, muchas gracias!! Lo compartiré con todos mis contactos
Muchas gracias!
Hola! Se puede instalar llama 3.1 en oobaboonga web ui?
Muy buen canal! Me suscribí 😊
Muy buenos tus videos!!!. Como puedo hacer para crear un chat que lea datos de un archivo de Excel y responda sobre ese contenido?. Es posible descargar los modelos y agregarlos en mis proyectos?. Continua con tus videos y ayudando a los que estamos comenzando. Exitos!!!
Ya tengo una app que es capaz de leer archivos y responder sobre ellos, te explico cómo hacerlo:
Si lo haces con Python, ten en cuenta que es cuestión de usar librerías como csv para extraer el texto del archivo csv que puedes exportar de Excel, pasárselo al modelo en el mensaje del usuario y claro, adaptar el prompt según lo que deseas conseguir. Limitaciones: Ten en cuenta que los modelos actuales de IA no son buenos para matemáticas, así que el csv es un archivo útil si quieres usar la IA para análisis y entender de qué van los datos o quizás llenar espacios que faltan, pero no matemáticas.
Y sí, también es posible descargar los modelos para usarlos en tus proyectos, con ollama puedes hacerlo, aunque yo te recomendaría no tenerlos en los mismo proyectos porque dependiendo de dónde lo tienes desplegado puede tener problemas de performance, lo modelos pequeños puedes correr en CPU, pero para modelos más grandes ya necesitas mayor capacidad de cómputo. En estos días voy a desplegar una instancia de Llama en Azure, cuando lo haga hago un vídeo de cómo lo hice.
¡Muchas gracias por tu comentario!
@@ai.charly Muchas gracias por la respuesta, empecé a ver tus videos desde el principio y tienes una forma de explicar las cosas de manera muy simple. Podrias hacer un video mostrando como empezar con un proyecto simple, pero como lo harías de forma "profesional"?. Muchas gracias espero tus proximos videos!!
Acabo de subir un vídeo hace rato de un repo con Chroma y Llama, además que tiene un pequeño script con internet aún en desarrollo, cuando esté listo subo un vídeo sobre eso.
ua-cam.com/video/vjQAxJ7OVxw/v-deo.htmlsi=TF_6vYy41p97VWCS
@@ai.charly Seria interesante ese video. El despliegue en azure es en servidor gratuito de pruebas o de pago? Lo haces sobre cpu solo,
o se contrata gpu tambien?
De hecho quiero hacer un vídeo en detalle sobre eso, los precios de Azure para máquina potentes me parecen exorbitantes y la verdad la interfaz es HORRIBLE, peor que Google Cloud, entonces estoy viendo cuál es la mejor alternativa para desplegar modelos grandes no tan grandes, y modelos muy grandes en el futuro.
El video está genial, pero tengo una pregunta, en caso de que ya no quiero tenerlo en local, como le hago para desinstalar el modelo?
Desinstalar el modelo es igual de fácil, ¿le gustaría ver un tutorial de cómo hacerlo?
Es posible conectarlo a whastapp o telegram, ademas de que tenga historial o memoria de cada persona con la que hablas integrado con un prompt?
. gracias
Sí se podría, subí otro vídeo en el que le agrego Chroma y un pequeño servidor de Fastapi que se puede customizar para usar la API de Telegram (que es mucho más developer friendly que la de WhatsApp). Con respecto a la memoria, con pasar los últimos 4 mensajes suele ser suficiente, y si ya quieres una memoria más a largo plazo podría usar una base de datos vectorial y que se vayan pasando en como extra contexto en cada iteración
Hola, gracias por el video! Tengo entendido que OpenAi no es gratuita, verdad?
Correcto, con OpenAI tendrás que tener créditos para poder usar la API, y los créditos son básicamente convertidos a USD, entonces puedes empezar por un monto pequeño y ver cómo te va, según tu uso tampoco es demasiado caro. Hoy en día la tendencia es bajarle el precio a los modelos, y eso implica que a la larga muchas personas podrán incluso preferir trabajar con una API de terceros por su rápida respuesta y no tener la necesidad de ejecutar sus modelos en local.
¡Muchas gracias por tu comentario!
Le faltan tres ceros a tu número de suscriptores. Eres un crack.
¡En el futuro puede ser! Ahora estoy siendo más constante y eso trae sus frutos, ¡gracias por tu comentario! Espero que te siga gustando la información
hay una forma de conectar llama 3 a internet o sea que trabaje con datos actuales ?
¡Por supuesto! Hay muchas formas de hacerlo, podrías usar requests en Python, o podrías usar SerpAPI para obtener resultados de Google a una query
hermano una consulta este modelo hay una forma de que se pueda conectar a internet ? osea por medo de una api mandarlo una pregunta y el modelo busque en internet y te muestre los datos resumidos ?
¡Claro que sí! Si este comentario llega a 5 likes, subo un tutorial de cómo modificarlo
*AHORA HACE UN VIDEO DE COMO CREAR IMAGENES CON STABLE DIFFUSION SIN USAR LA INTERFACE COMFYUI, OSEA DIRECTAMENTE DESDE LA LINEA DE COMANDOS, HACIENDO Q LAS IMAGENES GENERADAS LA GUARDE EN UNA CARPETA SIN MOSTRARLAS SOLO CREARLAS CON EL PROMPT Q UNO LE DE Y LISTO*
Puedes usar la API de stable diffusion, es la forma más fácil, o intentar correrlo en local, un pequeño script de Python para recibir el input y listo
*NO SE NESECITA **#TARGETA** DE VIDEO EXTERNA PARA CORRER LLAMA NI OLLAMA, YO TENGO CORRIENDO EN MI PC, CON TARGETA DE VIDEO INTERNA OSEA CON SOLO CPU LO ESTOY CORRIENDO, Y TENGO EL MODELO PHI3 Y LLAMA 3 Q SON LOS MEJORES ACTUALMENTE Y FUNCIONAN REGULARMENTE NO RAPIDO PERO FUNCIONAN Y SOLO TENGO 4GB DE MEMORIA RAM*
Realmente los modelos pequeños corren bastante bien en CPU, tan solo necesitas más poder si vas a usar modelos muy grandes
Lama 3 funciona incluso en Android usando lama cpp en termux.
No entendí nada, pero buen vídeo bro!
¡Muchísimas gracias! Ya estaba casi desanimándome pero tres comentarios en un vídeo es para mí un gran logro.
Ya voy a empezar a colocar: "Se vienen cosas" jajajaj, pero es la verdad, intentaré hacer cada vez cosas que me parezcan más interesantes para mostrarle a la gente, no importa si no entienden, lo importante es saber que estamos en una época de contínuos cambios a nivel tecnológico que son interesantes de apreciar.
¡Feliz día!
@@ai.charly Todo lleva su proceso, no te desanimes si no ves muchos comentarios. Siempre sé fiel a lo que sea que te guste y desees compartir, las personas que sepan apreciar ese contenido y que tengan la misma pasión llegarán.
Tal vez no haya entendido, pero estos vídeos siempre abren una puerta a la gente curiosa como yo y quién sabe, tal vez algún día podría dedicarme a esto.
¡Felíz día para ti también! Y mucha suerte con tu canal. Saludos.
LM STUDIO? GPT4ALL
Para allá vamos, hay que analizar cuáles son los mejores
Muy poco didáctico, contenido atropellado. Tienes grandes conocimientos en computación, pero pocos o nada como docente. No me gustó, lo siento.
@@akhathos1618 está muy bien, no tiene que gustarle a todos, imagino que buscas algo más desde cero. ¡Gracias por tu comentario!
Muy complicado, un ejemplo y deja de dar tantas vueltas ..malo
Hay temas y videos que el problema no es del que transmite que lo hace con esfuerzo. Valoralo. Esfuerzate. Tal vez no eres la persona adecuada para verlo.
¿Qué parte se te hizo más complicada? Estoy considerando hacer una segunda parte de ese vídeo para mostrar más cosas que se pueden hacer en local.