No lo he instalado pero deberian ver que version de cuda acepta sus gpu de lo contrario no va a fucnionar. Una pregunta puedo cargar archivos com un excel?
@Alex-ll1hm me refería a explicarlo con más tiempo, explayandose más detenidamente xD Es que me parece un tema muy interesante y me gustó como lo explicó, por eso quería saber más
Nico, buenas tardes. Todo perfecto hasta que intenté clonar el repositorio. instalé Git. Tengo windows 11 y Nvidia pero en el git cloud .... te perdí. Saludos, te sigo leyendo, gracias.
que tal estimado ? una consulta . es mejor tener n8n en local o en googlecloud? en la nube?. pregunto porque si tengo automatizaciones y apago el pc. se cortaria la automatizacion? . saldos desde Chile
Claro, si tenes "schedule" (o como se escriba), algún evento como recibir un correo o algo así como para iniciar el flujo lo mejor es que siempre este encendido, en google cloud, aws o azure es lo ideal en estos casos.... pero si quieres un entorno cerrado local es un tu propio ordenador. Depende del objetivo y de los requerimientos que necesites. Saludos!!
Hola Nico! primero que nada MUCHAS GRACIAS por todas tus enseñanzas, y una pregunta, en el minuto no me aparece en el desplegable la opcion de Documents, de hecho me aparece que no hay ningún resultado para escoger (minuto 14:29), entonces al ejecutar el chat me da error, como puedo arreglar ese detalle por favor? es en Qdrant Collection (From list), he buscado para solucionarlo y no sé he podido hacerlo
Tienes que crear una nueva "collection" dentro de tu qdrant (segun su demo estaria en "localhost::6333/dashboard#/tutorial/quickstart", una vez la generas ya puedes seleccionarla y el workflow queda completo
@@pabl0erazo Muchas gracias, lo había terminado encontrando pero dudaba cuáles tenían que ser los parámetros de configuración y como cargarlos, finalmente cargue el propio ejemplo que te ofrece sin tocar nada y funcionó perfectamente. Gracias nuevamente
Lamentablemente n8n en Cloud tiene mucho mas ventajas que en local, no solo que corre continuamente sino que también tiene funciones que no están en la versión local, es una lastima, duele pero es mejor el "pago"
Pues yo no lo he hecho funcionar, me sale este mensaje de error [ERROR: time: invalid duration ""] que me dice que está en el AI Agent (Pero lo cierto es que lo he hecho con Llama 2.2:latets que es el que me ha instalado por defecto. Alguien que lo haya resuelto?
Gracias por el aporte , pero me sale este error y no carga ollama: Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error running hook #0: error running hook: exit status 1, stdout: , stderr: Auto-detected mode as 'legacy' nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown ojala me puedas contestar, saludos
CREO que la respuesta es obvia... si esta en local es decir existe solamente en tu ordenador.....obvio que una vez apagado ..el ordenador que es tu "local" se apaga..todo!
Estimado, en tu procedimiento para la instalación de Docker dices: "Simplemente te lo descargas y te creas una cuenta." Crear una cuenta sin decir para que o porque. Como se debe interpretar ese requerimiento? Gracias mil.
al final de todo la conclusion es que chateas con ollama, tienes que crear agentes o algo mas complejo, lo que hiciste ya es de conocimiento general podria decirce, la diferencia que ocupas plataformas que interactuan con ollama, no hiciste ni un rag que normalmente se ocupan estas tools.
Cuales son los requisitos para tener instalada la IA sin que vaya a pedales para decirte "Hola"? Porque hace como 1 mes intenté con Llama la más pequeña y madre de Dios... Lo que tardaba...
yo ahora lo voy a probar en una tablet que me salió por unos $400 super básica, pero como no es URG las respuestas creo que me podría venir bien, si estas pruebas salen bien, podría pasar a una más potente y hací hasta llegar a necesitar una tarjeta de vídeo ya les cuento como me va
@@NovedadesInteligenciaArtifical Yo lo probé en un PC con gráfica integrada, es el que uso para trabajar programando, y la verdad, es que no podía con el alma... Imagino, que habrá que tener cierta cantidad de RAM libre, así como SSD libre y una RAM de la gráfica considerable, ya que recuerdo, que el modelo más grande, consumía unos 128GB de RAM (no recuerdo si de gráfica o RAM de la normal). Entre este y el año que viene, intentaré hacerme con un servidor para poder meterle varias gráficas, pero primero quiero testear cómo va el tema de la libertad de poder hacer lo que se quiera (nada ilegal, pero sabes que hay cosas que te dice que no "puede"). Si la de OpenAI ya está segada, la de Facebook imagino, que lo estará más aún... Te leo por aquí! :)
@@respada86 Pues para programar te recomiendo que user el "IDE"/Editor de texto cursor, o en el VScode integres con el plugin Continue y lo enlaces con groq y en local con llama o qwen2.5-coder
Que loco justo ahorita estaba buscando esto y en este momento lo subiste
Muy buen video!!! Espero que sigas profundizando en el tema
huaauuu.. muchas gracias por tremendo aporte!!
Excelente 🎉
No lo he instalado pero deberian ver que version de cuda acepta sus gpu de lo contrario no va a fucnionar. Una pregunta puedo cargar archivos com un excel?
Gracias genio
Muy bueno el material, sólo que quizás me gustaría saber si hay posibilidad de hacer un tutorial así sólo que un poco más despacio
En ajustes puedes ajustar la velocidad de reproducción, de nada.
@Alex-ll1hm me refería a explicarlo con más tiempo, explayandose más detenidamente xD
Es que me parece un tema muy interesante y me gustó como lo explicó, por eso quería saber más
Nico, buenas tardes. Todo perfecto hasta que intenté clonar el repositorio. instalé Git. Tengo windows 11 y Nvidia pero en el git cloud .... te perdí. Saludos, te sigo leyendo, gracias.
que tal estimado ? una consulta . es mejor tener n8n en local o en googlecloud? en la nube?. pregunto porque si tengo automatizaciones y apago el pc. se cortaria la automatizacion? . saldos desde Chile
??
Claro, si tenes "schedule" (o como se escriba), algún evento como recibir un correo o algo así como para iniciar el flujo lo mejor es que siempre este encendido, en google cloud, aws o azure es lo ideal en estos casos.... pero si quieres un entorno cerrado local es un tu propio ordenador. Depende del objetivo y de los requerimientos que necesites. Saludos!!
como almacenar datos personales en qdrant y recuperarlos con langchain por ejemplo
Buenos dias me gustaría hacerte algunas preguntas, como hacer para agendar una llamada?
Hola Nico! primero que nada MUCHAS GRACIAS por todas tus enseñanzas, y una pregunta, en el minuto no me aparece en el desplegable la opcion de Documents, de hecho me aparece que no hay ningún resultado para escoger (minuto 14:29), entonces al ejecutar el chat me da error, como puedo arreglar ese detalle por favor? es en Qdrant Collection (From list), he buscado para solucionarlo y no sé he podido hacerlo
Hola, lo solucionaste? me pasa igual
Mismo problema,
Tienes que crear una nueva "collection" dentro de tu qdrant (segun su demo estaria en "localhost::6333/dashboard#/tutorial/quickstart", una vez la generas ya puedes seleccionarla y el workflow queda completo
@@pabl0erazo Muchas gracias, lo había terminado encontrando pero dudaba cuáles tenían que ser los parámetros de configuración y como cargarlos, finalmente cargue el propio ejemplo que te ofrece sin tocar nada y funcionó perfectamente.
Gracias nuevamente
Lamentablemente n8n en Cloud tiene mucho mas ventajas que en local, no solo que corre continuamente sino que también tiene funciones que no están en la versión local, es una lastima, duele pero es mejor el "pago"
Esto si que peta
Pues yo no lo he hecho funcionar, me sale este mensaje de error [ERROR: time: invalid duration ""] que me dice que está en el AI Agent (Pero lo cierto es que lo he hecho con Llama 2.2:latets que es el que me ha instalado por defecto. Alguien que lo haya resuelto?
Gracias por el aporte , pero me sale este error y no carga ollama: Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error running hook #0: error running hook: exit status 1, stdout: , stderr: Auto-detected mode as 'legacy'
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown
ojala me puedas contestar, saludos
Nico si esta en local como tu lo has hecho ¿si apagas el ordenador sigue el sistema funcionando? gracias
CREO que la respuesta es obvia... si esta en local es decir existe solamente en tu ordenador.....obvio que una vez apagado ..el ordenador que es tu "local" se apaga..todo!
Estimado, en tu procedimiento para la instalación de Docker dices: "Simplemente te lo descargas y te creas una cuenta." Crear una cuenta sin decir para que o porque. Como se debe interpretar ese requerimiento? Gracias mil.
La respuesta corta es que no necesitas una cuenta.
al final de todo la conclusion es que chateas con ollama, tienes que crear agentes o algo mas complejo, lo que hiciste ya es de conocimiento general podria decirce, la diferencia que ocupas plataformas que interactuan con ollama, no hiciste ni un rag que normalmente se ocupan estas tools.
Tienes algun tuto similar pero con RAG?
@@ggmtddboy porque le preguntas eso a el del comentario? 😂
Cuales son los requisitos para tener instalada la IA sin que vaya a pedales para decirte "Hola"? Porque hace como 1 mes intenté con Llama la más pequeña y madre de Dios... Lo que tardaba...
yo ahora lo voy a probar en una tablet que me salió por unos $400 super básica, pero como no es URG las respuestas creo que me podría venir bien, si estas pruebas salen bien, podría pasar a una más potente y hací hasta llegar a necesitar una tarjeta de vídeo ya les cuento como me va
@@NovedadesInteligenciaArtifical Yo lo probé en un PC con gráfica integrada, es el que uso para trabajar programando, y la verdad, es que no podía con el alma... Imagino, que habrá que tener cierta cantidad de RAM libre, así como SSD libre y una RAM de la gráfica considerable, ya que recuerdo, que el modelo más grande, consumía unos 128GB de RAM (no recuerdo si de gráfica o RAM de la normal).
Entre este y el año que viene, intentaré hacerme con un servidor para poder meterle varias gráficas, pero primero quiero testear cómo va el tema de la libertad de poder hacer lo que se quiera (nada ilegal, pero sabes que hay cosas que te dice que no "puede").
Si la de OpenAI ya está segada, la de Facebook imagino, que lo estará más aún... Te leo por aquí! :)
Buenas! Que ordenador utilizas?
@@respada86 Pues para programar te recomiendo que user el "IDE"/Editor de texto cursor, o en el VScode integres con el plugin Continue y lo enlaces con groq y en local con llama o qwen2.5-coder
depende de al menos 15gb de ram