El mejor video que he visto hasta el momento de LangChain, Gracias por compartir la experiencia con el framework... (no acostumbro a ver videos de mas de 10 min pero este me engancho de principio a fin 🤯)
Gracias!! Una pregunta las conversaciones las guardas posterior en una base de datos sql? Un json? por otro lado te pregunto en la base de datos vectorial como definiste el número de caracteres para los chunks, si los documentos digamos tienen muchas temáticas distintas recomiendas partir en chunks independientes, gracias
Para guardar las conversaciones depende un poco del caso de uso. Por ejemplo, si haces un web chat en el que la conversación solo la quieres mantener mientras el usuario esté en la web puedes guardar el historial en memoria local y, en cada nueva pregunta, enviar el historial almacenado en local junto con la pregunta (así te ahorras tener una DB). Para el resto de casos generalmente los guardo en una DB documental pero también te valdría una SQL. En cuanto al número de caracteres depende mucho del tipo de documento y como tenga estructurada la información, me temo que no hay una respuesta única. Por un lado el tamaño del chunk tiene un límite dado por la ventana de contexto del LLM que uses. Por otro los chunks deberías intentar "cortarlos" por piezas de información que tenga sentido. Cuando usas un documento con estructura (por ej. HTML, .md, etc) estos ya tiene elementos que te facilitan el corte. Y en cuanto a las temáticas, si son muy diferentes y de conocimiento disjunto, te diría que probases a indexarlas en colecciones diferentes e intentar diferenciar al principio de que colección debería coger el conocimiento. Pero de nuevo... esto depende muchísimo del caso de uso!!
Muy bueno! Aprovecho para preguntar si ha habido cambios de nuevo en las cadenas de LangChain, o se sigue usando el caracter pipe "|", porque ya pasaron un tiempo....Muchas gracias!
Muy buen video. Gracias.
Gran video. Me encantaría ver más contenido como este❤
El mejor video que he visto hasta el momento de LangChain, Gracias por compartir la experiencia con el framework...
(no acostumbro a ver videos de mas de 10 min pero este me engancho de principio a fin 🤯)
Muchas gracias! me alegro de que te haya gustado!
Excelente introducción al tema, ojalá nos presentes más ❤
Me alegro que te haya gustado. Alguno más vendrá, eso seguro 😀
Muy Buen webminar, claro y conciso. Muchas gracias!
Muchas gracias!
Excelente video, muy claro para introducirse en langchain muchas gracias
Excelente explicación. Muchas gracias.
Muchas gracias!! 😊
Muy bueno y super claro todo, muchas gracias!
Muchas gracias!
Muy buen vídeo!!
Me alegro de que te haya gustado!😃
Brutal , lo que pasa con los openasistant ya no tiene sentido el tema de la memoria ? Bueno igual al ser el coste mas elevado si, habria que evaluarlo
Gracias!! Una pregunta las conversaciones las guardas posterior en una base de datos sql? Un json? por otro lado te pregunto en la base de datos vectorial como definiste el número de caracteres para los chunks, si los documentos digamos tienen muchas temáticas distintas recomiendas partir en chunks independientes, gracias
Para guardar las conversaciones depende un poco del caso de uso. Por ejemplo, si haces un web chat en el que la conversación solo la quieres mantener mientras el usuario esté en la web puedes guardar el historial en memoria local y, en cada nueva pregunta, enviar el historial almacenado en local junto con la pregunta (así te ahorras tener una DB). Para el resto de casos generalmente los guardo en una DB documental pero también te valdría una SQL.
En cuanto al número de caracteres depende mucho del tipo de documento y como tenga estructurada la información, me temo que no hay una respuesta única. Por un lado el tamaño del chunk tiene un límite dado por la ventana de contexto del LLM que uses. Por otro los chunks deberías intentar "cortarlos" por piezas de información que tenga sentido. Cuando usas un documento con estructura (por ej. HTML, .md, etc) estos ya tiene elementos que te facilitan el corte. Y en cuanto a las temáticas, si son muy diferentes y de conocimiento disjunto, te diría que probases a indexarlas en colecciones diferentes e intentar diferenciar al principio de que colección debería coger el conocimiento. Pero de nuevo... esto depende muchísimo del caso de uso!!
Para los la parte de question aswering complex ( preguntas complejas ) langchain se puede usar ?
Muy bueno! Aprovecho para preguntar si ha habido cambios de nuevo en las cadenas de LangChain, o se sigue usando el caracter pipe "|", porque ya pasaron un tiempo....Muchas gracias!
mil gracias!
Gracias a ti! 😃
hola no podrias compartir el codigo? porfa te agradeceria
Yo también me apunto seria una pasada