MEJORES y BARATOS: Cómo es que RAG está revolucionando los modelos de lenguaje
Вставка
- Опубліковано 30 тра 2024
- Descubre cómo las RAG ofrecen resultados precisos y verificables sin los costos prohibitivos de entrenamiento y actualización continua. Sumérgete en el mundo de la eficiencia en IA, donde menos es más y el conocimiento está al alcance de todos.
Video sobre LLMs: • No todo es ChatGPT - I...
Prompt engineering: • Interactuando con Mode...
Embeddings: • La magia del Machine L...
RAG: • MEJORES y BARATOS: Cóm...
Código: feregri.no/rag
APÓYAME:
Únete al canal y disfruta de beneficios: www.youtube.com/@feregri_no/join
Cómprame un cafecito: www.buymeacoffee.com/feregrino
SOCIALES:
/ feregri_no
/ feregri_no
twitch.com/feregri_no
/ feregri_no
github.com/fferegrino
kaggle.com/ioexception
feregri.no
TIMESTAMPS:
00:00:00 Inicio
00:01:45 Todos quieren un GPT
00:05:39 Consulta tradicional a LLM
00:08:27 Sistemas RAG
00:11:52 Qué nos ofrece un sistema RAG
00:13:31 Cómo se hace la recuperación de contexto
00:15:58 Poblando una BD vectorial
00:17:53 Qué hacer con el query del usuario
00:18:38 Sistema RAG completo
00:20:04 Proyecto práctico
00:20:56 Componentes del proyecto
00:23:02 En dónde encontrar el código
00:24:37 Introducción al dataset
00:26:39 Un ejemplo motivante
00:28:59 Trabajando con el dataset
00:33:31 Introducción al Chunking
00:35:58 Haciendo chunking en nuestros documentos
00:39:42 Procesando los chunks para indexarlos
00:41:46 De dónde sacamos los embeddings
00:43:03 Creando embeddings para nuestros documentos
00:45:21 Base de datos vectorial
00:46:46 Insertando en la BD vectorial
00:50:33 Ejecutando queries en la BD
00:51:26 Obteniendo respuestas potenciales
00:53:19 Generando respuestas RAG
00:53:56 Generando respuestas con mis documentos
00:58:14 Siguientes pasos
01:00:14 En conclusión - Наука та технологія
Gracias por iluminar el camino, excelente video
Oro puro, gracias por explicarlo de manera sencilla, no se si esto también esta en libros, o si es algo tan nuevo que aún no se han escrito libros al respecto
Mil gracias, también gracias por volverte miembro del canal.
Recuerda que en la pestaña de la comunidad están los recursos extra: www.youtube.com/@feregri_no/community
Muy buen vídeo, me lo guardo para verlo más veces porque hay que asimilar muchas cosas.
Un esfuerzo titánico el de este vídeo y te ha quedado de 10, ojalá sigas esta temática tan interesante.
Yo añadiría cómo implementar un chatbot al estilo web de ollama para conversar con nuestro RAG, si se pudiese. Me interesa muchísimo este tema y me encanta tu contenido, no sé si se podrá hacer esto, pero es superinteresante.
Te animo a seguir pues tienes mucha calidad. Saludos!
Muchas gracias, me quedo con tu solicitud para desarrollarla un poco más.
El mejor contenido que he encontrado hasta el momento, espectacular, muchas gracias por toda la informacion, super fácil de entender!!!!
Con mucho gusto, que bueno que te sirvió :D
tremendo, tenia un concepto vago sobre que era un RAG y esto me lo dejo mucho mas claro, gracias por compartir!!
A ti por comentar :D
Muy buena explicación, suscrito.
Gracias. ¡Saludos!
Muchas gracias!!! ... ¿Cómo preparas tu data set?, pls un videíto sobre ese tema, por otro lado estaria super genial que nos compartas sobre como montar nuestro propio chat en una demo usando Gradio o Streamlit, lo estaré esperando. Me super suscribo a tu canal ....A por más!!
Excelente contenido! muchas gracias por esta serie de videos!
A ti por tu comentario 😌
Curiosamente te seguia en twitter/x quería agradecerte por la master class tus materiales son de excelente calidad.
¡Muchas gracias!
Está bien interesante! Me imagino un híbrido MoE y RAG haciendo fine-tuning del contexto y dándole la razón a gpt4o 🤙🤤
Que bueno que te gustó :)
Muchas gracias por compartir tu conocimiento.
Con mucho gusto :)
Nos falto esto en Boocamp machine learning de Código Facilito
Para el de LLMOps 😏
Ta bueno! me gustó. Muchas gracias Fere!
Gracias a ti :D
¡Gracias por esta serie! Creo que estas contribuyendo mucho a la información en español.
Muchas gracias, que gusto que el aporte se valore.
Genial gracias por compartir el conocimiento lo intentare pero usando Go
Excelente. ¿Qué tal te fue?
Muchas gracias, que métrica usas para saber que el RAG está bien
buen video mi amgo gracias
Gracias gracias
Gracias y claro me gustaría ver el tutorial con LlamaÍndex, excelente video
Lo tendré en cuenta :)
Excelente video
Gracias :)
Entonces cuales son las formas adecuadas de hacer los Chunks en produccion??
@feregri_no Me gusta tu estilo, simple y conciso. Felicitaciones! Me has motivado a suscribirme a tu canal.
Tengo una pregunta para ti. Ya he implementado varios de estos sistemas y sistemáticamente me encuentro con esta situación: si en mi texto original hay una frase como por ejemplo "el examen constaba de 8 secciones", y la pregunta que le hago al sistema es "cuantas partes tenía la prueba" el sistema muchas veces me responde que no tiene la información.
Asumo, que puede ser porque en realidad la búsqueda es por similitud de texto y no de conceptos, y al usar distintas palabras, si bien estoy hablando de lo mismo, el modelo no lo entiende. También es justo decir que mi esquema de chunking es muy básico dado que las herramientas que uso solo me permiten un tamaño fijo de chunk y una superposición.
Te suena familiar? Cómo sugieres solucionarlo?
Muchas gracias! Un saludo!
¡Te sugiero que lo debuguees! revisa que chunks recupera para esa pregunta en específico, puede ser que tu chunking esté partiendo ese texto. Encima de todo los LLMs no son muy buenos cuando se trata de lidiar con números, pero depurar es el primer paso.
Muchas gracias por el video y los projects que realizas. Quería consultarte como seria para establecer los chunks o profundizar mas en el tema. Gracias . Saludos.
Hay diversas maneras, pero haré un video al respecto.
@@feregri_no Gracias Profe,
el link esta roto
¿Cuál?
Muy, buena explicación muchas gracias fue de mucha utilidad, solo una pregunta Rag depende de la capacidad de la ventana de contexto, por ejemplo en el caso de llama3 solo recibe 8.000 tokens y en el caso de superar esa ventana de contexto el modelo no sería capaz de generar una respuesta aumentada
Ex correcto, el tamaño de la ventana es una restricción a considerar cuando desarrollas un RAG. Hay frameworks o herramientas que te permiten contar el número de tokens y seleccionar la cantidad de "chunks" adecuada para que no mandes más tokens de los que el LLM soporta.
Por qué tanto texto?