Muy interesante, ahora lo que estaría genial es un video tutorial haciendo LLM transfer learning o fine-tuning. Hay una app que creo que hace fine-tuning se llama Ollama. El tema de la habilidades emergentes de estos modelos también es muy interesante sobre todo si existen pruebas para averiguar cuales a adquirido.
Tengo un video en el canal de como hacer fine tunning a Llama, mirare para hacer un video de ollama aunque creo que por ahora solo esta para linux y mac y hay mucha gente que tiene windows, gracias por el comentario 😁
El lunes subiré un video explicando que libros puedes leer para aprender todo 👍 tambien hay videos y cursos por internet que ayudan mucho, o ya algo mas completo puedes hacer un master.
Con la optimización del repo teniendo 24 Gb debería ser suficiente, de todas formas no he hecho pruebas en local, solo en colab y con una A100 en cloud.
@@alexFocus8 cuando le preguntas por código falla horrible igual que llama 2 y otros, lo mismo paso con bard , no se acerca a gpt y los otros disponibles en hungerface son fatales
A ver podrias hablar acerca del equipo minimo en la q se puede usa,yo el año pasado baje llama 1 d 7b en un dinosauro de 4g i procesador de 1.5 g i no me respondia no se si seria por mi equipo
Es posible, estos modelos necesitan muchos recursos. Investigare si hay alguno pequeño que vaya bien (por ejemplo GPT2 se podia ejecutar en cualquier CPU pero no tiene sentido nada de lo que dice)
Muy interesante, ahora lo que estaría genial es un video tutorial haciendo LLM transfer learning o fine-tuning. Hay una app que creo que hace fine-tuning se llama Ollama. El tema de la habilidades emergentes de estos modelos también es muy interesante sobre todo si existen pruebas para averiguar cuales a adquirido.
Tengo un video en el canal de como hacer fine tunning a Llama, mirare para hacer un video de ollama aunque creo que por ahora solo esta para linux y mac y hay mucha gente que tiene windows, gracias por el comentario 😁
Muy buen contenido! Estaba intentando aprender por mi cuenta sobre LLM y vienen genial. Muchas gracias
Muchas gracias por el comentario 😁 me alegro que te sea util
Este modelo podría responder en base a documentos que podamos cargar tipo modelo RAG que ocupaste en Llama?
Si, justo estoy preparando un video de eso 😁 el lunes lo tendrás en el canal
@@alexFocus8 Genial gracias
Donde puedo aprender desde 0 todo esto de la IA modelos, fine tunning etc?
El lunes subiré un video explicando que libros puedes leer para aprender todo 👍 tambien hay videos y cursos por internet que ayudan mucho, o ya algo mas completo puedes hacer un master.
excelente canal
😀
Muchas gracias!!
Hola, alguien sabe si este modelo tiene filtros para evitar crear contenido explicito ?
Es totalmente libre, puedes preguntarle lo que quieras sin filtros ni bloqueos
Cuanta vram se necesita para correrlo full local ? 24gb?
Con la optimización del repo teniendo 24 Gb debería ser suficiente, de todas formas no he hecho pruebas en local, solo en colab y con una A100 en cloud.
100-140gb vram
👍🏻
LLama 3?
Si, tengo que hacer video que ha superado a mistral
Porque todos hablan mierda siempre que aseguran que alguno supera a gpt solo fallan de forma idiota
Lo has probado? Yo la verdad que ha sido de las primeras veces que pienso que realmente lo supera en varias cosas
@@alexFocus8 cuando le preguntas por código falla horrible igual que llama 2 y otros, lo mismo paso con bard , no se acerca a gpt y los otros disponibles en hungerface son fatales
siii, todos fallan@@inteligenciafutura
A ver podrias hablar acerca del equipo minimo en la q se puede usa,yo el año pasado baje llama 1 d 7b en un dinosauro de 4g i procesador de 1.5 g i no me respondia no se si seria por mi equipo
Es posible, estos modelos necesitan muchos recursos. Investigare si hay alguno pequeño que vaya bien (por ejemplo GPT2 se podia ejecutar en cualquier CPU pero no tiene sentido nada de lo que dice)