on peux pas créé ses modèles avec ses propres donnés au lieu d'utiliser Llama, mistral, etc ? car là je vois juste pour donner des instructions à un modèle et on en crée pas un...
une vidéo exceptionnel vraiment bravo et merci pour la France qui sera moins a coté de la plaque en 2028 avec le projet stagat qui vas rendre l' humilité obsolète dont la France mais grâce a toi et un future video sur le fine tuning de llama3 ou mistral 8 x 22b tu vas nous sauver je conte sur toi
Bonjour, Oui, j'ai bien vu le message que tu m'as envoyé. Pour répondre à ta question, il est vrai que cette technique est assez complexe. Elle requiert des données dans un format spécifique et une puissance de calcul importante, notamment au niveau des GPU. De plus, une bonne maîtrise du langage Python est indispensable. À ce jour, je ne sais pas comment rendre cela simple dans une vidéo. Cependant, je suis ouvert à l'idée d'explorer des solutions pour simplifier cette technique et la rendre accessible à un plus large public.
@@EasyAI-french04 j'avoue que ce serait incroyable d'avoir une vidéo qui traite de ce sujet... si cela permet aussi de répondre à vos objectifs aussi bien-sûr
ZX81 qui fallait monter soi-même si on ne le voulait pas trop chère. Bon j'ai bien compris ton tuto mais je n'ai pas saisie comment lui soumettre une banque de fichier pdf ou autres pour orienter mixtral sur mon activité. Je veux bien quelques indices. Merci
Bonjour, Ollama est un outil de base que l'on peut façonner. Pour travailler sur plusieurs PDF. Je vous conseille de consulter le lien suivant pour plus d'informations : github.com/zylon-ai/private-gpt
Super video ! J'utilise Ollama depuis quelques mois et j'en suis très content, par contre pour les modelfiles, à part le prompt système et les paramètres, j'ai beaucoup plus de mal, la doc étant bien trop brève (ils renvoient a la doc de templates standard de Go). Je découvre grâce à ta vidéo le Ollama Hub et j'ai fait pause quand tu as présenté le "multi-agent" qui me semblait intéressant à lire, et là, j'suis perdu, il y a dests de "variables templates" telles que [specific task domain], [skillset], [toolset] dont je ne trouve aucune doc, j'ai aucune idée d'où elles viennent, comment elles sont peuplées et je ne comprend du coup rien au fonctionnement ^^ Ça pourrait être intéressant de faire un jour une vidéo sur les modelfiles complexes. En tout cas, merci à toi !
Bonjour, Ollama étant un outil complexe, il sera composé de plusieurs vidéos. En attendant, voici le lien du multi-agent, ce sera plus simple qu'une capture. openwebui.com/m/stewart/multi-agent:latest
@@EasyAI-french04 Merci pour ta réponse ! Entre temps j'ai avancé dessus. Je pouvais chercher longtemps dans les docs de Ollama, c'était pas ici qu'il fallait chercher. Au final, le tout est un unique prompt système, il s'agit en fait d'une des formidables capacités émergentes des LLM qui est le "in-context learning". C'est le LLM qui comprend ce prompt et rempli ces variables lui-même. C'est une diablerie ce truc, un modèle de prompt engineering avancé.
Bonjour et merci pour la vidéo. J'ai suivi toutes les étapes, mais je ne comprends pas car quand je mets la commande pour lire le fichier dans mon terminal, il ne lit pas le fichier mais invente quelque chose. Comment faire pour qu'il lise réellement le fichier ?
Bonjour, Non, aujourd'hui, je ne fais pas de formation payante. Cette chaîne a pour but de vulgariser les nouvelles technologies ! Si vous avez des questions qui sont dans mon domaine, je me ferais un plaisir de vous répondre, si cela est dans mes cordes, bien sûr !
on peux pas créé ses modèles avec ses propres donnés au lieu d'utiliser Llama, mistral, etc ? car là je vois juste pour donner des instructions à un modèle et on en crée pas un...
Superbe vidéo, impatient de voir la suite et merci pour toutes ces informations que tu nous donnes sur la chaîne et le blog👍
Avec plaisir 😁
Merci bien pour cette vidéo , superbe , j'attend avec impatience la suite pour l'interface graphique comme chatGPT 🙂
Ça arrive, la prochaine vidéo
une vidéo exceptionnel vraiment bravo et merci pour la France qui sera moins a coté de la plaque en 2028 avec le projet stagat qui vas rendre l' humilité obsolète dont la France mais grâce a toi et un future video sur le fine tuning de llama3 ou mistral 8 x 22b tu vas nous sauver je conte sur toi
Vidéo très sympa et très utile. Un abonné de plus ! Merci !!
Merci et bienvenue
Très belle video ! et merci pour la trouvaille
Avec plaisir 👍
Merci pour cette vidéo
De rien
Super intéressant !
Merci.
merci !!
Avec plaisir
excellente la vidéo, merci beaucoup...
Est-il possible d'avoir une vidéo pour expliquer comment fine tuner un modèle avec de la grosse data ?
Bonjour,
Oui, j'ai bien vu le message que tu m'as envoyé.
Pour répondre à ta question, il est vrai que cette technique est assez complexe. Elle requiert des données dans un format spécifique et une puissance de calcul importante, notamment au niveau des GPU. De plus, une bonne maîtrise du langage Python est indispensable.
À ce jour, je ne sais pas comment rendre cela simple dans une vidéo. Cependant, je suis ouvert à l'idée d'explorer des solutions pour simplifier cette technique et la rendre accessible à un plus large public.
@@EasyAI-french04 j'avoue que ce serait incroyable d'avoir une vidéo qui traite de ce sujet... si cela permet aussi de répondre à vos objectifs aussi bien-sûr
ZX81 qui fallait monter soi-même si on ne le voulait pas trop chère. Bon j'ai bien compris ton tuto mais je n'ai pas saisie comment lui soumettre une banque de fichier pdf ou autres pour orienter mixtral sur mon activité. Je veux bien quelques indices. Merci
Bonjour,
Ollama est un outil de base que l'on peut façonner.
Pour travailler sur plusieurs PDF. Je vous conseille de consulter le lien suivant pour plus d'informations : github.com/zylon-ai/private-gpt
Super video ! J'utilise Ollama depuis quelques mois et j'en suis très content, par contre pour les modelfiles, à part le prompt système et les paramètres, j'ai beaucoup plus de mal, la doc étant bien trop brève (ils renvoient a la doc de templates standard de Go).
Je découvre grâce à ta vidéo le Ollama Hub et j'ai fait pause quand tu as présenté le "multi-agent" qui me semblait intéressant à lire, et là, j'suis perdu, il y a dests de "variables templates" telles que [specific task domain], [skillset], [toolset] dont je ne trouve aucune doc, j'ai aucune idée d'où elles viennent, comment elles sont peuplées et je ne comprend du coup rien au fonctionnement ^^
Ça pourrait être intéressant de faire un jour une vidéo sur les modelfiles complexes. En tout cas, merci à toi !
Bonjour,
Ollama étant un outil complexe, il sera composé de plusieurs vidéos. En attendant, voici le lien du multi-agent, ce sera plus simple qu'une capture.
openwebui.com/m/stewart/multi-agent:latest
@@EasyAI-french04 Merci pour ta réponse ! Entre temps j'ai avancé dessus. Je pouvais chercher longtemps dans les docs de Ollama, c'était pas ici qu'il fallait chercher. Au final, le tout est un unique prompt système, il s'agit en fait d'une des formidables capacités émergentes des LLM qui est le "in-context learning". C'est le LLM qui comprend ce prompt et rempli ces variables lui-même. C'est une diablerie ce truc, un modèle de prompt engineering avancé.
Bonjour et merci pour la vidéo. J'ai suivi toutes les étapes, mais je ne comprends pas car quand je mets la commande pour lire le fichier dans mon terminal, il ne lit pas le fichier mais invente quelque chose. Comment faire pour qu'il lise réellement le fichier ?
Oui, j'ai remarqué que des fois ils inventent seul les fichiers .txt son lu , sauf pour Lava bien sûr! As-tu essayé la version Open WebUI ?
@EasyAI-french04
Bonjour, il est possible de prendre du temps avec vous (type de formation payante ?)
Bonjour,
Non, aujourd'hui, je ne fais pas de formation payante. Cette chaîne a pour but de vulgariser les nouvelles technologies ! Si vous avez des questions qui sont dans mon domaine, je me ferais un plaisir de vous répondre, si cela est dans mes cordes, bien sûr !
@@EasyAI-french04
Entendu merci pour votre réponse