Hello, juste un détail...oui tu nous montres l'installation, la validation d’installation via la page web en localhost et tu poursuis par le terminal . Et oui y a déjà des vidéos sur l'installation d'ollama, mais tu aurais pu préciser qu'un "Ollama Serve" est de rigueur afin de lancer le serveur web écoutant le port qui va bien :)
pff. C'est tellement impressionnant ce qui arrive dans nos ordis. Malheureusement, j'ai pas le level pour faire toutes ces maneuvres. Merci pour ce travail, qui montre tout ce qui est possible de faire quand on sait se servir vraiment d'un ordi. Je suivrai l'evolution, comme on regarde un spectacle.
Concernant ce qui ressemble à un conflit avec la mémoire, il est dit dans les indications qu'il faut faire référence à soi-même en tant que USER, pas "je". Donc "je suis Manu" il le prend pour lui. Il aurait fallu écrire "l'utilisateur s'appelle Manu".
Alors, j'ai essayé il y a quelques mois sur un ordi tout à fait classique. Mon expérience est qu'il faut vraiment un ordi puissant. Au bout de quelques jours, j'ai désinstallé parce que je n'arrivais à rien avec un modèle léger et peu gourmand (un des llamas). Donc à voir les évolutions
Korben je me permet une remarque : tu vas un peu vite en besogne sur la partie de déclaration de l'adresse d'Ollama j'ai du rajouté ceci --add-host=host.docker.internal:host-gateway sinon ca ne fonctionner pas. T'as du le faire avant mais pour un newbie comme je suis j'étais un peu largué merci perplexity pour le coup je suis resté 2h a essayé de voir avec perplexity ce qu'il y allais pas avec un peu d'intuition je suis partie sur l'adressage réseau, enfin si c'est de cela qu'il s'agit... Mais le reste est parfait merci pour ton travail que tu fais depuis des années.
Simplifiez-vous la vie en utilisant pinokio (disponible sur Windows, Mac, Linux) et en installant Open WebUI à partir de l'interface de Pinokio, et voilà...
Hello, juste un détail...oui tu nous montres l'installation, la validation d’installation via la page web en localhost et tu poursuis par le terminal . Et oui y a déjà des vidéos sur l'installation d'ollama, mais tu aurais pu préciser qu'un "Ollama Serve" est de rigueur afin de lancer le serveur web écoutant le port qui va bien :)
pff. C'est tellement impressionnant ce qui arrive dans nos ordis. Malheureusement, j'ai pas le level pour faire toutes ces maneuvres. Merci pour ce travail, qui montre tout ce qui est possible de faire quand on sait se servir vraiment d'un ordi. Je suivrai l'evolution, comme on regarde un spectacle.
On s'imagine pas encore la portée de cela d'avoir ca sur ca machine. Toutes les docs qu'on va pouvoir lui faire bouffer et gratis. Merci Korben.
Concernant ce qui ressemble à un conflit avec la mémoire, il est dit dans les indications qu'il faut faire référence à soi-même en tant que USER, pas "je". Donc "je suis Manu" il le prend pour lui. Il aurait fallu écrire "l'utilisateur s'appelle Manu".
Super video, merci pour la synthese!
De rien 😁
Pour ce qui est du RAG, est-il possible de charger plusieurs documents? Quelle est la limite totale et par document?
Je l'ai installé avec Pinokio, c'est facile aussi. Maintenant il faut que j’apprenne à l'utiliser. Merci pour l'aide. :)
De rien 😁
Bonne vidéo pour les bidouilleurs, tout fonctionne au poil ! merci de dégrossir tout ça
Merci. Comment tu as fait pour utiliser whisper pour l'audio ?
Alors, j'ai essayé il y a quelques mois sur un ordi tout à fait classique. Mon expérience est qu'il faut vraiment un ordi puissant. Au bout de quelques jours, j'ai désinstallé parce que je n'arrivais à rien avec un modèle léger et peu gourmand (un des llamas). Donc à voir les évolutions
Merci 🎉
Merci beaucoup c est sympa ;)
Ca marcherait bien pour ecrire du php ? Et peut on le connecter a internet ou il reste en local ?
Bon bein on testera ça quand j'aurai plus un ordi qui rame dés que j'ouvre 4 onglets
Salut Korben tu nous ferra une petite suite llama 3.1 Nemotron ?? le modèle a charger dans ollama est le Llama-3.1-Nemotron-70B-Instruct-HF-GGUF
hello. J’ai tourné une vidéo où j’en parle mais ce sera pour les Patreons bientôt. Et dans 4 ou 5 semaines pour UA-cam
❤❤❤❤
Les LLMs en local sont vraiment limités. Il faut des gros modèles pour que cela soit vraiment efficace.
Korben je me permet une remarque : tu vas un peu vite en besogne sur la partie de déclaration de l'adresse d'Ollama j'ai du rajouté ceci --add-host=host.docker.internal:host-gateway sinon ca ne fonctionner pas. T'as du le faire avant mais pour un newbie comme je suis j'étais un peu largué merci perplexity pour le coup je suis resté 2h a essayé de voir avec perplexity ce qu'il y allais pas avec un peu d'intuition je suis partie sur l'adressage réseau, enfin si c'est de cela qu'il s'agit... Mais le reste est parfait merci pour ton travail que tu fais depuis des années.
Ah c’est possible. Désolé pour ça.
@@korben pas grave tu m’as bien aidé avec ta vidéo c’est l’essentiel
Simplifiez-vous la vie en utilisant pinokio (disponible sur Windows, Mac, Linux) et en installant Open WebUI à partir de l'interface de Pinokio, et voilà...
encore un truc qui fera que les gens reflechiront de moins en moins
« Tu ne feras point de machine à l’esprit de l’homme semblable »
Mdrrrr