Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
Il ne reste plus qu'à attendre le retour de quelqu'un qui a une config équivalente. En tous cas, ce sera (bien) plus rapide que sur ma brouette 😅 (un Mac avec un i7 et pas beaucoup de RAM)
Merci :) Quand on utilise des LLMs d'une entreprise depuis son site, c'est généralement gratuit, et quand on l'utilise via une API, c'est généralement payant.
super vidéo. J'ai un problème qui s'affiche "the operation is insecure" avec groq et "There was an error processing your request: No details were returned" avec ollama. est-ce que quelqu'un peut m'aider?
Oui, à condition de renommer ".env.example" en ".env.local". J'ai pas essayé personnellement car j'ai installé un LLM en local. A voir ce que d'autres qui ont des abonnements ont fait.
Utilisant Bolt et Cursor de manière intensive, je croyais pouvoir intégrer de manière fluide à mon workflow. Mais, mon constat est que si on n’est pas un très bon développeur, il est difficile d’être un bon prompt engineer … Pour les cas basiques, comme un blog, c’est accessible à tous. Mais des que l’on code des fonctionnalités avancées, cela peut devenir le chaos. A ceux qui tremblent face à l’IA, il s’agit ( aujourd’hui pour le moins ) juste d’un attracteur d’attention. Si vous n’êtes pas bon pour faire des pull requests, et distinguer les bons des mauvais patterns je vous souhaite bien du courage. Car quand une modification de 100 lignes est proposée, il peut être difficile de distinguer le vrai du faux. Quand on pèse le coût énergétique et le retour sur investissement qui n’est pour l’heure pas garanti, je ne vois pas, de ma modeste condition de grands changements. Si vous tabulez rapidement dans un environnement professionnel, on vous repère très vite …
Je pense que ce sont des outils qu'il faut suivre pour savoir à quoi en attendre. Pour ce qui est de créer rapidement une app standard comme il y en a tant en info de gestion (du CRUD amélioré), ça fait gagner du temps. J'ai généré tout à l'heure une application mobile hybride Ionic avec un backend Node / Express et une authentification JWT : c'est clairement du temps de gagné, qui peut être consacré à des fonctionnalités plus intéressantes faites à la main. Après, en tant que dev, je regarde au moins autant comment ajouter des fonctionnalités de recherche plus efficaces via des DB Vectorielles, ainsi que la possibilité de créer des assistants entrainés sur des données personnelles. Et c'est franchement sympa d'avoir une recherche basée sur le sens plutôt que sur des mots clés. Après, quand arriveront les nouvelles génération d'IA pour le dev - peut-être basées sur la fameuse architecture JEPA (mais peut-être autre chose dont on n'est pas au courant) -, là, elles pourront peut-être s'attaquer à des développement intermédiaires voire avancés. C'est en tous cas l'objectif annoncé (une rupture d'avec les LLMs). Pour les non-devs, ces outils donnent la possibilité de créer des applications impossibles à créer autrement sans savoir programmer. Ce sont des gens du métier qui veulent concrétiser une idée. On n'est pas en compétition. Et pour des applications qui seront destinées à quelques dizaines ou centaines d'utilisateurs, ça peut largement suffire. Et si l'application rencontre son public, il sera temps de la faire réécrire par des devs. Mais il y a tellement d'applications qui ne rencontrent pas le succès espéré.
Salut, un 3,8 GHz Intel Core i7 8 cœurs, avec une modeste RAM de 8 Go 2667 MHz DDR4 (quels radins chez Apple de ne pas mettre 16 Go d'emblée) et une aussi modeste AMD Radeon Pro 5500 XT 8 Go. Ca me suffit largement pour le dev à la main. Mais pour faire mumuse avec des IA locales ... 🐌 😄
Il faut passer à minima à un Mac Mini M4, ça dépote pour du dev, et pour un prix ridicule ! Ses 16 Go de mémoire unifiée sont top pour de l'inférence...
Mes deux RX570 sont trop veilles, pas un probleme de performance mais de chipset de calcul, Rocm incompatible... Sinon j'ai bien les lignes de commentées dans constants.ts, mais il me demande toujours le Claude ! Merci beaucoup pour ton partage.
Et niveau vitesse de génération de tokens, ça donne quoi chez toi ? J'espère que c'est plus rapide que chez moi : j'ai quasiment le temps de manger un casse-croûte puis de faire une sieste avant d'avoir le résultat final d'un prompt 😄
@@codeconcept A partir du lancement du prompt: "Create a todo list with vuejs", jusqu'au résultat final j'ai 7 minutes. J'hésite à upgrade mon setup avec 2 msi ventus 2x rtx4070ti super 16gb gddr6x, qu'en penses-tu ?
Sinon il n'y a pas de VPS avec des GPU ? J'ai cru comprendre que ce qu'il fallait c'est de la VRAM. Une RTX 4090 n'a que 24 Go de VRAM, là où une A100 a 40 à 80 Go de VRAM. Et même 141 Go de VRAM pour les H200. À priori pour faire tourner correctement des modèles de 7B (comme Mistral 7B), il faut environ 8 Go de VRAM. Donc normalement ça devrait bien tourner avec ta AMD Radeon Pro 5500 XT. Après les modèles d'IA sont souvent optimisés pour CUDA, qui est exclusif aux GPU Nvidia. AMD propose ROCm (Radeon Open Compute), mais son support est beaucoup moins répandu et pas toujours stable. Sinon tu peux tester avec Phi 3 (3B) ou Gemma 2 (2B). Ce sont de très petit modèle qui performent bien. Ils nécessiteront moins de VRAM, et seront plus rapide, après j'imagine qu'il ne faudra pas s'attendre à des performance de fous, mais ça peut valider le concept et l'idée d'investir dans une carte graphique Nvidia ou d'utiliser un VPS avec des GPU plus puissants.
Excellent tuto, merci, c'était super clair et pédagogique. 👍
Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
Merci beaucoup pour cette mise à jour 🙏
merci pour la vidéo top et la démonstration
bonjour, je ne vois pas le paragraphe avec les 2 lignes de codes, pourrais tu le donner? et le constant me semble plus court chez moi
Suepr vidéo merci. Tu penses qu'on peut faire des choses similaires avec le dernier Apple mini M4 ? D'avance merci pour ta réponse
Il ne reste plus qu'à attendre le retour de quelqu'un qui a une config équivalente. En tous cas, ce sera (bien) plus rapide que sur ma brouette 😅 (un Mac avec un i7 et pas beaucoup de RAM)
@@codeconcept peut-être que les puces silicon avec bcp de ram ca le fera. Les derniers Mini M4 sont taillé pour cela normalement.
bonjour, j'ai copilot github pour vs, et aussi un abonnement chatgpt mais pas de clé d'api comment faire pour se servir de se repo?
merci beaucoup
Merci pour la vidéo. Est-il possible d'utiliser l'API Claude / Anthropic en illimité et gratuitement ? Merci
Merci :) Quand on utilise des LLMs d'une entreprise depuis son site, c'est généralement gratuit, et quand on l'utilise via une API, c'est généralement payant.
super vidéo. J'ai un problème qui s'affiche "the operation is insecure" avec groq et "There was an error processing your request: No details were returned" avec ollama. est-ce que quelqu'un peut m'aider?
est que bolt new en local fonctionne avec une clé openai chatgpt, car je n'ai jamais réussi à le faire fonctionner
Oui, à condition de renommer ".env.example" en ".env.local". J'ai pas essayé personnellement car j'ai installé un LLM en local. A voir ce que d'autres qui ont des abonnements ont fait.
Utilisant Bolt et Cursor de manière intensive, je croyais pouvoir intégrer de manière fluide à mon workflow.
Mais, mon constat est que si on n’est pas un très bon développeur, il est difficile d’être un bon prompt engineer …
Pour les cas basiques, comme un blog, c’est accessible à tous.
Mais des que l’on code des fonctionnalités avancées, cela peut devenir le chaos.
A ceux qui tremblent face à l’IA, il s’agit ( aujourd’hui pour le moins ) juste d’un attracteur d’attention.
Si vous n’êtes pas bon pour faire des pull requests, et distinguer les bons des mauvais patterns je vous souhaite bien du courage. Car quand une modification de 100 lignes est proposée, il peut être difficile de distinguer le vrai du faux.
Quand on pèse le coût énergétique et le retour sur investissement qui n’est pour l’heure pas garanti, je ne vois pas, de ma modeste condition de grands changements.
Si vous tabulez rapidement dans un environnement professionnel, on vous repère très vite …
Je pense que ce sont des outils qu'il faut suivre pour savoir à quoi en attendre. Pour ce qui est de créer rapidement une app standard comme il y en a tant en info de gestion (du CRUD amélioré), ça fait gagner du temps.
J'ai généré tout à l'heure une application mobile hybride Ionic avec un backend Node / Express et une authentification JWT : c'est clairement du temps de gagné, qui peut être consacré à des fonctionnalités plus intéressantes faites à la main.
Après, en tant que dev, je regarde au moins autant comment ajouter des fonctionnalités de recherche plus efficaces via des DB Vectorielles, ainsi que la possibilité de créer des assistants entrainés sur des données personnelles. Et c'est franchement sympa d'avoir une recherche basée sur le sens plutôt que sur des mots clés.
Après, quand arriveront les nouvelles génération d'IA pour le dev - peut-être basées sur la fameuse architecture JEPA (mais peut-être autre chose dont on n'est pas au courant) -, là, elles pourront peut-être s'attaquer à des développement intermédiaires voire avancés. C'est en tous cas l'objectif annoncé (une rupture d'avec les LLMs).
Pour les non-devs, ces outils donnent la possibilité de créer des applications impossibles à créer autrement sans savoir programmer. Ce sont des gens du métier qui veulent concrétiser une idée. On n'est pas en compétition. Et pour des applications qui seront destinées à quelques dizaines ou centaines d'utilisateurs, ça peut largement suffire. Et si l'application rencontre son public, il sera temps de la faire réécrire par des devs. Mais il y a tellement d'applications qui ne rencontrent pas le succès espéré.
@ je vous remercie pour votre réponse, et des points de nuance apportés.
Salut, tu as quoi comme config je veux dire, quel genre d’i7 et combien de ram dispo ?
Salut, un 3,8 GHz Intel Core i7 8 cœurs, avec une modeste RAM de 8 Go 2667 MHz DDR4 (quels radins chez Apple de ne pas mettre 16 Go d'emblée) et une aussi modeste AMD Radeon Pro 5500 XT 8 Go.
Ca me suffit largement pour le dev à la main. Mais pour faire mumuse avec des IA locales ... 🐌 😄
@codeconcept merci 🙏, je ne suis pas certain que ta carte soit compatible, mais tu as une version Rocm d’Ollama
Il faut passer à minima à un Mac Mini M4, ça dépote pour du dev, et pour un prix ridicule ! Ses 16 Go de mémoire unifiée sont top pour de l'inférence...
Mes deux RX570 sont trop veilles, pas un probleme de performance mais de chipset de calcul, Rocm incompatible... Sinon j'ai bien les lignes de commentées dans constants.ts, mais il me demande toujours le Claude ! Merci beaucoup pour ton partage.
C'est bon ça marche, dommage qu'il ne puisse pas exploiter mes RX mais ça marche bien tout de même.
Et niveau vitesse de génération de tokens, ça donne quoi chez toi ? J'espère que c'est plus rapide que chez moi : j'ai quasiment le temps de manger un casse-croûte puis de faire une sieste avant d'avoir le résultat final d'un prompt 😄
@@codeconcept A partir du lancement du prompt: "Create a todo list with vuejs", jusqu'au résultat final j'ai 7 minutes. J'hésite à upgrade mon setup avec 2 msi ventus 2x rtx4070ti super 16gb gddr6x, qu'en penses-tu ?
5 minutes avec mon macbook M1
❤
Il lui fait environ 4 min pour faire le premier jet d'une app simple (je pense que c'est le cpu qui bosse, ryzen 9 7950)
Sinon il n'y a pas de VPS avec des GPU ?
J'ai cru comprendre que ce qu'il fallait c'est de la VRAM.
Une RTX 4090 n'a que 24 Go de VRAM, là où une A100 a 40 à 80 Go de VRAM.
Et même 141 Go de VRAM pour les H200.
À priori pour faire tourner correctement des modèles de 7B (comme Mistral 7B), il faut environ 8 Go de VRAM.
Donc normalement ça devrait bien tourner avec ta AMD Radeon Pro 5500 XT.
Après les modèles d'IA sont souvent optimisés pour CUDA, qui est exclusif aux GPU Nvidia.
AMD propose ROCm (Radeon Open Compute), mais son support est beaucoup moins répandu et pas toujours stable.
Sinon tu peux tester avec Phi 3 (3B) ou Gemma 2 (2B).
Ce sont de très petit modèle qui performent bien.
Ils nécessiteront moins de VRAM, et seront plus rapide, après j'imagine qu'il ne faudra pas s'attendre à des performance de fous, mais ça peut valider le concept et l'idée d'investir dans une carte graphique Nvidia ou d'utiliser un VPS avec des GPU plus puissants.
Oui, il y a le choix au niveau des VPS GPU.
Je vais tester Phi3 :)
Sur Razer avec rtx4070 ça tourne correctement
Merci pour ce retour d'expérience 😀
Mon extension chrome tourne mieux que Bolt
Et ça prend 5 minutes a installer si on a déjà ollama
C'est quoi comme extension ?
C'est quoi comme extension ?