Voici comment utiliser GRATUITEMENT Bolt avec l'I.A. de votre choix

Поділитися
Вставка
  • Опубліковано 4 січ 2025

КОМЕНТАРІ • 182

  • @MsBowner
    @MsBowner Місяць тому +2

    Incroyable mec, je suis dev, je n'ai aucun intérêt, mais c'est tout de meme incroyable ce que tu nous présente.

    • @Baraka0369
      @Baraka0369 Місяць тому +1

      T’as tout intérêt justement
      Si tu loupes ça tu seras finies dans qlq années

  • @vahdettint
    @vahdettint Місяць тому +2

    Excellente découverte à suivre 😮🎉

    • @codeconcept
      @codeconcept  Місяць тому +2

      Ca a l'air prometteur, surtout si le gars continue sur sa lancée.
      Il risque même ... de se faire recruter par Stackblitz 😋

  • @michaelkihl
    @michaelkihl Місяць тому +2

    Salut ! J'ai vu ta vidéo dans mon fil UA-cam et j'ai tout de suite reconnu mon formateur d'Udemy. Ta vidéo est sympathique, mais j'ai encore des difficultés en développement. Je me forme seul et il n'y a personne autour de moi avec qui échanger. J'ai mis un like sur la vidéo. À très bientôt !

    • @codeconcept
      @codeconcept  Місяць тому +2

      Salut et merci :)
      Ca fait des années que je n'ai plus poste de formations sur Udemy. Je mets mes nouvelles formation sur mon teachable perso.
      Les difficultés en développement, tout le monde en a. Y compris les très seniors. Ils ont même de plus grandes difficultés car ils développent des choses plus compliquées. Mais ce qui compte, c'est de persévérer jusqu'à trouver la solution. Et parfois, le problème relevait de l'étourderie la plus basique 😅
      En tous cas, il faut persévérer et garder à l'esprit que le progrès, c'est deux pas en avant, un pas en arrière. Et garder courage quand on a l'impression de ne pas progresser.

  • @happyjulien6275
    @happyjulien6275 Місяць тому +1

    Franchement énorme merci à toi frère tu mérites bien plus d'abonnés

    • @codeconcept
      @codeconcept  Місяць тому +1

      Merci Julien 😀 !
      Le nombre d'abonnés dépend de l'exposition que m'accorde l'algo de UA-cam. Et je n'ai pas la main dessus.
      On vit déjà dans un monde où les algo décident de beaucoup de choses 😅

  • @sebastienrodriguez2491
    @sebastienrodriguez2491 Місяць тому +4

    Tout de même compliqué à suivre pour des néophites. En tout cas très intéressant de savoir que cela est possible , ne serait ce que pour se tenir au courant 👍

    • @codeconcept
      @codeconcept  Місяць тому +2

      Merci 😀
      C'est un peu comme pour les réseaux il a 20 ans : au départ, je me souviens que je devais expliquer aux entreprises clientes chez qui j'allais comment configurer leur carte réseau, partager une imprimante, relancer un service etc et maintenant c'est passé dans l'univers quotidien.
      Dans 10 ans, le marketing aidant, tout le monde saura quel modèle d'IA est utilise au boulot ou à la maison, combien de paramètres a leur I.A, la taille du contexte etc.
      D'autant qu'on aura le temps de se renseigner si les I.A bossent à notre place 😅

  • @ThePrimeTech
    @ThePrimeTech Місяць тому +2

    Elle est géniale ta chaîne

    • @codeconcept
      @codeconcept  Місяць тому

      Merci😀 Une petite chaine faite dans sa chambre. A l'ancienne 😄

  • @kratus60
    @kratus60 Місяць тому +1

    Merci pour le partage, c'est très intéressant, j'ai vite arrêté bolt c'est beaucoup trop limitant quand on est déjà dev. Par contre bosser sur un projet existant avec alors là !!!! 🔥

    • @codeconcept
      @codeconcept  Місяць тому +1

      Merci :) Etant dev également, je continue à développer à la main. Mais il faut continuer à se familiariser avec ces outils car ils vont être de plus en plus présents.
      Perso, je suis en train d'apprendre à faire de l'embedding + persistance des vecteurs obtenus dans une DB vectorielle, histoire de pouvoir faire des recherches sur du contenu privé. Je pense que c'est le genre de développements "hybrides" qu'on nous demandera en 2025 / 2026.

    • @kratus60
      @kratus60 Місяць тому

      @@codeconcept Je vois qu'on a des centres d'intérêt communs, je fais exactement le même travail actuellement. Je pense vraiment que l'embedding + vector db + LLM (RAG) va beaucoup apporter dans notre domaine. Que ça soit sur du contenu privé textuel.... ou du code :D

    • @TokenInvest
      @TokenInvest Місяць тому

      Comment faites-vous pour bosser sur un projet existant avec Bolt ?

  • @dservais1
    @dservais1 Місяць тому +2

    très intéressant merci !

  • @henochcamer3765
    @henochcamer3765 Місяць тому +4

    Merci pour l’info. Et effectivement j’ai l’impression que les non dev sont un peu les vaches à lait de ce type de nouveaux outils all-in-one…mais ça reste intéressant de voir ce qu’ils arrivent à produire avec.

    • @codeconcept
      @codeconcept  Місяць тому

      J'aime beaucoup tout ce qu'ils font chez Stackblitz. Vue la qualité de tout ce qu'ils ont sorti avant, il y a de très grandes chances qu'ils corrigent cette tendance de Bolt à tourner en rond sans fin dans certaines circonstances. C'est ce qu'il y a de plus frustrant pour le moment. Et qui coûte cher aux non-dev qui dependent du bouton 'fix problem' qui leur consomme leurs tokens. Mais en 2025, ce Bolt peut devenir bien meilleur et beaucoup moins coûteux. Et donc effectivement, intéressant pour les non devs qui pourront concrétiser sans se ruiner.

  • @malekmalek4536
    @malekmalek4536 Місяць тому +2

    merci pour la video ❤❤❤❤❤❤❤❤

  • @ibrahimwess8511
    @ibrahimwess8511 Місяць тому +2

    Super merci pour l'astuce

  • @TheRemiRODRIGUES
    @TheRemiRODRIGUES Місяць тому +3

    C'est intéressant de savoir que le code de Bolt est open source.
    Ce qui peut-être intéressant, c'est de voir les idées qu'ils ont mis en oeuvre pour générer de façon autonomes des applications.
    Je ne sais pas où en est AutoGPT, si ce n'est qu'ils 169k starts.
    Mais c'est aussi open source, et ça peut-être intéressant aussi de savoir qu'elles sont les paradigmes utilisés pour réaliser des agents autonomes, comprendre qu'elles sont actuellement leurs limites et tenté de réfléchir à des solutions.

    • @codeconcept
      @codeconcept  Місяць тому +5

      C'est le genre de questions qu'il faudrait que je pose, à l'occasion d'un épisode 2 de podcast, à l'expert en I.A. qui était venu ici.
      Ca me fait penser que je n'ai même pas mis d'étoile au fork de bolt.
      C'est fait 😀

  • @Cryptooub
    @Cryptooub 9 днів тому

    Bravo très intéressant

  • @tontondofus
    @tontondofus Місяць тому +1

    Hello ! Merci pour ta vidéo. Avec un MacBook m3 pro , on peut le faire tourner en local ? Je parle de la version de stackblitz pas celle où on peut changer les IA

    • @codeconcept
      @codeconcept  Місяць тому

      Hello et merci à toi 😀 Vu les retours d'expérience que j'ai lu dans les commentaires, il faut vraiment avec une grosse config. Et plusieurs GPUs. Même dans ces conditions, ça sera moins fluide que la version en ligne.
      Si en revanche en 2025 de nouveaux petits modèles dédiés au code sortent, là, ça pourra devenir intéressant en local. Qeu ce soit le projet originel ou le fork.

  • @RS-yj4ex
    @RS-yj4ex 7 днів тому +1

    Merci pour ta vidéo. Penses-tu qu'un mac mini m4 en config de base suffit pour l'installation de modèles en local?

    • @ahmedkerr2550
      @ahmedkerr2550 4 дні тому +1

      Sa tourne sans prob, par contre pense un gros ssd

  • @SamsBackground
    @SamsBackground 17 днів тому +1

    Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore

  • @ai.aspirations
    @ai.aspirations Місяць тому +1

    Thanks for sharing ❤

  • @randomvideo4461
    @randomvideo4461 Місяць тому +17

    Bolt en local avec des gpu, voilà vous avez recruté un stagiaire

    • @codeconcept
      @codeconcept  Місяць тому +2

      Un sacré assistant en puissance, quand il sera en version finale.
      J'espère que les stagiaires continueront à trouver des stages. Car rien de tel pour se frotter au bord... aux applications grandeur nature 😄

    • @pepeleherisson
      @pepeleherisson Місяць тому +3

      @@codeconcept il faut recruté un stagiaire pour gérer Bolt c'est ça la vraie combo gagnante!

    • @happyjulien6275
      @happyjulien6275 Місяць тому +3

      Ne sous-estimé pas les stagiaires

    • @NoName-wy5qr
      @NoName-wy5qr 3 дні тому

      Ont peut rajouter des bouton de vente?
      Ont peut poser un code manuel existant et l’améliorer ??
      Merci nous ont développe une app depuis 2 ans l’ia me fait flipper ça va vite mais pour une application comme la mienne je pense qu’un codeur et obligatoire du moins c la question que je me pose
      Notre application et fini y’a quelques modification et rajout a faire avec cette la je pourrais construire des fonctionnalités et les rajouter le code à mon code existant nous travaillons sur un projet sérieux avec l’ambition du million d’inscrits les premiers jours un développement modial avec la stratégie de la bombe quand l’application sortira tous le mode doit le savoir en même temps par divers stratégies pour cela nous cherchons une équipe dans le sud de la France pour travailler ensemble un bureau garage aménager sera à notre disposition d’après une société il reste peur de travaille l’application existe fonctionne yan2 3 modification à apporter ont cherche un codeur un marketing et un moteur filmeur car nous publions sur UA-cam nôtre développement si intéressé contact moi directement 0758917031 envoyer un message écrit ou vous expliquer et ont vous rappellera

  • @nellytube-63rl
    @nellytube-63rl Місяць тому +1

    Vraiment merci, exellent

  • @TimBnb
    @TimBnb Місяць тому +1

    Super contenu ! Est-ce que le preview s’affiche à côté du codage comme pour l’interface Bolt classique ?
    Je veux dire par-là d’avoir un aperçu d’exécution du code en temps réel

    • @6tokyt468
      @6tokyt468 Місяць тому +2

      Oui si vous utilisez un modèle avec au minimum 16/32K de contexte, en dessous, n'y pensez pas, Bolt (à l'heure actuelle) est hyper gourmand, pour gérer le mode "Canvas", il l'est encore plus.

  • @Leyriel
    @Leyriel Місяць тому +2

    Une fois l'installation fait en local, il faut quand même renseigner les clé API des différents LLM,que l'ont souhaite utiliser. Ce qui sous entend que l'ont va quand même devoir payer des tokens. A moins qu'il soit possible de lancer un LLM localement ?

    • @codeconcept
      @codeconcept  Місяць тому +5

      Pas il si on utilise un LLM installé localement, par exemple via ollama.

  • @alexandrequemy
    @alexandrequemy Місяць тому +3

    En plus de cout du GPU, il faut prendre en compte le cout de l'electricite. Pour les gros modeles, ca peut vraiment mettre a mal le portefeuille sur le long terme (typiquement, on peut taper facilement le 1kWh).

    • @codeconcept
      @codeconcept  Місяць тому

      @alexandrequemy Je viens de lire plus bas un retour d'utilisation de 500 à 1000 € annuel. Ca devient un budget de loisir. Et avec l'augmentation de l'électricité, d'un loisir motorisé 😄

  • @Madum_tv
    @Madum_tv Місяць тому +2

    J'ai installé bolt comme indiqué, j'ai mis la clef anthropic mais il dit que je n'ai pas de token....

    • @codeconcept
      @codeconcept  Місяць тому +1

      Je l'avais pas précisé dans la vidéo, mais il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local

  • @Madum_tv
    @Madum_tv Місяць тому +1

    mon pc windows ne reconnait pas la commande npm run dev avec vsc

    • @codeconcept
      @codeconcept  Місяць тому +1

      J'ai npm car j'avais déjà installé Node dans le passé. Et comme npm est installé en même temps que node :
      nodejs.org/en/download/package-manager
      J'ai aussi installé pnpm, qui est plus rapide pour l'installation de packages.

  • @mrskeud
    @mrskeud Місяць тому +1

    Bonjour et merci pour cette vidéo très instructive. J'ai une question de noob. Est-ce que les processeurs ARM (M4 Max en l'occurence) sont capables de faire tourner ces IA en locale ? Merci +++

    • @bourgogneguillaume
      @bourgogneguillaume Місяць тому +1

      essaye lm studio

    • @6tokyt468
      @6tokyt468 Місяць тому +1

      Un M4 fera tourner des modèles comme Qwen 2.5 32P 4Q (classe basse/moyenne) mais avec une vitesse de 11-12 tokens seulement par seconde, ce qui est extrêmement lent.
      Pour vous donner un ordre de grandeur, ce même modèle sur mon architecture atteint environ 38 tokens par seconde avec Ollama et environ 28 tokens par seconde avec LMStudio, et je peux vous assurer que c'est déjà très long !
      Si l'IA vous intéresse et que vous n'êtes pas dans l'urgence, je vous conseille d'attendre les prochaines générations pour investir dans une unité performante.

    • @codeconcept
      @codeconcept  Місяць тому

      @mrskeud 😀Des machines plus puissantes, de plus petits modèles très spécialisés : c'est probablement ce qui va faciliter l'utilisation de modèles en local. Et la patience effet.

  • @abelpouillet5114
    @abelpouillet5114 Місяць тому +2

    Du coup on attend une vidéo sur la gestion d'un egpu par cuda pour setup une démo de ce projet en local ?

    • @codeconcept
      @codeconcept  Місяць тому +1

      Je suis en train de me servir de ce fork en local avec un autre modèle que celui par défaut. Donc je vais faire une 2ème vidéo plus détaillée. Mais il faut une machine haut de gamme récente (hélas pas en ma possession) ou bien essayer de déployer sur un cloud GPU. Je vais essayer cette option :)

  • @Madum_tv
    @Madum_tv 5 днів тому

    la plupart du temps, il faut avoir des crédits, meme si on a l'abo chez tel ou tel fournisseur d'ia... Perso j'ai essayé de forcer ollama et mistral mais impossible, si tu as une solution...

  • @henrierhard4439
    @henrierhard4439 20 днів тому

    Merci pour ta vidéo ! J’ai un problème avec ma landing page genre en mode quand je fais le premier chargement de la page à chaque fois les éléments les animations clignotent et j’arrive pas à régler le problème. Et pourtant je lui dis de régler le problème mais il arrive pas.
    Quelqu’un peut m’aider ?🙏😂

  • @Bannideserps
    @Bannideserps Місяць тому +5

    Pour lînstall bolt en local en un click Pinokio computer pour les non initiée

    • @Ludovic.Teouri.988
      @Ludovic.Teouri.988 Місяць тому

      Mais du coup en local ça fonctionne toujours aussi bien qu'en ligne ou pas ? Ça fait 2 semaines je l'utilise et c'est vrai qu'il a du mal avec quelques trucs dès qu'on lui demande trop...

    • @Bannideserps
      @Bannideserps Місяць тому +1

      @@Ludovic.Teouri.988 J'utilise en local avec une 3080 j'ai pas moyen de comparer je n'utilise pas en online . Oui il commence avoir du mal après 2K de ligne de code j'ai remarquer du moins chez moi , Si tu n'as aucune notion de Dev pour un gros projet il faut absolument apprendre a segmenter pour le réaliser , fonction ,class , ect .. et donc bien le notifier dans tes prompts .

    • @willspaint5733
      @willspaint5733 Місяць тому

      je viens de mettre Pinokio bolt ce mais mais il reponds pas au demande api il maisune erreur There was an error processing your request: No details were returned

    • @codeconcept
      @codeconcept  Місяць тому +1

      @Ludovic.Teouri.988 Bolt est encore en beta. Mais on peut compter sur Stackblitz pour l'améliorer rapidement.

    • @scoremi
      @scoremi Місяць тому

      Salut sais tu pourquoi la preview avec pinokio pose problème une fois le code généré ?

  • @patrickdarbeau1301
    @patrickdarbeau1301 Місяць тому +1

    Bonjour, j'ai installé l'appli tout comme il est dit, seulement le serveur se lance, mais j'ai le message d'erreur suivant :
    Unexpected Server Error
    TypeError: Cannot read properties of null (reading 'useEffect')
    Que signifie ce message et que faire?
    Merci de votre réponse

    • @codeconcept
      @codeconcept  Місяць тому

      Bonjour, il est possible que vous ayez sauté une étape. Est-ce que vous avez bien installé les packages ? Ca se fait avec la commande "npm install" ?

  • @patrickdarbeau1301
    @patrickdarbeau1301 Місяць тому +1

    Suite...
    Les clefs, c'est dans .env ou .env.local qu'il faut les mettre ? Merci pour la réponse

    • @codeconcept
      @codeconcept  Місяць тому

      Il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local

  • @stephanepaz2259
    @stephanepaz2259 Місяць тому +1

    Merci pour la vidéo! Tu n'as pas parlé de l'hébergement sur serveur plutot qu'en local , c'est pas une bonne méthode ?

    • @codeconcept
      @codeconcept  Місяць тому

      Merci 😀 C'est vrai que ce serait possible d'héberger sur un serveur.
      Je viens de faire une petite recherche google, il y a déjà plein d'hébergeurs qui proposent des "cloud GPU". Est-ce qu'il est possible de s'en servir pour héberger un projet et pas uniquement d'entrainer des modèles ? J'ai pas encore creusé dans cette direction. Mais c'est tentant :)

    • @Bannideserps
      @Bannideserps Місяць тому

      ​@@codeconcept Tu peux héberger ton llm sur hugging face ou replicate , pour tester cela fonctionne très bien .

  • @RémiMorichon
    @RémiMorichon Місяць тому +4

    Est-il possible de faire un tutoriel détaillé pour tous les non développeur ?
    Car je nai pas tout compris 😢

    • @tesdy1450
      @tesdy1450 Місяць тому +3

      @@RémiMorichon en vrai, le tuto est déjà dans la vidéo, "gît clone" et tu as le projet sur ton Pc. Mais cela t'offrira que la vue avec le prompt, si tu as un abonnement a un des LLM, tu as juste a copie ta clé API dans le .env et utiliser le prompt.
      Je t'invite à lire le commentaire de 6tokyt468, ça va sûrement te couper l'envie ;)
      Ce n'est pas encore au point pour résumer

    • @codeconcept
      @codeconcept  Місяць тому +2

      @RémiMorichon Je ferai un tuto plus détaillé qui montrer comment installer les outils (git, l'IDE ...) 😉
      @tesdy1450 Il faut en effet une grosse config avec quelques GPUs ... ou bien un père noël (très très) généreux 😄

  • @lariost5683
    @lariost5683 Місяць тому +1

    Je vois qu'il y a dans la liste des LLMs proposés Ollama, comme Ollama fait tourner des modèles sur le CPU, est-il possible de faire tourner ce fork avec un LLM qui tournerait uniquement sur un CPU, est-ce que Bolt est trop exigeant pour que ça soit utilisable de la sorte ? A priori on peut penser que c'est plutôt consommateur si le type qui l'a forké dit qu'il le fait tourner avec 2 GPU, mais je serai curieux de voir ce que ça donne quand même.

    • @codeconcept
      @codeconcept  Місяць тому +1

      @lariost5683 Il y aura de plus en plus de retours d'expériences en commentaires. Mais probablement uniquement de testeurs qui ont de grosses config (ce qui n'est hélas pas mon cas).
      Avec ollama en effet, il est possible de faire tourner un LLM gratuit en local. Mais c'est le LLM qui va exiger beaucoup de resources (et un peu d'espace disque quand même). Bolt en lui-même n'est qu'une application web assez standard : ça n'est pas lui qui mettra l'ordinateur à genoux 😀

    • @Bannideserps
      @Bannideserps Місяць тому +1

      @@codeconcept On parle beaucoup de GPU , mais il ne faut surtout pas négliger la Vram très important , celons les config avec 8 Go Vram tu est vite limité au niveau du tampon de calcul du GPU , il faut les 2 : GPU et un max de Vram .

  • @abdellahb1398
    @abdellahb1398 Місяць тому +1

    C'est parfait , ca pourrait marcher avec un autre modèle d'IA que celui par défaut et du coup ca mettrait en concurrence les sociétés d'IA. Si j'ai pas de grosse carte graphique tu crois que je pourrai trouver une API moins chère que celle de Bolt ?

    • @codeconcept
      @codeconcept  Місяць тому

      Au moment où j'écris, je suis en train de me servir de Bolt en local et sans clé, avec Mistral 7B. Mais avec ma machine un peu ancienne, c'est très, très lent. Donc j'ai bien peur que te retrouves dans le même cas que moi.
      La solution alternative serait d'utiliser un GPU en ligne (cloud GPU), en déployant le fork sur un serveur. Je vais tester ça pour voir 😉

    • @onisake859
      @onisake859 Місяць тому

      @@codeconcept Bonsoir, merci beaucoup pour votre vidéo j'ai testé avec Mistral 7B également en l'installant grâce à LM Studio mais malheureusement quand je tente un prompt j'ai l'erreur suivante "only user and assistant roles are supported" avez vous rencontré ce problème ? J'ai testé avec un llama-2 1B ça fonctionne mais il ne gère pas les webcontainers j'ai l'impression

  • @pepitoche9343
    @pepitoche9343 Місяць тому +1

    Salut !
    Je découvre ta chaine vraiment super ! Question un peu bête, mais si on le run en local, et que les modèles (open AI, Mistral etc) font un nouveau modèle, j'imagine que il faut re actualiser notre "git clone" ? en gros en telechargeant maintenant le modèle on est restreint avec les LLM que Cole à implémenté ? +1 abo

    • @codeconcept
      @codeconcept  Місяць тому

      Salut :)
      Il suffirait dans ce cas d'ajouter une ligne dans le fichier app/utils/constants.ts pour lister des modèles qui n'apparaissent pas. Et pour mettre à jour le menu déroulant, c'est dans app/components/chat/BaseChat.tsx
      Mais au début, tant que le projet de Cole est en train d'évoluer rapidement, il serait sans doute préférable de récupérer régulièrement la version la plus récente du projet.

  • @alexandreegea5523
    @alexandreegea5523 Місяць тому +1

    Et je voulais savoir si en l'hébergeant nous-mêmes, on aura la même qualité de site ? Comme ce n'est pas la même qualité de calcul

    • @codeconcept
      @codeconcept  Місяць тому +1

      Un serveur est souvent bien plus puissant et mieux doté en RAM et GPU, donc c'est effectivement bien mieux. On peut alors faire tourner de plus gros modèles, bien plus vite.
      La solution que j'ai pas eu le temps de tester, ce serait d'utiliser des cloud GPU pour installer Bolt bolt.new-any-llm dessus.

  • @MaroGamerZ
    @MaroGamerZ Місяць тому +1

    Slt peux tu faire une nouvelle vidéo comment utiliser la clé api de perplexity en local sur bolt aparament elle est compatible avec open ai je pige rien du tout comment l'installer

    • @codeconcept
      @codeconcept  Місяць тому

      Je viens de sortir une vidéo sur des problèmes fréquents 😉
      Pour ce qui est de l'ajout de clé, j'avais oublié de dire qu'il fallait renommer .env.example et .env.local.

  • @mathieuc396
    @mathieuc396 Місяць тому +1

    Après avoir mis la clé API d openai j ai un message d erreur quand je fais une recherche : « there was an error processing your request : no details were return »
    Y a t il une mauvaise manip que j ai faite ?

    • @luboyys1465
      @luboyys1465 Місяць тому +2

      Peut-être que ma réponse est stupide, mais pour pouvoir utiliser l'API OpenAi, tu dois avoir ajouté des crédits sur ton compte pour que OpenAi convertisse ces crédits en tokens qui te permettront d'avoir des réponses de l'IA, je ne sais pas si tu la fais

    • @mathieuc396
      @mathieuc396 Місяць тому +3

      @ merci ! Je crois que c’est très certainement ça qui bloque je n’avais pas compris qu il fallait des token en plus de la version payante pour pouvoir utiliser la clé !
      Merci pour la réponse !

    • @codeconcept
      @codeconcept  Місяць тому

      @mathieuc396 C'est uniquement avec les LLMs installés en local que l'on peut se passer de clés.

    • @mathieuc396
      @mathieuc396 Місяць тому

      @ mais j ai une version payante d openai et j’ai généré la clé, je n ai pas essayé de m’en passer. En revanche j ai tjs ce message d erreur et je n’arrive pas à trouver comment contourner le problème ?

  • @SturakaMusic
    @SturakaMusic Місяць тому +6

    Poissble de faire une vidéo plus détaillé pour les gens qui comprennent pas puis pas d'api donc marche pas aussi si c'est possible de faire une nouvelle vidéos qui explique mieux merci :))

    • @codeconcept
      @codeconcept  Місяць тому

      Je viens de mettre en ligne une vidéo plus détaillée 😉

  • @tomsbeer51400
    @tomsbeer51400 Місяць тому +2

    Bonjour, cela fait quelques jours que j'utilise TOLK et le produit ne m'a pas conquis. Beaucoup d'erreur dans la programmation. Sur Python, TOLK propose des bibliothèque non à jour. Lorsque l'on déploie notre programme. Il y a encore du taf derrière ! si l'on ne maitrise pas le langage on peut vite devenir larguer !
    En tout cas votre vidéo est sympa, j'ai appris des choses intéressantes.

    • @codeconcept
      @codeconcept  Місяць тому

      Merci :) Pour le moment, toutes des IA qui aident à la programmation font au maximum 70% du travail. Savoir programmer reste un atout majeur.

  • @LaurentBrugiere
    @LaurentBrugiere Місяць тому +16

    Merci pour cette vidéo.
    Bolt est une catastrophe.
    Effectivement, après l'effet Wow, et payé un abonnement, la frustration et la colère arrive très vite tant bolt est incapable de gérer correctement un projet plus long qu'une seule page.
    Il est incapable de corriger des erreurs.
    Il est feneant, on modifiant le code avec des mentions du type // ici le code précédent //
    Il fige trop souvent, ce qui oblige a cliquer sur retry... Et de bouffer du token.
    Pour moi, la question est vite répondue :
    Juste bon à créer une interface front simple.
    J'annule mon abonnement.

    • @evian8976
      @evian8976 Місяць тому +4

      Toujours la même chose avec ces outils malheureusement
      aider-chat c'est pas trop mal en comparaison, on me dit qu'il faut peut être travailler plus les prompts mais à partir de là autant coder manuellement quoi

    • @werty999
      @werty999 Місяць тому +3

      je confirme, pour un usage basique , il n impressionne que les non initiés , des que l'on gratte sur un projet un chouia complexe , il ne fait que tourner en boucle sur ses propres erreurs et paradoxalement se met à bouffer voracement vos tokens sur des erreurs que lui même à génère.

    • @cestcholeschoishow6250
      @cestcholeschoishow6250 Місяць тому +1

      Oui, j'ai remarqué ça, j'ai compris que la technologie était encore trop immature pour sortir des sous. Si je dois payer c'est pour un truc qui marche au moins en grande partie.

    • @Serge42400
      @Serge42400 5 днів тому

      Et tu va faire quoi du tu codes plus ?

    • @LaurentBrugiere
      @LaurentBrugiere 5 днів тому

      @Serge42400 si, je code avec Windsurf. Une application géniale qui s'installe sur mon PC. Avec l'IA, c'est ouf, Elle code, lance, test et résoud les bugs.

  • @Talaria.School
    @Talaria.School Місяць тому +2

  • @pauldoussiere4545
    @pauldoussiere4545 25 днів тому +1

    Si j' utilise une clef openAI ou Claude, est ce que je vais avoir besoin d un super ordinateur ou c est seulement lorsque on fait faire tourner des ia comme llama en local ?

    • @blackridder22
      @blackridder22 23 дні тому

      cela consomme de CPU/GPU que quand tu l'ia commence a generer des codes, des telechargement, des ressources externes pour venir completer la tache que tu as demander, asure toi d'avoir un minimum 8 jusqu'a 60 GO RAM pour bien tourner, et au moin 25 Go d'espace pour le telechargement, (oui, un beau pactole haha)

  • @duboismarie9616
    @duboismarie9616 Місяць тому

    Bonjour, suis je la seule à avoir : remix vite:dev
    'remix' n’est pas reconnu en tant que commande interne
    ou externe, un programme exécutable ou un fichier de commandes.
    Merci

    • @zarnergun
      @zarnergun Місяць тому +2

      Il suffit que tu ajoutes la dependance :
      npm install remix

    • @khloebayonnecastador4746
      @khloebayonnecastador4746 Місяць тому

      ​@@zarnergunje fais ça ca s'installe mais quand je vérifie rien

    • @zarnergun
      @zarnergun Місяць тому

      @@khloebayonnecastador4746 ah pardon sur mon manjaro j'ai eu la même absence de dépendance j'ai ajouté et ça fonctionne.

    • @codeconcept
      @codeconcept  Місяць тому

      @duboismarie9616 Bonjour, j'ai eu le problème lors d'une installation. Parfois il faut supprimer le répertoire node_modules et le fichier pnpm-lock et refaire une installation via : pnpm i
      @zarnergun Oui souvent, il suffit d'installer le seul package manquant.

  • @Don-21-
    @Don-21- Місяць тому +1

    Merci sans doutes très utile mais je suis un noob du dev et j’y comprend rien 😅 mais merci quand même 😉

    • @codeconcept
      @codeconcept  Місяць тому +1

      Je viens de sortir un tuto plus détaillé. Peut-être que ce sera plus clair 😉

  • @echelon3410
    @echelon3410 Місяць тому +5

    Quand on voit les commentaires, je me dis qu'il y a encore du boulot avant que les non-devs arrivent à se servir d'une AI pour nous remplacer 😅

    • @codeconcept
      @codeconcept  Місяць тому

      On n'est pas en compétition : les non-devs ont souvent une meilleure connaissance métier et veulent créer des applications qui répondent à des problèmes qu'ils connaissent.
      Nous, on créé souvent des appli sans avoir testé que quelqu'un a le problème que notre app résout 😄
      On sera remplacé ... par des devs qui savent se servir des I.A. Ou plutôt, le nombre de postes de devs diminuera car 2 devs pourront faire le boulot de 4 dans quelques années.

    • @Serge42400
      @Serge42400 5 днів тому

      Pardon

  • @PhunkyBob
    @PhunkyBob Місяць тому +2

    Je ne comprends pas pourquoi il faut une "grosse machine" pour faire tourner l'application, alors que ce n'est qu'une interface qui fait appel à des IA distantes...

    • @codeconcept
      @codeconcept  Місяць тому +2

      @PhunkyBob Il faut une machine très puissante pour faire tourner les LLMs en local. Sinon, en utilisant une API distante, un ordinateur de base suffit amplement. Mais à ce moment là, il faudra payer un abonnement.

    • @Madum_tv
      @Madum_tv Місяць тому

      @@codeconcept je ne vois pas comment l'utiliser sans abonnement

  • @fredl9815
    @fredl9815 Місяць тому +8

    Avec toutes les avancées dans les langages de haut niveau je trouve que le plus simple et le moins cher c’est d’apprendre à coder

    • @codeconcept
      @codeconcept  Місяць тому +1

      @fredl9815 C'est mon avis également :les non-dev vont devoir apprendre à programmer un minimum (ne serait-ce que pour économiser en tokens), les devs à utiliser les I.A. pour gagner en vitesse sur les taches répétitives.

    • @francoisorega9692
      @francoisorega9692 Місяць тому

      bien dit chef !

  • @bones.24
    @bones.24 Місяць тому +2

    Comment est-ce gratuit alors qu’on doit mettre une API key?

    • @kyroftn
      @kyroftn Місяць тому

      réel réel !!!

    • @codeconcept
      @codeconcept  Місяць тому

      En n'utilisant pas d'API key et en utilisant plutôt en local un LLM gratuit. Par exemple avec ollama, il suffit de faire un : ollama run [nom-de-modèle].
      Mais il faut avoir une bonne machine et être un peu patient car les réponses vont être plus lentes que sur les serveurs de Stackblitz.

    • @bones.24
      @bones.24 Місяць тому

      @ en effet, mais qu’en est-il des autres LLM, Claude sonnet est plus optimisé pour crée des applications.

    • @codeconcept
      @codeconcept  Місяць тому

      @bones.24 L'auteur du fork de Bolt est emballé par Qwen-2.5-Coder-32b pour le dev. Mais de nouveau, va falloir avoir la machine qui suit

    • @bones.24
      @bones.24 Місяць тому

      @ bien reçu

  • @zzz12466
    @zzz12466 Місяць тому +1

    S'il y a un tuto pour utiliser ça gratuitement je veux absolument

    • @codeconcept
      @codeconcept  Місяць тому +2

      Je suis en train d'utiliser Bolt gratuitement en local avec Mistral 7B. Donc je pourrai détailler les étapes que j'ai suivies 😎
      Mais c'est clair qu'avec ma machine de 3 ans de moyenne gamme, la génération de code est trèèèès lente.

  • @rank8467
    @rank8467 Місяць тому +2

    Est-ce que les Keys API sont gratuites?

    • @tesdy1450
      @tesdy1450 Місяць тому +2

      Non mais tu peux toujours tenter d'installer un LLM en local mais attention, il faut une bonne bécane (surtout la partie GPU)

  • @nicolasbertholet5541
    @nicolasbertholet5541 Місяць тому +2

    l ' électricité c est pas gratuit non plus sauf si tu bosses chez edf ... les 500 euros ce sera la facture electrique

    • @ascensionspirituelle7287
      @ascensionspirituelle7287 Місяць тому +1

      Tu l'ouvres pour d'autres et tu partages les frais

    • @codeconcept
      @codeconcept  Місяць тому

      @nicolasbertholet5541 C'est pas faux. Si une bonne âme veut faire un retour sur ses factures EDF avant et après l'achat d'un ou deux GPUs, ça m'intéresse.
      Bon, ça doit se trouver sur internet. Ou se calculer à partir des specs de la bête.

    • @codeconcept
      @codeconcept  Місяць тому +2

      @@ascensionspirituelle7287 Des mini-datacenters par immeuble. Comme ce que font les Américains avec leurs machines à laver au sous-sol 😄

    • @cedrictrachsel8579
      @cedrictrachsel8579 Місяць тому +2

      @@codeconcept je suis en Suisse chez bkw à 24.54 centime le kwh. Je me suis monté un dell en serveur avec 32Go de ram et deux cartes nvidia quadro p5000 (2x16Go de ram vidéoe) le tout pour 800€ (c'est de l'occasion). Pour des raisons de prix j'allume ma machine quand j'en ai besoin, hier pour 8h d'utilisation elle m'a consommée 610 Wh (0.610kwh) soit environ 15c. J'ai fait le constat suivant, pour mon utilisation ça me coûte moins chère d'utiliser gpt4o-mini ou llama3.1-70b (chez together) que d'utiliser ma machine pour l'inférance qui rame avec llama 3.1-70b mais est très véloce avec llama 3.2-11b.
      donc si je devais utiliser bolt en local j'utiliserai soit avec openai ou together ou mistral (pour info on peux avoir des api gratuire chez Groq (avec un q par un k) et mistral

    • @bertrand3055
      @bertrand3055 Місяць тому +1

      Cogénération : chauffage hivernal inclus ❗❗❗

  • @Serge42400
    @Serge42400 5 днів тому

    Vous dites ?

  • @willspaint5733
    @willspaint5733 Місяць тому

    cela ne fonctionne pas

  • @theeagle450
    @theeagle450 Місяць тому +2

    Désolé je pige rien a ce que tu fais, je ne suis pas technicien mais j'aimerais beaucoup avoir bolt gratos.

    • @codeconcept
      @codeconcept  Місяць тому +3

      Pas de problème, maintenant que j'ai passé plus de temps à jouer avec, je vais pouvoir faire une vidéo plus détaillée ;)

    • @MgbTrading
      @MgbTrading Місяць тому

      ​@@codeconcept bonsoir
      Merci encore pour tn partage 🙏
      Tu as donc prévu de nous faire une vidéo tuto sur l'installation complète de bolt que Cole à développer ?
      Ps : je suis sur Windows, j'ai "essayé" mais rien ne se lance j'ai tellement de message d'erreur 😂🎉

  • @olivierf695
    @olivierf695 Місяць тому +4

    J'ai pas compris une seule phrase...

    • @werty999
      @werty999 Місяць тому +1

      pourtant , c est facile en interpolant le flood tu upscales la frame digital en passant par un swith level plus underground , CPU data validation oblige, et en suivant mon simple conseil tu deviendras un pro en application fullstack sauf si évidemment tu utilises des boites containers.en tout cas un fork masterclass c est sur !

    • @codeconcept
      @codeconcept  Місяць тому

      @olivierf695 Quand même quelques unes 😀 Certains passages parlaient probablement davantage aux développeurs. Pour le reste, à force de voir passer les mêmes specs, ça va finir par devenir évident. Je me souviens de l'époque où le grand public ne savait pas ce qu'était une adresse IP ou un routeur, et maintenant, c'est aussi quelconque qu'une plaque d'immatriculation ou un rond point

  • @alainherve8030
    @alainherve8030 Місяць тому +1

    Il faut optimiser le prompt pour limiter le nbre de requêtes également, c'est complètement identique aux autres outils utilisant l'IA

  • @xXxOoFLORIANoOxXx
    @xXxOoFLORIANoOxXx Місяць тому +1

    Gratuitement ?
    Mais si on met une clé API, les tokens sont PAYANT, nan ?

    • @codeconcept
      @codeconcept  Місяць тому

      C'est pour ça qu'il ne faut pas en mettre et installer des modèles gratuits en local 😄 Ce que j'ai fait ce soir. Mais il faut avoir un ordinateur puissant et gavé de mémoire ainsi qu'un bon GPU.
      Sinon, quand on n'a pas de machine adéquate (la mienne ne coche aucune des 3 cases précitées), il est possible, grâce à ce fork de Bolt, d'utiliser de nombreux autres modèles payants mais moins coûteux.
      Ou encore, en fonction de la tâche à developper au sein d'une même application, switcher d'un modèle à l'autre en fonction de la fonctionnalité que l'on est en train de développer.

    • @matthieubouillot469
      @matthieubouillot469 Місяць тому

      @@codeconceptcomment ça des modèles gratuits en local ? Parce que avec le fork on peut que mettre des Clé Api payante ?

  • @moneyfr
    @moneyfr Місяць тому +2

    j'ai demandé fais moi un site de restaurant moderne => une maquette bof bof

    • @codeconcept
      @codeconcept  Місяць тому

      Pour les maquettes, V0 de Vercel est probablement plus adapté. Ca permet de partir sur quelque chose d'assez joli puis de continuer soi-même à la mano

  • @benevolarX
    @benevolarX Місяць тому +4

    Je suis l'actualité des prix des composants de pc (les prix indiqués sont à titre indicatif, beaucoup de vendeur rajoutent leur marge)
    rtx 3060 8go : trop cher, même prix que le modèle 12go
    rtx 3060 12go : 250-300e (prix gonflé car très répandue chez les joueurs)
    rtx 3060 ti 8go : 300-350e
    rtx 3070 8go : 350-400e
    rtx 3080 10go = trop cher car production des rtx 3000 arrêté depuis + 1 an (début de sorti des rtx 4000)
    rtx 4060 8go : 250-300e
    rtx 4060ti 8go : 330-380e
    rtx 4060ti 16go : 400-500e (trop cher, la 4070 est toujours préférable à celle ci malgré les 16go de vram)
    rtx 4070 12go : 500-550e (légèrement trop cher par rapport à la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 super)
    rtx 4070 super 12go : 550-600e (meilleur rapport perf / prix de la génération 4000)
    rtx 4070 ti 12go : 700-800e trop cher (quasi même puissance de calcul que la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 ti super)
    rtx 4070 ti super 16go : 850-1000e (trop cher)
    rtx 4080 16go : modèle dont la production a cessé depuis la sorti de la 4080 super
    rtx 4080 super 16go : 950-1200e (trop cher)
    J'ai volontairement omis la rtx 3050 (carte de bureautique) et les modèles à +1000e (rtx 3080 ti, rtx 3090, rtx 4090)
    Pour ce qui est de l'utilisation de 2 gpu identique (via crossfire ou sli) c'est une feature qui n'est pas présente sur tout les modèles et qui a été abandonné avec le temps car trop niche en terme d'utilisation et moins rentable pour l'utilisateur que de revendre son gpu pour un modèle plus récent.

    • @Unnaymed
      @Unnaymed Місяць тому +2

      Conclusion, nvidia c'est trop cher 😆 vivement de la concurrence et des cartes avec 16-24go de ram pas cher.

    • @codeconcept
      @codeconcept  Місяць тому

      @benevolarX Merci 😀 L'auteur du fork avait deux cartes de 24 Go si je me souviens bien.

    • @codeconcept
      @codeconcept  Місяць тому +1

      @@Unnaymed Le problème, c'est que nvidia serait plutôt parti pour tuer ses concurrents. Ca couplé à l'augmentation du prix de l'électricité, faire tourner en local des I.A. (sans attendre des plombes) va être réservé à minima aux PME.

    • @zzz12466
      @zzz12466 Місяць тому

      @@Unnaymed j'en ai acheté sur aliexpress, ça passe lol

  • @flomix75
    @flomix75 Місяць тому +2

    Sincèrement, si le ou les tous premiers prompts sont ultra bien pensés, ça coute pas non plus une fortune, avec 50 balles tu peux en faire des choses. Le seul soucis de Bolt je trouve c’est qu’une fois qu’il y a un bug dans le code généré il tente de résoudre les problèmes mais n’y arrive jamais et c’est là qu’il vaut mieux comprendre qu’il est inutile de cramer tous ses tokens, il vaut mieux recommencer un nouveau projet avec de meilleurs prompts. En gros, comme pour tous projets, il faut que ça soit carré avant même de commencer à coder sinon ça sera forcément une galère

    • @codeconcept
      @codeconcept  Місяць тому +1

      Merci pour ce retour d'expérience.
      J'ai l'impression que lovable et windsurf bouffent moins de token quand on veut corriger un bug. Je ne sais plus sur lequel des deux on peut choisir de générer uniquement un morceau de code précis en cliquant sur le nom d'une fonction.
      Bolt va probablement s'améliorer à ce niveau là également.

    • @flomix75
      @flomix75 Місяць тому

      @@codeconcept ah oui c’est pas mal de reprendre un bout de code, et oui Bolt va forcément évoluer, dans 6 mois ça sera béton 😜

  • @bourgogneguillaume
    @bourgogneguillaume Місяць тому +1

    super vidéo, merci