Les 3 erreurs d'installation de Bolt les plus fréquentes et leur fix

Поділитися
Вставка
  • Опубліковано 6 січ 2025

КОМЕНТАРІ • 41

  • @loh3763
    @loh3763 День тому

    Excellent tuto, merci, c'était super clair et pédagogique. 👍

  • @SamsBackground
    @SamsBackground 18 днів тому +2

    Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore

  • @themike2009
    @themike2009 Місяць тому +1

    Merci beaucoup pour cette mise à jour 🙏

  • @redington3851
    @redington3851 Місяць тому +2

    merci pour la vidéo top et la démonstration

  • @Madum_tv
    @Madum_tv 11 днів тому

    bonjour, je ne vois pas le paragraphe avec les 2 lignes de codes, pourrais tu le donner? et le constant me semble plus court chez moi

  • @ThePrimeTech
    @ThePrimeTech Місяць тому +1

    Suepr vidéo merci. Tu penses qu'on peut faire des choses similaires avec le dernier Apple mini M4 ? D'avance merci pour ta réponse

    • @codeconcept
      @codeconcept  Місяць тому

      Il ne reste plus qu'à attendre le retour de quelqu'un qui a une config équivalente. En tous cas, ce sera (bien) plus rapide que sur ma brouette 😅 (un Mac avec un i7 et pas beaucoup de RAM)

    • @electroheadfx
      @electroheadfx Місяць тому

      @@codeconcept peut-être que les puces silicon avec bcp de ram ca le fera. Les derniers Mini M4 sont taillé pour cela normalement.

  • @Blm_64
    @Blm_64 Місяць тому

    bonjour, j'ai copilot github pour vs, et aussi un abonnement chatgpt mais pas de clé d'api comment faire pour se servir de se repo?

  • @AhmedIbrahimAbdallah-e4u
    @AhmedIbrahimAbdallah-e4u 24 дні тому +1

    merci beaucoup

  • @arnogos6174
    @arnogos6174 Місяць тому +1

    Merci pour la vidéo. Est-il possible d'utiliser l'API Claude / Anthropic en illimité et gratuitement ? Merci

    • @codeconcept
      @codeconcept  Місяць тому

      Merci :) Quand on utilise des LLMs d'une entreprise depuis son site, c'est généralement gratuit, et quand on l'utilise via une API, c'est généralement payant.

  • @calou31600
    @calou31600 27 днів тому

    super vidéo. J'ai un problème qui s'affiche "the operation is insecure" avec groq et "There was an error processing your request: No details were returned" avec ollama. est-ce que quelqu'un peut m'aider?

  • @elle-est-mythomane
    @elle-est-mythomane Місяць тому +1

    est que bolt new en local fonctionne avec une clé openai chatgpt, car je n'ai jamais réussi à le faire fonctionner

    • @codeconcept
      @codeconcept  Місяць тому

      Oui, à condition de renommer ".env.example" en ".env.local". J'ai pas essayé personnellement car j'ai installé un LLM en local. A voir ce que d'autres qui ont des abonnements ont fait.

  • @anthonyfreneat6555
    @anthonyfreneat6555 Місяць тому +2

    Utilisant Bolt et Cursor de manière intensive, je croyais pouvoir intégrer de manière fluide à mon workflow.
    Mais, mon constat est que si on n’est pas un très bon développeur, il est difficile d’être un bon prompt engineer …
    Pour les cas basiques, comme un blog, c’est accessible à tous.
    Mais des que l’on code des fonctionnalités avancées, cela peut devenir le chaos.
    A ceux qui tremblent face à l’IA, il s’agit ( aujourd’hui pour le moins ) juste d’un attracteur d’attention.
    Si vous n’êtes pas bon pour faire des pull requests, et distinguer les bons des mauvais patterns je vous souhaite bien du courage. Car quand une modification de 100 lignes est proposée, il peut être difficile de distinguer le vrai du faux.
    Quand on pèse le coût énergétique et le retour sur investissement qui n’est pour l’heure pas garanti, je ne vois pas, de ma modeste condition de grands changements.
    Si vous tabulez rapidement dans un environnement professionnel, on vous repère très vite …

    • @codeconcept
      @codeconcept  Місяць тому +3

      Je pense que ce sont des outils qu'il faut suivre pour savoir à quoi en attendre. Pour ce qui est de créer rapidement une app standard comme il y en a tant en info de gestion (du CRUD amélioré), ça fait gagner du temps.
      J'ai généré tout à l'heure une application mobile hybride Ionic avec un backend Node / Express et une authentification JWT : c'est clairement du temps de gagné, qui peut être consacré à des fonctionnalités plus intéressantes faites à la main.
      Après, en tant que dev, je regarde au moins autant comment ajouter des fonctionnalités de recherche plus efficaces via des DB Vectorielles, ainsi que la possibilité de créer des assistants entrainés sur des données personnelles. Et c'est franchement sympa d'avoir une recherche basée sur le sens plutôt que sur des mots clés.
      Après, quand arriveront les nouvelles génération d'IA pour le dev - peut-être basées sur la fameuse architecture JEPA (mais peut-être autre chose dont on n'est pas au courant) -, là, elles pourront peut-être s'attaquer à des développement intermédiaires voire avancés. C'est en tous cas l'objectif annoncé (une rupture d'avec les LLMs).
      Pour les non-devs, ces outils donnent la possibilité de créer des applications impossibles à créer autrement sans savoir programmer. Ce sont des gens du métier qui veulent concrétiser une idée. On n'est pas en compétition. Et pour des applications qui seront destinées à quelques dizaines ou centaines d'utilisateurs, ça peut largement suffire. Et si l'application rencontre son public, il sera temps de la faire réécrire par des devs. Mais il y a tellement d'applications qui ne rencontrent pas le succès espéré.

    • @anthonyfreneat6555
      @anthonyfreneat6555 Місяць тому

      @ je vous remercie pour votre réponse, et des points de nuance apportés.

  • @nislab_
    @nislab_ Місяць тому +1

    Salut, tu as quoi comme config je veux dire, quel genre d’i7 et combien de ram dispo ?

    • @codeconcept
      @codeconcept  Місяць тому +1

      Salut, un 3,8 GHz Intel Core i7 8 cœurs, avec une modeste RAM de 8 Go 2667 MHz DDR4 (quels radins chez Apple de ne pas mettre 16 Go d'emblée) et une aussi modeste AMD Radeon Pro 5500 XT 8 Go.
      Ca me suffit largement pour le dev à la main. Mais pour faire mumuse avec des IA locales ... 🐌 😄

    • @nislab_
      @nislab_ Місяць тому

      @codeconcept merci 🙏, je ne suis pas certain que ta carte soit compatible, mais tu as une version Rocm d’Ollama

    • @JohnMarcel666
      @JohnMarcel666 Місяць тому

      Il faut passer à minima à un Mac Mini M4, ça dépote pour du dev, et pour un prix ridicule ! Ses 16 Go de mémoire unifiée sont top pour de l'inférence...

  • @guicode5112
    @guicode5112 Місяць тому +1

    Mes deux RX570 sont trop veilles, pas un probleme de performance mais de chipset de calcul, Rocm incompatible... Sinon j'ai bien les lignes de commentées dans constants.ts, mais il me demande toujours le Claude ! Merci beaucoup pour ton partage.

    • @guicode5112
      @guicode5112 Місяць тому

      C'est bon ça marche, dommage qu'il ne puisse pas exploiter mes RX mais ça marche bien tout de même.

    • @codeconcept
      @codeconcept  Місяць тому

      Et niveau vitesse de génération de tokens, ça donne quoi chez toi ? J'espère que c'est plus rapide que chez moi : j'ai quasiment le temps de manger un casse-croûte puis de faire une sieste avant d'avoir le résultat final d'un prompt 😄

    • @guicode5112
      @guicode5112 Місяць тому

      @@codeconcept A partir du lancement du prompt: "Create a todo list with vuejs", jusqu'au résultat final j'ai 7 minutes. J'hésite à upgrade mon setup avec 2 msi ventus 2x rtx4070ti super 16gb gddr6x, qu'en penses-tu ?

    • @guicode5112
      @guicode5112 Місяць тому

      5 minutes avec mon macbook M1

  • @Talaria.School
    @Talaria.School Місяць тому +1

  • @loh3763
    @loh3763 День тому

    Il lui fait environ 4 min pour faire le premier jet d'une app simple (je pense que c'est le cpu qui bosse, ryzen 9 7950)

  • @TheRemiRODRIGUES
    @TheRemiRODRIGUES Місяць тому +1

    Sinon il n'y a pas de VPS avec des GPU ?
    J'ai cru comprendre que ce qu'il fallait c'est de la VRAM.
    Une RTX 4090 n'a que 24 Go de VRAM, là où une A100 a 40 à 80 Go de VRAM.
    Et même 141 Go de VRAM pour les H200.
    À priori pour faire tourner correctement des modèles de 7B (comme Mistral 7B), il faut environ 8 Go de VRAM.
    Donc normalement ça devrait bien tourner avec ta AMD Radeon Pro 5500 XT.
    Après les modèles d'IA sont souvent optimisés pour CUDA, qui est exclusif aux GPU Nvidia.
    AMD propose ROCm (Radeon Open Compute), mais son support est beaucoup moins répandu et pas toujours stable.
    Sinon tu peux tester avec Phi 3 (3B) ou Gemma 2 (2B).
    Ce sont de très petit modèle qui performent bien.
    Ils nécessiteront moins de VRAM, et seront plus rapide, après j'imagine qu'il ne faudra pas s'attendre à des performance de fous, mais ça peut valider le concept et l'idée d'investir dans une carte graphique Nvidia ou d'utiliser un VPS avec des GPU plus puissants.

    • @codeconcept
      @codeconcept  Місяць тому +1

      Oui, il y a le choix au niveau des VPS GPU.
      Je vais tester Phi3 :)

  • @bleq958
    @bleq958 Місяць тому +1

    Sur Razer avec rtx4070 ça tourne correctement

    • @codeconcept
      @codeconcept  Місяць тому

      Merci pour ce retour d'expérience 😀

  • @mayoniaise5169
    @mayoniaise5169 Місяць тому +1

    Mon extension chrome tourne mieux que Bolt

    • @mayoniaise5169
      @mayoniaise5169 Місяць тому

      Et ça prend 5 minutes a installer si on a déjà ollama

    • @codeconcept
      @codeconcept  Місяць тому

      C'est quoi comme extension ?

    • @Annabi_Mohamed
      @Annabi_Mohamed 3 дні тому

      C'est quoi comme extension ?