Use bolt.new GRATUITAMENTE e gere sites e landing pages INFINITOS NO SEU PC

Поділитися
Вставка
  • Опубліковано 1 гру 2024

КОМЕНТАРІ • 51

  • @felvieira_dev
    @felvieira_dev  19 днів тому +2

    Pessoal aprendam a rodar o repo direto do pc no windowsl : ua-cam.com/video/NBL8SbVsPBw/v-deo.htmlsi=lJoqSdbgFS0-rfNf
    Já pensou em usar qualquer rosto direto na webcam? Eu te ensino deepfake facil e grátis no ua-cam.com/video/y8qIrKrWkWA/v-deo.html

  • @DarokViana
    @DarokViana 19 днів тому

    Inscrito, meu mano!

  • @MatheusSilva-qm3ph
    @MatheusSilva-qm3ph 22 дні тому

    Top.....
    Pedimos mesmo, valeu!

  • @mosle96
    @mosle96 9 днів тому

    Amigos que estão com problemas para rodar e recebendo o problema de API, utilizem o Chrome Canary (navegador para desenvolvedores). Vale salientar que pra inserir a Key no .env file tem que dar um espaço depois do caracter "=". Abraços e boa sorte!

    • @mosle96
      @mosle96 9 днів тому

      api key do ollama é o local host que a própria llm cria, por padrão localhost:11434

  • @Richard.bassan
    @Richard.bassan 21 день тому

    Excelente conteudo

  • @burrinhojoga7626
    @burrinhojoga7626 22 дні тому +1

    Excelente video! Se eu quiser usar outra LLM, é o mesmo procedimento pra aumentar o limite de caracteres? Qual voce recomenda pra uma placa mais fraca? tenho uma 3060

    • @felvieira_dev
      @felvieira_dev  22 дні тому

      @@burrinhojoga7626 sim o mesmo procedimento . Então o ideal é ir testando os carácteres ali aumentando pouco a pouco e ver como se sai.

  • @samequemedeiros1765
    @samequemedeiros1765 17 днів тому

    Felipe, você precisou da API base do Ollama pra rodar o local? não consegui de jeito sem nenhum sem api.

    • @felvieira_dev
      @felvieira_dev  16 днів тому

      Rodar com llm local tem que rodar o ollama antes de subir o bolt, se nao ele nao reconhece

    • @samequemedeiros1765
      @samequemedeiros1765 16 днів тому

      @@felvieira_dev Mas rodando isso localmente precisa de API ou não precisa?

    • @felvieira_dev
      @felvieira_dev  16 днів тому

      @@samequemedeiros1765 precisa ou local ou online, pq eh ele que faz a inteligencia da criacao do codigo

    • @samequemedeiros1765
      @samequemedeiros1765 16 днів тому

      @@felvieira_dev Foi isso mesmo no meu caso achei que estava rodando e deu algum bug que o terminal não tava mais executando em segundo plano então deu certo, só o que não rodou foi a visualização do previu project do bolt.

    • @lucassantana4875
      @lucassantana4875 16 днів тому

      @@samequemedeiros1765 Na verdade não vai ter lá um campo "api" que vc copia e cola... o bolt identifica que vc tem um llm rodando local e o localhost se torna sua "api"

  • @samequemedeiros1765
    @samequemedeiros1765 17 днів тому

    No meu caso mesmo com as APIS não funciona, outra questão é que o ollama no terminal pra instalar na pasta do bolt retorna esse erro:ollama run ollama run qwen2.5-coder
    pulling manifest
    Error: pull model manifest: file does not exist

    • @felvieira_dev
      @felvieira_dev  16 днів тому

      O ollama eh rodado no contexto do seu pc, nao precisa rodar na pasta do bolt nao. Eh baixar o ollama instalar, abrior terminal com admin baixar a llm e mandar rodar e minimizar a janela. Ai subir o bolt que vai ta listado la a llm

  • @danielrodrigues93
    @danielrodrigues93 22 дні тому +1

    Link do github não esta funcionando erro 404

  • @darpha-w2p
    @darpha-w2p 16 днів тому

    OLAH TENTEI INTSALLAR O DOCKER NO WINDOWS NORMALMENTE MAIS ESTOU COM ERROS : Docker Desktop - Unexpected WSL error
    An unexpected error occurred while executing a WSL command.
    Either shut down WSL down with wsl --shutdown, and/or reboot your machine. You can also try reinstalling WSL and/or Docker Desktop. If the issue persists
    ELE NEM SE QUER ABRI

    • @felvieira_dev
      @felvieira_dev  15 днів тому

      @@darpha-w2p veja o vídeo anexado aqui nos comentários de como subir local o bolt. Tem o passo a passo certinho

    • @darpha-w2p
      @darpha-w2p 13 днів тому

      @@felvieira_dev ok eu usei o pinokio o bolt abre de boa apenas os LLMS eque tao lentos ja baxie quase todos qwen 2.5 coder mesmo o de 20 g

  • @GabrielGamer09
    @GabrielGamer09 16 днів тому

    estou com o problema de "There was an error processing your request", sempre que digito algo no bolt aparece essa menagem no canto dele, no terminal aparece a mensagem "[wrangler:inf] POST /api/chat 500 Internal Server Error (14ms)"

    • @GabrielGamer09
      @GabrielGamer09 16 днів тому

      essa mensagem do terminal do vscode aparece sempre que eu tento perguntar algo pro bolt logo depois de aparecer o "There was an error processing your request"

    • @felvieira_dev
      @felvieira_dev  14 днів тому

      Aí parece erro de API key das llm

    • @leonardolima6388
      @leonardolima6388 12 днів тому

      @@felvieira_dev O meu está dando a mesma coisa, como resolve ?

    • @felvieira_dev
      @felvieira_dev  12 днів тому

      @@leonardolima6388 depende pode ser api key errada, api key sem crédito ou llm local com um pc mais defasado.
      Ideal eh tentar uma API key nova. Tem um vídeo meu falando sobre isso e usando esse local na web da uma olhada, lá explico como gerar keys

    • @mosle96
      @mosle96 9 днів тому

      @@leonardolima6388 se for o erro de api do Ollama coloca a url do local host do ollama (localhost:11434/) como chave da API

  • @byfelipers
    @byfelipers 15 днів тому

    Sinceramente, para quem já tem alguma experiência em docker compose, llms local, até consegue resolver, mas para todo o resto é confuso demais. Seria legal refazer o vídeo ja com check-list validado.

    • @felvieira_dev
      @felvieira_dev  15 днів тому

      @@byfelipers o foco desse vídeo é o llm instalar o repo e subir local tá em outro vídeo como comento. Só ver

    • @felvieira_dev
      @felvieira_dev  15 днів тому

      @@byfelipers e está no comentário fixado inclusive

    • @felvieira_dev
      @felvieira_dev  15 днів тому

      lancei um video hoje rodando ele na web assim vc pode pular ter que subir na sua maquina da uma olhada, pode ficar mais facil pra vc ua-cam.com/video/rNmOoAN9jZU/v-deo.html

    • @byfelipers
      @byfelipers 15 днів тому

      @felvieira_dev show de bola! 👍

  • @janiogabriel777
    @janiogabriel777 21 день тому

    o meu so aparece "There was an error processing your request" no bolt

    • @felvieira_dev
      @felvieira_dev  21 день тому

      @@janiogabriel777 provavelmente não está achando a llm do ollama. Tente refazer os passos e veja se o ollama está aberto e em execução. O erro demora a aparecer ou é instantâneo?

    • @marombeiro_cortes1
      @marombeiro_cortes1 16 днів тому

      @@felvieira_dev instantaneo

    • @CAMPOSS
      @CAMPOSS 4 дні тому

      Encontre este arquivo "app\utils\constants.ts"
      Na parte superior do ficheiro procure exportar const DEFAULT_MODEL = claude-3-5-sonnet-latest
      Mude para DEFAULT_MODEL = 'qwen2.5-coder ' ; ( Esse qwen2.5-coder tem que ser idêntico ao nome do modelo que pretende utilizar, ou seja, esse nome é um exemplo e o seu provavelmente é parecido) :)

  • @paycards.suporte
    @paycards.suporte 19 днів тому

    Meu Key não está indo, como corrijir?

  • @danieldesbesel
    @danieldesbesel 18 днів тому

    No meu nao cria os arquivos =/

    • @danieldesbesel
      @danieldesbesel 18 днів тому

      Peço pra ele criar um arquivo simples html, e ele não cria os arquivos.

    • @felvieira_dev
      @felvieira_dev  18 днів тому

      @@danieldesbesel alterou o limite da llm? pode ser que seu pc nao ta aguentando rodar a llm, da uma olhada no consumo ali de recursos cpu ou placa de video se for o caso. Se for isso o indicado eh usar uma key do open router ou outra na nuvem msm.

    • @danieldesbesel
      @danieldesbesel 17 днів тому

      @@felvieira_dev Alterei, fiz certinho igual no vídeo, inclusive o env. Talvez seja o PC mesmo, tenho apenas uma 4060 e ele consome cerca de 40% da gpu

    • @danieldesbesel
      @danieldesbesel 17 днів тому

      @@felvieira_dev Nesse open router é free?

    • @felvieira_dev
      @felvieira_dev  17 днів тому

      @ eles dão um dólar em crédito pra cada key gerada então dá pra fazer algumas coisas com ele. Mas ele funciona pré pago , vc coloca dólar lá e usa qualquer llm que quiser e vai abatendo dos créditos

  • @marombeiro_cortes1
    @marombeiro_cortes1 16 днів тому

    bem confuso