Pessoal aprendam a rodar o repo direto do pc no windowsl : ua-cam.com/video/NBL8SbVsPBw/v-deo.htmlsi=lJoqSdbgFS0-rfNf Já pensou em usar qualquer rosto direto na webcam? Eu te ensino deepfake facil e grátis no ua-cam.com/video/y8qIrKrWkWA/v-deo.html
Amigos que estão com problemas para rodar e recebendo o problema de API, utilizem o Chrome Canary (navegador para desenvolvedores). Vale salientar que pra inserir a Key no .env file tem que dar um espaço depois do caracter "=". Abraços e boa sorte!
Excelente video! Se eu quiser usar outra LLM, é o mesmo procedimento pra aumentar o limite de caracteres? Qual voce recomenda pra uma placa mais fraca? tenho uma 3060
@@felvieira_dev Foi isso mesmo no meu caso achei que estava rodando e deu algum bug que o terminal não tava mais executando em segundo plano então deu certo, só o que não rodou foi a visualização do previu project do bolt.
@@samequemedeiros1765 Na verdade não vai ter lá um campo "api" que vc copia e cola... o bolt identifica que vc tem um llm rodando local e o localhost se torna sua "api"
No meu caso mesmo com as APIS não funciona, outra questão é que o ollama no terminal pra instalar na pasta do bolt retorna esse erro:ollama run ollama run qwen2.5-coder pulling manifest Error: pull model manifest: file does not exist
O ollama eh rodado no contexto do seu pc, nao precisa rodar na pasta do bolt nao. Eh baixar o ollama instalar, abrior terminal com admin baixar a llm e mandar rodar e minimizar a janela. Ai subir o bolt que vai ta listado la a llm
OLAH TENTEI INTSALLAR O DOCKER NO WINDOWS NORMALMENTE MAIS ESTOU COM ERROS : Docker Desktop - Unexpected WSL error An unexpected error occurred while executing a WSL command. Either shut down WSL down with wsl --shutdown, and/or reboot your machine. You can also try reinstalling WSL and/or Docker Desktop. If the issue persists ELE NEM SE QUER ABRI
estou com o problema de "There was an error processing your request", sempre que digito algo no bolt aparece essa menagem no canto dele, no terminal aparece a mensagem "[wrangler:inf] POST /api/chat 500 Internal Server Error (14ms)"
essa mensagem do terminal do vscode aparece sempre que eu tento perguntar algo pro bolt logo depois de aparecer o "There was an error processing your request"
@@leonardolima6388 depende pode ser api key errada, api key sem crédito ou llm local com um pc mais defasado. Ideal eh tentar uma API key nova. Tem um vídeo meu falando sobre isso e usando esse local na web da uma olhada, lá explico como gerar keys
Sinceramente, para quem já tem alguma experiência em docker compose, llms local, até consegue resolver, mas para todo o resto é confuso demais. Seria legal refazer o vídeo ja com check-list validado.
lancei um video hoje rodando ele na web assim vc pode pular ter que subir na sua maquina da uma olhada, pode ficar mais facil pra vc ua-cam.com/video/rNmOoAN9jZU/v-deo.html
@@janiogabriel777 provavelmente não está achando a llm do ollama. Tente refazer os passos e veja se o ollama está aberto e em execução. O erro demora a aparecer ou é instantâneo?
Encontre este arquivo "app\utils\constants.ts" Na parte superior do ficheiro procure exportar const DEFAULT_MODEL = claude-3-5-sonnet-latest Mude para DEFAULT_MODEL = 'qwen2.5-coder ' ; ( Esse qwen2.5-coder tem que ser idêntico ao nome do modelo que pretende utilizar, ou seja, esse nome é um exemplo e o seu provavelmente é parecido) :)
@@danieldesbesel alterou o limite da llm? pode ser que seu pc nao ta aguentando rodar a llm, da uma olhada no consumo ali de recursos cpu ou placa de video se for o caso. Se for isso o indicado eh usar uma key do open router ou outra na nuvem msm.
@ eles dão um dólar em crédito pra cada key gerada então dá pra fazer algumas coisas com ele. Mas ele funciona pré pago , vc coloca dólar lá e usa qualquer llm que quiser e vai abatendo dos créditos
Pessoal aprendam a rodar o repo direto do pc no windowsl : ua-cam.com/video/NBL8SbVsPBw/v-deo.htmlsi=lJoqSdbgFS0-rfNf
Já pensou em usar qualquer rosto direto na webcam? Eu te ensino deepfake facil e grátis no ua-cam.com/video/y8qIrKrWkWA/v-deo.html
Inscrito, meu mano!
COmpartilhe com os amigos ;)
Top.....
Pedimos mesmo, valeu!
Amigos que estão com problemas para rodar e recebendo o problema de API, utilizem o Chrome Canary (navegador para desenvolvedores). Vale salientar que pra inserir a Key no .env file tem que dar um espaço depois do caracter "=". Abraços e boa sorte!
api key do ollama é o local host que a própria llm cria, por padrão localhost:11434
Excelente conteudo
Excelente video! Se eu quiser usar outra LLM, é o mesmo procedimento pra aumentar o limite de caracteres? Qual voce recomenda pra uma placa mais fraca? tenho uma 3060
@@burrinhojoga7626 sim o mesmo procedimento . Então o ideal é ir testando os carácteres ali aumentando pouco a pouco e ver como se sai.
Felipe, você precisou da API base do Ollama pra rodar o local? não consegui de jeito sem nenhum sem api.
Rodar com llm local tem que rodar o ollama antes de subir o bolt, se nao ele nao reconhece
@@felvieira_dev Mas rodando isso localmente precisa de API ou não precisa?
@@samequemedeiros1765 precisa ou local ou online, pq eh ele que faz a inteligencia da criacao do codigo
@@felvieira_dev Foi isso mesmo no meu caso achei que estava rodando e deu algum bug que o terminal não tava mais executando em segundo plano então deu certo, só o que não rodou foi a visualização do previu project do bolt.
@@samequemedeiros1765 Na verdade não vai ter lá um campo "api" que vc copia e cola... o bolt identifica que vc tem um llm rodando local e o localhost se torna sua "api"
No meu caso mesmo com as APIS não funciona, outra questão é que o ollama no terminal pra instalar na pasta do bolt retorna esse erro:ollama run ollama run qwen2.5-coder
pulling manifest
Error: pull model manifest: file does not exist
O ollama eh rodado no contexto do seu pc, nao precisa rodar na pasta do bolt nao. Eh baixar o ollama instalar, abrior terminal com admin baixar a llm e mandar rodar e minimizar a janela. Ai subir o bolt que vai ta listado la a llm
Link do github não esta funcionando erro 404
@@danielrodrigues93 corrigido
OLAH TENTEI INTSALLAR O DOCKER NO WINDOWS NORMALMENTE MAIS ESTOU COM ERROS : Docker Desktop - Unexpected WSL error
An unexpected error occurred while executing a WSL command.
Either shut down WSL down with wsl --shutdown, and/or reboot your machine. You can also try reinstalling WSL and/or Docker Desktop. If the issue persists
ELE NEM SE QUER ABRI
@@darpha-w2p veja o vídeo anexado aqui nos comentários de como subir local o bolt. Tem o passo a passo certinho
@@felvieira_dev ok eu usei o pinokio o bolt abre de boa apenas os LLMS eque tao lentos ja baxie quase todos qwen 2.5 coder mesmo o de 20 g
estou com o problema de "There was an error processing your request", sempre que digito algo no bolt aparece essa menagem no canto dele, no terminal aparece a mensagem "[wrangler:inf] POST /api/chat 500 Internal Server Error (14ms)"
essa mensagem do terminal do vscode aparece sempre que eu tento perguntar algo pro bolt logo depois de aparecer o "There was an error processing your request"
Aí parece erro de API key das llm
@@felvieira_dev O meu está dando a mesma coisa, como resolve ?
@@leonardolima6388 depende pode ser api key errada, api key sem crédito ou llm local com um pc mais defasado.
Ideal eh tentar uma API key nova. Tem um vídeo meu falando sobre isso e usando esse local na web da uma olhada, lá explico como gerar keys
@@leonardolima6388 se for o erro de api do Ollama coloca a url do local host do ollama (localhost:11434/) como chave da API
Sinceramente, para quem já tem alguma experiência em docker compose, llms local, até consegue resolver, mas para todo o resto é confuso demais. Seria legal refazer o vídeo ja com check-list validado.
@@byfelipers o foco desse vídeo é o llm instalar o repo e subir local tá em outro vídeo como comento. Só ver
@@byfelipers e está no comentário fixado inclusive
lancei um video hoje rodando ele na web assim vc pode pular ter que subir na sua maquina da uma olhada, pode ficar mais facil pra vc ua-cam.com/video/rNmOoAN9jZU/v-deo.html
@felvieira_dev show de bola! 👍
o meu so aparece "There was an error processing your request" no bolt
@@janiogabriel777 provavelmente não está achando a llm do ollama. Tente refazer os passos e veja se o ollama está aberto e em execução. O erro demora a aparecer ou é instantâneo?
@@felvieira_dev instantaneo
Encontre este arquivo "app\utils\constants.ts"
Na parte superior do ficheiro procure exportar const DEFAULT_MODEL = claude-3-5-sonnet-latest
Mude para DEFAULT_MODEL = 'qwen2.5-coder ' ; ( Esse qwen2.5-coder tem que ser idêntico ao nome do modelo que pretende utilizar, ou seja, esse nome é um exemplo e o seu provavelmente é parecido) :)
Meu Key não está indo, como corrijir?
@@paycards.suporte onde exatamente?
No meu nao cria os arquivos =/
Peço pra ele criar um arquivo simples html, e ele não cria os arquivos.
@@danieldesbesel alterou o limite da llm? pode ser que seu pc nao ta aguentando rodar a llm, da uma olhada no consumo ali de recursos cpu ou placa de video se for o caso. Se for isso o indicado eh usar uma key do open router ou outra na nuvem msm.
@@felvieira_dev Alterei, fiz certinho igual no vídeo, inclusive o env. Talvez seja o PC mesmo, tenho apenas uma 4060 e ele consome cerca de 40% da gpu
@@felvieira_dev Nesse open router é free?
@ eles dão um dólar em crédito pra cada key gerada então dá pra fazer algumas coisas com ele. Mas ele funciona pré pago , vc coloca dólar lá e usa qualquer llm que quiser e vai abatendo dos créditos
bem confuso