Veja também nossa playlist comparando bolt ao outros geradores: ua-cam.com/play/PLCxVvMhiShz1Z8K919AOwy2fbIuhfMSG_.html Video ensinando a subir local ( versao do OttoDev ) ua-cam.com/video/PQILToB22wU/v-deo.html
Fala Felipe, Bom dia, cara, com tantos meios e sistemas de codar tipo Bolt, Lovable, V0, Windsurf, etc.. qual seria o melhor olhando para o custo beneficio ? com qual ferramenta dá pra gerar mais código pagando menos?
Ola irmão parabens ai pelo canal e conteúdos. Me diz uma coisa, instaladno self hosted não da pra usar de forma gratis e iliimitada com Ollama self hosted também, ou outra IA ? Se não é possivel, qual seria o melhor custo benefício ? Um video com este conteúdo creio que agregaria legal. Acho que muitas pessoas devem ter essa mesma duvida e dificuldade, e como você ja está na frente em experiencia, poderia nos ajudar. Obrigado e DEUS abençoe.
Entao daria se vc alugasse uma placa de video, as famosas VDS, mas sao mto caras hoje, base de 300 doalres mes. uma vps nao tem ali placa de video rpa rodar as llms, a naos er que vc tenha um servidor seu na sua casa com uma placa parruda e coloque ele como ums ervidor, ai daria sim, com algumas configuracoes de infra. Mas numa vps eh bem improvavel que tenha um resultado bom.
Apareceu o Bolt pra instalar pelo Pinokio. Só que acho que não é essa versão mais atualizada. O Pinokio facilita instalação de aplicativos de IA. Ele instala tudo sozinho, quase que automático. É bom pra quem é leigo. As vezes alguns aplicativos falham por atualizarem, mas aos poucos eles vão ajustando.
tem algumas llms boas, mas vc precisaria de uma placa de video mto top pra poder rodar satisfatoriamente. Entao ele acaba sendo so pra estudos mesmo pra maioria
Fala Felipe! Estou muito animado com bolt, quero sair de dev e focar em empreender. Vou criar um saas com o BOLT e estou tentando aprender, seu conteúdo está sendo sensacional. Vi os prompts que você citou na pasta .bolt Sabe se existe alguma forma de deixar o bolt exatamente igual do navegador? No navegador ele é muito top, mas para uma solução grande começa a ficar caro. Eu estou em dúvida entre comprar mais créditos para usar local ou comprar tokens direto da bolt.new. Teria alguma dica nesse sentido? Abraço e sucesso!
Eu ficaria com o bolt mesmo, pq ele tem ja uma serie de configuracoes e prompts internos prontos. No local nos precisamos ser melhores nos prompts pra ele ser mais assertivo o que nao eh o caso da maioria. Entao sugiro pagar o web mesmo
Irmãoo. Tu faz os paranaue ai, e nao apareceu em tela. Por mais que sejam coisas obvias pra se configurar, lança em tela ai. Pra meio que criar um entendimento de ponta a ponta, saca? Fora isso, ta show. Vlw pela explicação
O que eu nao expliquei tem nos meus outros videos anexados. Se nao todo video vou ter que ensinar instalar node, github etc Ai fica mt repetiçao pro pessoal que me acompanha sempre.
@@felvieira_dev fiquei preso na parte do "npm run dockerbuild", sempre quando uso esse comando aparece um erro que não consegue abrir "package.json". Detalhe que instalei tudo o que você mencionou anteriormente durante o vídeo, como que ajeito isso? Não sou o tech guy, essa é minha primeira experiência e quero muito explorar essa nova onda de codificação com ia. Abraço!
@@gustavodaguiar1916 se instalou o doicker, tenta rodar direto o docker-compose --profile production up ou docker-compose --profile development up , ai vc nao precisa usar o npm run
Se for dev vc pode implementar o que quiser pra melhorar as saidas, como prompts automaticos, integrar com apis de imagens pra gerar interfaces com imagens, integrar backends e banco de dados, ou seja da pra fazer mta coisa. E se tiver um pc parrudo da pra rodar as llms locais e nao gastar mt
ALGUEM CONSEGUIU RODAR O ANTHROPIC RODAR EU COLOQUEI O VALOR CRIEI A KEY, POREM AO EXECUTAR DA ESSE ERRO: There was an error processing your request: No details were returned
Nao faz mto sentido sobrar menos de LLMs melhores e mais de LLMS piores nao? É por isso que LLMs mais recentes cobram mais por token. So comparar a o1 do GPT com a 3.5.
@@felvieira_dev Poise eu pedi para o bolt clonar um SAS e melhorar com base em um print ele me gerou só um botão rsrs pedi a mesma coisa para o V0 ele fez com perfeição vai entender.
Veja também nossa playlist comparando bolt ao outros geradores:
ua-cam.com/play/PLCxVvMhiShz1Z8K919AOwy2fbIuhfMSG_.html
Video ensinando a subir local ( versao do OttoDev )
ua-cam.com/video/PQILToB22wU/v-deo.html
deu super certo ganhou um inscrito 👏🙏
boa
Fala Felipe, Bom dia, cara, com tantos meios e sistemas de codar tipo Bolt, Lovable, V0, Windsurf, etc.. qual seria o melhor olhando para o custo beneficio ? com qual ferramenta dá pra gerar mais código pagando menos?
vou fazer um video sobre pra indicar
Ola irmão parabens ai pelo canal e conteúdos. Me diz uma coisa, instaladno self hosted não da pra usar de forma gratis e iliimitada com Ollama self hosted também, ou outra IA ? Se não é possivel, qual seria o melhor custo benefício ? Um video com este conteúdo creio que agregaria legal. Acho que muitas pessoas devem ter essa mesma duvida e dificuldade, e como você ja está na frente em experiencia, poderia nos ajudar. Obrigado e DEUS abençoe.
Entao daria se vc alugasse uma placa de video, as famosas VDS, mas sao mto caras hoje, base de 300 doalres mes.
uma vps nao tem ali placa de video rpa rodar as llms, a naos er que vc tenha um servidor seu na sua casa com uma placa parruda e coloque ele como ums ervidor, ai daria sim, com algumas configuracoes de infra.
Mas numa vps eh bem improvavel que tenha um resultado bom.
Apareceu o Bolt pra instalar pelo Pinokio. Só que acho que não é essa versão mais atualizada. O Pinokio facilita instalação de aplicativos de IA. Ele instala tudo sozinho, quase que automático. É bom pra quem é leigo. As vezes alguns aplicativos falham por atualizarem, mas aos poucos eles vão ajustando.
Com o docker eh 2 conmandos e a aplicacao sobe. mas precisa intalar node, git e docker. Tres programas
Top mano! Será que vira com o Gemini 2.0?
Gemini tem bastante token de contexto, vale a pena o teste. Mas rpa codigo o anthropic ainda eh melhor em resultado final.
Como conectar lm Studio?
Esse cara é muito bom, pena que a didática dele é para pessoas como ele, com bastante experiência.
@@PazInterrna teria alguma sugestão pra eu conseguir ser mais inteligível as pessoas que não são da área?
Verdade!!
não consigo instalar por nada da erro de mini flare
@@wallacekast8908 Mini flare?
Outra dúvida, OLLAMA, ele é bom pra codificar? Eu uso muito o Claude Sonnet.
Muito lento
tem algumas llms boas, mas vc precisaria de uma placa de video mto top pra poder rodar satisfatoriamente. Entao ele acaba sendo so pra estudos mesmo pra maioria
Fala Felipe!
Estou muito animado com bolt, quero sair de dev e focar em empreender.
Vou criar um saas com o BOLT e estou tentando aprender, seu conteúdo está sendo sensacional.
Vi os prompts que você citou na pasta .bolt
Sabe se existe alguma forma de deixar o bolt exatamente igual do navegador?
No navegador ele é muito top, mas para uma solução grande começa a ficar caro.
Eu estou em dúvida entre comprar mais créditos para usar local ou comprar tokens direto da bolt.new. Teria alguma dica nesse sentido?
Abraço e sucesso!
Eu ficaria com o bolt mesmo, pq ele tem ja uma serie de configuracoes e prompts internos prontos. No local nos precisamos ser melhores nos prompts pra ele ser mais assertivo o que nao eh o caso da maioria. Entao sugiro pagar o web mesmo
Qual é o tema que esta usando no IDE windsurf?
to usando o Name: Abyss Theme
Id: vscode.theme-abyss
Description: Abyss theme for Visual Studio Code
Version: 1.0.0
Publisher: vscode
Já testaram a do API Google?
ela é boa pra projetos grandes, da pra upar ate uns 900 arquivos de projeto que ela lida de boa.
Bacana o conteúdo, uma dúvida é mais barato e vantajoso rodar o Bolt local usando a Api da Anthropic ?
Ainda eh mais barato pagar o bolt mesmo do que usar a key direto.
Tenho um setup muito bom, rtx 4090, i9 14600k, 64gb de ram. Qual e a melhor IA para rodar em localhost?
a nova da meta eh um bom candidato. Deve rodar bem com a sua configuracao
Eu usei hoje com Claude Ai 3.5 porém ta bem bugado gastei quase 5 dolares pra fazer uma pagina simples que o bolt new faz em minutos
sim , ta bem caro os token da 3.5
@felvieira_dev faz vídeo do Gemini exp 1206
Irmãoo. Tu faz os paranaue ai, e nao apareceu em tela. Por mais que sejam coisas obvias pra se configurar, lança em tela ai. Pra meio que criar um entendimento de ponta a ponta, saca? Fora isso, ta show. Vlw pela explicação
O que eu nao expliquei tem nos meus outros videos anexados. Se nao todo video vou ter que ensinar instalar node, github etc Ai fica mt repetiçao pro pessoal que me acompanha sempre.
@@felvieira_dev Ahh boa, desculpa irmao. Eu nao sabia. Mas de qualquer forma, obrigado pelos conteúdos, e muito sucesso.
@@andrecesarini td bem sempre eh bom sugestões de melhoria, agradeço
@@felvieira_dev fiquei preso na parte do "npm run dockerbuild", sempre quando uso esse comando aparece um erro que não consegue abrir "package.json". Detalhe que instalei tudo o que você mencionou anteriormente durante o vídeo, como que ajeito isso? Não sou o tech guy, essa é minha primeira experiência e quero muito explorar essa nova onda de codificação com ia. Abraço!
@@gustavodaguiar1916 se instalou o doicker, tenta rodar direto o docker-compose --profile production up ou docker-compose --profile development up , ai vc nao precisa usar o npm run
eu fiz a teleu fiz , porem ficou super ultra pesado , em relação ao bolt de outro git ..
agora quando eu uso pelo da google a key ai fica leve foi o llama que esta lento
@@galorran ollama roda dependendo das configs da sua maquina, por isso que depende disso pra rodar rapido ou nao
Mas qual é a vantagem de usar algo opensource e um modelo pago que é o preço do modelo bolt.new pago kk ?.
Se for dev vc pode implementar o que quiser pra melhorar as saidas, como prompts automaticos, integrar com apis de imagens pra gerar interfaces com imagens, integrar backends e banco de dados, ou seja da pra fazer mta coisa. E se tiver um pc parrudo da pra rodar as llms locais e nao gastar mt
mano então depois faz um passo a passo do zero, tentei de todas as formas não conseguir, iria ajudar mt
qual foi sua dificuldade? o que nao conseguiu?
ALGUEM CONSEGUIU RODAR O ANTHROPIC RODAR EU COLOQUEI O VALOR CRIEI A KEY, POREM AO EXECUTAR DA ESSE ERRO: There was an error processing your request: No details were returned
da uma olhada na aba de Issues la do repo pra ver se corrigiram
Tem o do cole medin. Muito bom tbm. E nao e verdade quanto mais caro melhkr
Nao faz mto sentido sobrar menos de LLMs melhores e mais de LLMS piores nao? É por isso que LLMs mais recentes cobram mais por token. So comparar a o1 do GPT com a 3.5.
@@felvieira_dev sim mais não é uma regra que mais caro é melhor
MANO, AUMENTA ESSE AUDIO AE CARA, TODA VEZ QUE VEJO SEUS VIDEOS EU TENHO QUE USAR FONE DE OUVIDO, POR QUE VOCE FALA MUITOOOOOOOOOO BAIXO , PQP !!
AQUI PARECE BOM PARA MIM
Nao tenho culpa de vc usar caixinhas de som do 1,99.
Mano, tá normal aqui...
Bem alto!
Sua audição já era
Fiscal de microfone passando na sua timeline kkk
Bolt ta horrivel! nem vale a pena..
Crazy crazy
Temos outras no mercado, mas bolt em qualidade de front é top 1
@@felvieira_dev Para front-end eu to preferindo o V0 to achando muito superior.
@ de qualidade de código sim, bem superior. Mas versatilidade de design e flexibilidade de linguagens o bolt leva
@@felvieira_dev Poise eu pedi para o bolt clonar um SAS e melhorar com base em um print ele me gerou só um botão rsrs pedi a mesma coisa para o V0 ele fez com perfeição vai entender.