Read somewhere Need to make sure your using models that support vision (so it can read the web pages) that's why the others were slower and got which has vision in the model worked better there are local models with vision still learning but good vid this was helpful
Thanks for sharing! I tried using a local vision model once and it just froze, so I stoped trying. It's great to know that it works better, I'll give that a try right now!
Oi Leonardo. Estou montando uma máquina para fazer uso do DeepSeek localmente e gostaria de saber se sua placa ( nvidia gforce rtx 4060 ) é a de 12 ou 16GB e se você teria uma sugestão de uma placa a qual você acha que se sairia melhor mas também com preço para mortais ( até R$ 3.5K ). Obrigado pelo vídeo! Esclareceu muitas dúvidas.
Fala! Não testei outras placas, então perguntei pra alguns colegas que mexem com LLMs locais. A mais recomendada foi a RTX 4090, aí fui ver o preço e adivinha? Exatamente R$ 3.500, hahah. 200% melhor que a minha: gpu.userbenchmark.com/Compare/Nvidia-RTX-4090-vs-Nvidia-RTX-4060/4136vs4150
@@leonardogrig Valeu a resposta Leo! Já vou começar a fazer os bicos para comprar a RTX 4090 😅 baita grana... Teus vídeos são muito massa cara! Obrigado, mais uma vez.
Hi! Thanks for the feedback. I would suggest working on n8n automations. It's a new segment in upwork/fiverr and people are just finding out about this!
Those first 7 seconds were so funny it gave me more interest in the whole video hahah. Good walkthrough!
Haha, thanks! Have you tested out browser use?
Thanks for the video ! We agree that it’s local but laggy. I’m sure this will be faster in 1 or 2 years with stronger AI-oriented-GPU
Yes! I believe that too. Our GPU get's better and the LLMs smarter.
nice walkthrough!
Thanks!
Read somewhere Need to make sure your using models that support vision (so it can read the web pages) that's why the others were slower and got which has vision in the model worked better there are local models with vision still learning but good vid this was helpful
Thanks for sharing! I tried using a local vision model once and it just froze, so I stoped trying. It's great to know that it works better, I'll give that a try right now!
Oi Leonardo.
Estou montando uma máquina para fazer uso do DeepSeek localmente e gostaria de saber se sua placa ( nvidia gforce rtx 4060 ) é a de 12 ou 16GB e se você teria uma sugestão de uma placa a qual você acha que se sairia melhor mas também com preço para mortais ( até R$ 3.5K ). Obrigado pelo vídeo! Esclareceu muitas dúvidas.
Fala! Não testei outras placas, então perguntei pra alguns colegas que mexem com LLMs locais. A mais recomendada foi a RTX 4090, aí fui ver o preço e adivinha? Exatamente R$ 3.500, hahah.
200% melhor que a minha: gpu.userbenchmark.com/Compare/Nvidia-RTX-4090-vs-Nvidia-RTX-4060/4136vs4150
@@leonardogrig Valeu a resposta Leo! Já vou começar a fazer os bicos para comprar a RTX 4090 😅 baita grana...
Teus vídeos são muito massa cara! Obrigado, mais uma vez.
Good walkthrough but cant seem to get it running. Getting an error "Rate Limit reached. Waiting before retry." Im just using the default prompt
You've probably been blocked "/ my next video may help you bypass that!
@@leonardogrigManaged to get it working after spending $5 on credits
hyy bro i like what u are doings please i have a question what kind of project i can make to get some remote job like on upwork and thanks a lot
Hi! Thanks for the feedback. I would suggest working on n8n automations. It's a new segment in upwork/fiverr and people are just finding out about this!
@@leonardogrig thanks a lot bro