Agora o pessoal da OpenAI vai trabalhar igual doido! Eu acho que o lado bom de aparecer um novo concorrente tipo o Deepseek, é que isso aperta mais ainda a concorrência e faz o pessoal se dobrar mais ainda para tentar inovar com recursos novos.
Sobre rodar localmente, nao é algo tão simples assim, pq pra vc ter uma máquina que suporte modelos com grande quantidade de parâmetros e com uma quantidade de tokens/s decente precisará investir pesado em hardware. O uso do serviço alocado em nuvem ainda é muito melhor e mais acessível para maior parte das pessoas.
Isso de não querer usar as I.A em nuvem eu estou contigo Bob, desde que comecei a usar o R1 na minha maquina localmente, eu praticamente uso todo dia, e minhas demandas do ChatGPT e gemini despencaram, tem dia que nem acesso. Me sinto muito mais confortável usando localmente.
@@DouglasCarioca7 Sim o desempenho por exemplo do DeepSeek versão Web é maior sempre, visto que ta rodando com 671B, mas pelo que vim testando nas ultimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem proximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que achei bem a desejar. Mas o DeepSeek-R1-Distill-Qwen-14B me surpreendeu positivamente, inclusive mais que o modelo de 32B, testei basicamente com as demandas diárias que tenho com cálculos matemáticos bem avançados e física e com códigos um pouco complexos de programação em python, e ele incrivelmente se deu bem, errando na primeira e corrigindo na segunda ou terceira tentativa. Porem, ele roda meio pesado em minha maquina, Meu hardware é um Ryzen 5 5600H e uma RTX 3050 4GB com 16GB RAM que é um laptop Dell G15 de primeira geração, basicamente tive que fazer ajustes para rodar legal, mas roda. Mas pra rodar esse modelo bacana seria bom ter os 8GB de vram pois a quantização esta em Q4. Agora o que sinto falta é a entrada multimodal, que deve vir com o R2 a qualquer momento, e voz avançada que estou me virando pra tentar contornar isso. Agora se me perguntarem qual o modelo mais equilibrado para uma maquina com GPU entre 4 a 6GB de vram eu diria que podem ir no modelo DeepSeek-R1-Distill-Qwen-7B.
@@DouglasCarioca7 Sim o desempenho por exemplo do DeepSeek versão Web é maior, visto que ta rodando com 671B, mas pelo que vim testando nas últimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem próximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que particularmente não achei tão bom esse da Llama. Já o modelo DeepSeek-R1-Distill-Qwen-14B pra mim foi o que mais me agradou até mesmo mais que o 32B até porque o limite aceitável da minha maquina é o 14B kkk, basicamente estou testando com meu uso e demandas diárias que evolve cálculos de matemática avançada, física e programação. E o modelo de 14B está conseguindo se sair bem, errando as vezes na primeira resposta, mas conseguindo corrigir na segunda ou terceira tentativa. O que me faz falta é uma entrada multimodal e a voz avançada que tem na openAI, que estou tentando contornar com gambiarra, mas também é provável que o DeepSeek R2 venha com isso. Agora o modelo que eu estou usando na grande parte do tempo é o DeepSeek-R1-Distill-Qwen-7B que roda incrivelmente bem em minha máquina, é leve, rápido e pra coisas básicas ele dá pro gasto, quando o caldo engrossa passo pro 14B. Quanto a minha maquina estou rodando esses modelos em um laptop Dell G15 de primeira geração, com Ryzen 5 5600H, RTX3050 4GB e 16GB de RAM, então meu limite aceitável é o modelo de 14B o de 32B ate rodou mas numa lerdeza absurda. Mas aqui deixo um adendo, estou usando no LM studio e tem que saber ajustar alguns ajustes lá dentro para equilibrar o hardware, pq senão vc deixa tudo lento mesmo com uma maquina em teoria boa pra rodar.
Sim o desempenho por exemplo do DeepSeek versão Web é maior, visto que ta rodando com 671B, mas pelo que vim testando nas últimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem próximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que particularmente não achei tão bom esse da Llama. Já o modelo DeepSeek-R1-Distill-Qwen-14B pra mim foi o que mais me agradou até mesmo mais que o 32B até porque o limite aceitável da minha maquina é o 14B kkk, basicamente estou testando com meu uso e demandas diárias que evolve cálculos de matemática avançada, física e programação. E o modelo de 14B está conseguindo se sair bem, errando as vezes na primeira resposta, mas conseguindo corrigir na segunda ou terceira tentativa. O que me faz falta é uma entrada multimodal e a voz avançada que tem na openAI, que estou tentando contornar com gambiarra, mas também é provável que o DeepSeek R2 venha com isso. Agora o modelo que eu estou usando na grande parte do tempo é o DeepSeek-R1-Distill-Qwen-7B que roda incrivelmente bem em minha máquina, é leve, rápido e pra coisas básicas ele dá pro gasto, quando o caldo engrossa passo pro 14B. Quanto a minha maquina estou rodando esses modelos em um laptop Dell G15 de primeira geração, com Ryzen 5 5600H, RTX3050 4GB e 16GB de RAM, então meu limite aceitável é o modelo de 14B o de 32B ate rodou mas numa lerdeza absurda. Mas aqui deixo um adendo, estou usando no LM studio e tem que saber ajustar alguns ajustes lá dentro para equilibrar o hardware, pq senão vc deixa tudo lento mesmo com uma maquina em teoria boa pra rodar.@@DouglasCarioca7
@@thiagonovaes94 Boa man, eu testei o modelo de 8B na minha AMD RX 6600XT de 8GB e ele até rodou bem, mas eu pretendo arrumar uma RTX 3090 que tenho aqui pra usar justamente pra isso, pq dai eu consigo usar o modelo de 33B com quantização e conseguir uma taxa de tokens/s aceitável, dai quero fazer isso pra desenvolver aplicações e usar minha máquina pra o ambiente de stage e quando eu tiver o produto feito eu uso a api do deepseek pra alimentar a aplicação pois além de ser mais rápida e atender a carga esperada de requisições, não é tão cara e para mim vale mais a pena do que investir em servidores pra rodar local
Eu acho que os modelos destilados e/ou compactos serão uma opção mais acessível daqui para frente, sendo que alguns modelos que tem 7B de parâmetros roda em casa de boa sem nenhum problema.
Se quiser rodar um modelo decente de pelo menos 33B de parâmetros, vai precisar de uma placa bem potente, uma RTX 3090 e usar modelo de quantizacao que deixa ele mais "leve". Mas no fim seu resultado com a velocidade de tokens/s vai ser muito inferior à aplicação web
Não uso o lhama do zap, a não ser pra gerar uma ou outra imagem rapidamente. Nem mesmo pra gerar respostas, prefiro o Gemini pra isso. Como meu celular tem root, uso um módulo lsposed que permite gerar uma resposta pelo Gemini direito pelo teclado no celular.
Notícias que eu gostaria de ver aqui em 2025: 1. China anuncia pleno domínio da geração de energia por fissão nuclear e começa as operações ainda esse ano. Membros dos BRICS terão preferência para a contratação do serviço por um preço camarada 😂😂. 2. DeepSeek lança modelo multimodal opensource com desempenho superior ao das concorrentes estadunidenses. 3. Huawei lançar gpu capaz de rodar localmente qualquer modelo do DeepSeek. O valor indicado equivale ao de um Raspberry Pi.
bem mal. Vc perde mais tempo corrigindo o código que qualquer outra coisa, eles estão fazendo isso pelo hype, se bobear a galera do devin tá pagando eles pra fazer essa publi. Na prática, ainda não vale a pena, o código gerado é todo feito de qualquer jeito. Acredito sim na qualidade de código num futuro próximo, mas ainda não chegamos lá. Até o o3 tá fazendo uns códigos problemáticos. Funciona, mas é cheio de problemas de segurança e mal estruturado.
Acho que o pessoal que tá usando o llama é bem aquele usuário básico. Desses que nunca baixa um navegador diferente, usa o Edge, nem sabe o nome do navegador.
Eu acho que EU não tem nada haver com a política externa do USA! Precisamos focar no Brasil não ficar torcendo para a China ou para o USA! Geopolítica deixa para os outros canais do UA-cam
@fabioa8059 concordo, mas, há outros canais específicos nessa questão... Aqui "se me permite" dar opinião como assinante era focar nos temas de IA igual da época antes da eleição do Trump. De qualquer forma acho que o USA está correto e também acho que a CHINA está correta... O Brasil que está errado é só fala... em regulamentação e pauta woke e ESG... Enquanto a China investe em todo tipo de energia e tecnologia...
@@devalcisantos o objetivo é cobrir ia. E faz parte da cobertura mostrar que as empresas querem boicotar seus concorrentes. Não existe cobertura de ia sem fazer de política
A IA de baixo nível está lá no gituhub (deepseek) para vcs estudarem, aqui não é canal de estudo sobre, então falar na consequência da IA nas vidas da pessoa ou nações é fundamental para nós pressionarmos nossos dirigentes a entrarem nessa corrida. Senão vamos ficar pra trás, como sempre!!
O problema é que Chips são tecnologia dual, inteligência artificial também. Pode ser usado na guerra..e vai ser.. já tem testes assim na Ucrânia com drones voadores e em solo.
O foco das desenvolvedoras esta sendo sempre a segurança, se botar as ias para colaborarem entre si sem restrições a super inteligencia chega no final do ano 😂🎉
Agora o pessoal da OpenAI vai trabalhar igual doido! Eu acho que o lado bom de aparecer um novo concorrente tipo o Deepseek, é que isso aperta mais ainda a concorrência e faz o pessoal se dobrar mais ainda para tentar inovar com recursos novos.
Exatamente isso! Quero é +
mas não basta mais trabalharem igual doido e sim abrirem os modelos... a questão já nem mais é a qualidade e sim o preço.
@@leosmi1 pro publico em geral sim, mas pra empresas de tech e industrias americanas nao tem como usarem uma ia chinesa
Nada como a boa e velha concorrência. Melhores preços e velocidade no avanço.
Sobre rodar localmente, nao é algo tão simples assim, pq pra vc ter uma máquina que suporte modelos com grande quantidade de parâmetros e com uma quantidade de tokens/s decente precisará investir pesado em hardware. O uso do serviço alocado em nuvem ainda é muito melhor e mais acessível para maior parte das pessoas.
Isso de não querer usar as I.A em nuvem eu estou contigo Bob, desde que comecei a usar o R1 na minha maquina localmente, eu praticamente uso todo dia, e minhas demandas do ChatGPT e gemini despencaram, tem dia que nem acesso. Me sinto muito mais confortável usando localmente.
Mas qual é a configuração da sua máquina? Dificilmente vc tem um desempenho melhor do que a aplicação web
@@DouglasCarioca7 Sim o desempenho por exemplo do DeepSeek versão Web é maior sempre, visto que ta rodando com 671B, mas pelo que vim testando nas ultimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem proximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que achei bem a desejar. Mas o DeepSeek-R1-Distill-Qwen-14B me surpreendeu positivamente, inclusive mais que o modelo de 32B, testei basicamente com as demandas diárias que tenho com cálculos matemáticos bem avançados e física e com códigos um pouco complexos de programação em python, e ele incrivelmente se deu bem, errando na primeira e corrigindo na segunda ou terceira tentativa. Porem, ele roda meio pesado em minha maquina, Meu hardware é um Ryzen 5 5600H e uma RTX 3050 4GB com 16GB RAM que é um laptop Dell G15 de primeira geração, basicamente tive que fazer ajustes para rodar legal, mas roda. Mas pra rodar esse modelo bacana seria bom ter os 8GB de vram pois a quantização esta em Q4. Agora o que sinto falta é a entrada multimodal, que deve vir com o R2 a qualquer momento, e voz avançada que estou me virando pra tentar contornar isso. Agora se me perguntarem qual o modelo mais equilibrado para uma maquina com GPU entre 4 a 6GB de vram eu diria que podem ir no modelo DeepSeek-R1-Distill-Qwen-7B.
@@DouglasCarioca7 Sim o desempenho por exemplo do DeepSeek versão Web é maior, visto que ta rodando com 671B, mas pelo que vim testando nas últimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem próximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que particularmente não achei tão bom esse da Llama. Já o modelo DeepSeek-R1-Distill-Qwen-14B pra mim foi o que mais me agradou até mesmo mais que o 32B até porque o limite aceitável da minha maquina é o 14B kkk, basicamente estou testando com meu uso e demandas diárias que evolve cálculos de matemática avançada, física e programação. E o modelo de 14B está conseguindo se sair bem, errando as vezes na primeira resposta, mas conseguindo corrigir na segunda ou terceira tentativa. O que me faz falta é uma entrada multimodal e a voz avançada que tem na openAI, que estou tentando contornar com gambiarra, mas também é provável que o DeepSeek R2 venha com isso. Agora o modelo que eu estou usando na grande parte do tempo é o DeepSeek-R1-Distill-Qwen-7B que roda incrivelmente bem em minha máquina, é leve, rápido e pra coisas básicas ele dá pro gasto, quando o caldo engrossa passo pro 14B.
Quanto a minha maquina estou rodando esses modelos em um laptop Dell G15 de primeira geração, com Ryzen 5 5600H, RTX3050 4GB e 16GB de RAM, então meu limite aceitável é o modelo de 14B o de 32B ate rodou mas numa lerdeza absurda. Mas aqui deixo um adendo, estou usando no LM studio e tem que saber ajustar alguns ajustes lá dentro para equilibrar o hardware, pq senão vc deixa tudo lento mesmo com uma maquina em teoria boa pra rodar.
Sim o desempenho por exemplo do DeepSeek versão Web é maior, visto que ta rodando com 671B, mas pelo que vim testando nas últimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem próximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que particularmente não achei tão bom esse da Llama. Já o modelo DeepSeek-R1-Distill-Qwen-14B pra mim foi o que mais me agradou até mesmo mais que o 32B até porque o limite aceitável da minha maquina é o 14B kkk, basicamente estou testando com meu uso e demandas diárias que evolve cálculos de matemática avançada, física e programação. E o modelo de 14B está conseguindo se sair bem, errando as vezes na primeira resposta, mas conseguindo corrigir na segunda ou terceira tentativa. O que me faz falta é uma entrada multimodal e a voz avançada que tem na openAI, que estou tentando contornar com gambiarra, mas também é provável que o DeepSeek R2 venha com isso. Agora o modelo que eu estou usando na grande parte do tempo é o DeepSeek-R1-Distill-Qwen-7B que roda incrivelmente bem em minha máquina, é leve, rápido e pra coisas básicas ele dá pro gasto, quando o caldo engrossa passo pro 14B. Quanto a minha maquina estou rodando esses modelos em um laptop Dell G15 de primeira geração, com Ryzen 5 5600H, RTX3050 4GB e 16GB de RAM, então meu limite aceitável é o modelo de 14B o de 32B ate rodou mas numa lerdeza absurda. Mas aqui deixo um adendo, estou usando no LM studio e tem que saber ajustar alguns ajustes lá dentro para equilibrar o hardware, pq senão vc deixa tudo lento mesmo com uma maquina em teoria boa pra rodar.@@DouglasCarioca7
@@thiagonovaes94 Boa man, eu testei o modelo de 8B na minha AMD RX 6600XT de 8GB e ele até rodou bem, mas eu pretendo arrumar uma RTX 3090 que tenho aqui pra usar justamente pra isso, pq dai eu consigo usar o modelo de 33B com quantização e conseguir uma taxa de tokens/s aceitável, dai quero fazer isso pra desenvolver aplicações e usar minha máquina pra o ambiente de stage e quando eu tiver o produto feito eu uso a api do deepseek pra alimentar a aplicação pois além de ser mais rápida e atender a carga esperada de requisições, não é tão cara e para mim vale mais a pena do que investir em servidores pra rodar local
habilitou o o3-mini e o o3-mini-high pra mim aqui hoje \o/
Uhuuuuuuuuu!! Aqui também!!
Mestre, faz uma análise sobre a Qwen.
2:06 , essa tua fala merece um filme inteiro! hehehe
hoje já vi um novo whitepaper os caras otimizaram o r1 pra 1.5b, surreal bicho aprendendo sozinho
Eu acho que os modelos destilados e/ou compactos serão uma opção mais acessível daqui para frente, sendo que alguns modelos que tem 7B de parâmetros roda em casa de boa sem nenhum problema.
@@Geraluzandoo futuro será esses modelos pequeno
@@Fernando-e6w pra quande maioria sim, pra que eu vou querer uma ia cientista AInstein se eu preciso dela só pra papear fofoca Leao Lobo kkkk
@@minutacio para grande maioria vai ser apenas para responder perguntas bobas e pesquisas rápidas.
Qual configuração mínima precisa para rodar localmente o Deepseek?
4gb pro modelo 1.5b
Gpu com pelo menos 8gb de vram da série rtx
Rodo o de 7 bi num notebook. É mais fácil testar
compensa usar o modelo da qwen para rodar localmente, são melhores.
Se quiser rodar um modelo decente de pelo menos 33B de parâmetros, vai precisar de uma placa bem potente, uma RTX 3090 e usar modelo de quantizacao que deixa ele mais "leve". Mas no fim seu resultado com a velocidade de tokens/s vai ser muito inferior à aplicação web
Nossa, o Zuckerberg não desiste mesmo desse óculos hein? Colocou até uma IA para ver se dá certo kkkk
deepseek chegou para quebrar esse paradigma papai
Não uso o lhama do zap, a não ser pra gerar uma ou outra imagem rapidamente. Nem mesmo pra gerar respostas, prefiro o Gemini pra isso. Como meu celular tem root, uso um módulo lsposed que permite gerar uma resposta pelo Gemini direito pelo teclado no celular.
Concorrência gera aumento da qualidade e menores preços geralmente 👍🏻👍🏻
Notícias que eu gostaria de ver aqui em 2025:
1. China anuncia pleno domínio da geração de energia por fissão nuclear e começa as operações ainda esse ano. Membros dos BRICS terão preferência para a contratação do serviço por um preço camarada 😂😂.
2. DeepSeek lança modelo multimodal opensource com desempenho superior ao das concorrentes estadunidenses.
3. Huawei lançar gpu capaz de rodar localmente qualquer modelo do DeepSeek. O valor indicado equivale ao de um Raspberry Pi.
Então, a Devin já está indo bem, até o Nubank é cliente, isso integrado no git repo, gestor de cards tipo jira e Slack para receber os prompts
bem mal. Vc perde mais tempo corrigindo o código que qualquer outra coisa, eles estão fazendo isso pelo hype, se bobear a galera do devin tá pagando eles pra fazer essa publi. Na prática, ainda não vale a pena, o código gerado é todo feito de qualquer jeito. Acredito sim na qualidade de código num futuro próximo, mas ainda não chegamos lá. Até o o3 tá fazendo uns códigos problemáticos. Funciona, mas é cheio de problemas de segurança e mal estruturado.
Show😅
o negócio está ficando tenso...
Pra mim não atualizou. Chegou pra alguém aí atualização do ChatGPT? Dá pra saber perguntando "qual sua data de corte?"
Acho que o pessoal que tá usando o llama é bem aquele usuário básico. Desses que nunca baixa um navegador diferente, usa o Edge, nem sabe o nome do navegador.
Eu acho que EU não tem nada haver com a política externa do USA! Precisamos focar no Brasil não ficar torcendo para a China ou para o USA! Geopolítica deixa para os outros canais do UA-cam
Geopolítica afeta a vida de todos. Até porque a política externa dos EUA se aplica ao Brasil
@fabioa8059 concordo, mas, há outros canais específicos nessa questão... Aqui "se me permite" dar opinião como assinante era focar nos temas de IA igual da época antes da eleição do Trump. De qualquer forma acho que o USA está correto e também acho que a CHINA está correta... O Brasil que está errado é só fala... em regulamentação e pauta woke e ESG... Enquanto a China investe em todo tipo de energia e tecnologia...
@@devalcisantos o objetivo é cobrir ia. E faz parte da cobertura mostrar que as empresas querem boicotar seus concorrentes. Não existe cobertura de ia sem fazer de política
Boa
A IA de baixo nível está lá no gituhub (deepseek) para vcs estudarem, aqui não é canal de estudo sobre, então falar na consequência da IA nas vidas da pessoa ou nações é fundamental para nós pressionarmos nossos dirigentes a entrarem nessa corrida. Senão vamos ficar pra trás, como sempre!!
a primeira guerra fria levou o homem a lua, espero que a segunda seja algo bem surreal
Ja saiu alguma IA no a hoje? To assim agora kkkkkk vamos ver quem chega na frente kkkkkkk
vamos que andar de burca na rua para não ser vigiado pela IA.
Achei engraçado conhecimento de junho do ano 2024, eu achei legal diferença onisciência e onipotência os jogos usou emoji
O llama do WhatsApp e Instagram é um lixo
Viva ao socialismo Chinês!!!!
E o livre comércio do papai EUA, ancaps?
o tramp ta certo puta bagunça tava la, tipo Brasil zorra total ai não da
Se com esses óculos eu puder ver a Joi. Eu pago 5k.
O problema é que Chips são tecnologia dual, inteligência artificial também. Pode ser usado na guerra..e vai ser.. já tem testes assim na Ucrânia com drones voadores e em solo.
Huawei ja possui chip com a mesma capacidade do h100, nvidea ta praticamente morta na china para servidores 😂🎉❤
Onde que viste que China tinha um chip assim?
siiim... TODOS que conheço usam Whatsapp
Impossível uma ia de um engenheiro de nivel médio em 2025. Talvez 2026 ou 2027
O foco das desenvolvedoras esta sendo sempre a segurança, se botar as ias para colaborarem entre si sem restrições a super inteligencia chega no final do ano 😂🎉
Depende do engenheiro, tem muita gente ruim no mercado
Mas a Deepseek não teve dados vazados? O pessoal ainda confia usar ele?
Qual empresa não vaza dados??!!! Isso aconteceu com a Google e a meta diversas vezes.
@@Felipelima85 Sério que vai passar pano?
O negócio não passou nem um mês direito e já saiu vazando dados de geral.
@@Felipelima85 então vai lá dar teus dados kkkk
Podem fazer oque quiser. Já perderam para China! E para os BRICS😂😂😂