GPT-4o Atualizado, NVidia Pode Perder Mercado Chinês, OpenAI Trabalha em Projetos Nucleares

Поділитися
Вставка
  • Опубліковано 6 лют 2025

КОМЕНТАРІ • 88

  • @Geraluzando
    @Geraluzando 7 днів тому +25

    Agora o pessoal da OpenAI vai trabalhar igual doido! Eu acho que o lado bom de aparecer um novo concorrente tipo o Deepseek, é que isso aperta mais ainda a concorrência e faz o pessoal se dobrar mais ainda para tentar inovar com recursos novos.

    • @Nerd_no_Volante
      @Nerd_no_Volante 7 днів тому +1

      Exatamente isso! Quero é +

    • @leosmi1
      @leosmi1 7 днів тому +1

      mas não basta mais trabalharem igual doido e sim abrirem os modelos... a questão já nem mais é a qualidade e sim o preço.

    • @pereirac.1174
      @pereirac.1174 7 днів тому

      @@leosmi1 pro publico em geral sim, mas pra empresas de tech e industrias americanas nao tem como usarem uma ia chinesa

  • @leviberriel
    @leviberriel 7 днів тому +12

    Nada como a boa e velha concorrência. Melhores preços e velocidade no avanço.

  • @DouglasCarioca7
    @DouglasCarioca7 7 днів тому +3

    Sobre rodar localmente, nao é algo tão simples assim, pq pra vc ter uma máquina que suporte modelos com grande quantidade de parâmetros e com uma quantidade de tokens/s decente precisará investir pesado em hardware. O uso do serviço alocado em nuvem ainda é muito melhor e mais acessível para maior parte das pessoas.

  • @thiagonovaes94
    @thiagonovaes94 7 днів тому +7

    Isso de não querer usar as I.A em nuvem eu estou contigo Bob, desde que comecei a usar o R1 na minha maquina localmente, eu praticamente uso todo dia, e minhas demandas do ChatGPT e gemini despencaram, tem dia que nem acesso. Me sinto muito mais confortável usando localmente.

    • @DouglasCarioca7
      @DouglasCarioca7 7 днів тому +1

      Mas qual é a configuração da sua máquina? Dificilmente vc tem um desempenho melhor do que a aplicação web

    • @thiagonovaes94
      @thiagonovaes94 7 днів тому

      ​@@DouglasCarioca7 Sim o desempenho por exemplo do DeepSeek versão Web é maior sempre, visto que ta rodando com 671B, mas pelo que vim testando nas ultimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem proximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que achei bem a desejar. Mas o DeepSeek-R1-Distill-Qwen-14B me surpreendeu positivamente, inclusive mais que o modelo de 32B, testei basicamente com as demandas diárias que tenho com cálculos matemáticos bem avançados e física e com códigos um pouco complexos de programação em python, e ele incrivelmente se deu bem, errando na primeira e corrigindo na segunda ou terceira tentativa. Porem, ele roda meio pesado em minha maquina, Meu hardware é um Ryzen 5 5600H e uma RTX 3050 4GB com 16GB RAM que é um laptop Dell G15 de primeira geração, basicamente tive que fazer ajustes para rodar legal, mas roda. Mas pra rodar esse modelo bacana seria bom ter os 8GB de vram pois a quantização esta em Q4. Agora o que sinto falta é a entrada multimodal, que deve vir com o R2 a qualquer momento, e voz avançada que estou me virando pra tentar contornar isso. Agora se me perguntarem qual o modelo mais equilibrado para uma maquina com GPU entre 4 a 6GB de vram eu diria que podem ir no modelo DeepSeek-R1-Distill-Qwen-7B.

    • @thiagonovaes94
      @thiagonovaes94 7 днів тому

      @@DouglasCarioca7 Sim o desempenho por exemplo do DeepSeek versão Web é maior, visto que ta rodando com 671B, mas pelo que vim testando nas últimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem próximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que particularmente não achei tão bom esse da Llama. Já o modelo DeepSeek-R1-Distill-Qwen-14B pra mim foi o que mais me agradou até mesmo mais que o 32B até porque o limite aceitável da minha maquina é o 14B kkk, basicamente estou testando com meu uso e demandas diárias que evolve cálculos de matemática avançada, física e programação. E o modelo de 14B está conseguindo se sair bem, errando as vezes na primeira resposta, mas conseguindo corrigir na segunda ou terceira tentativa. O que me faz falta é uma entrada multimodal e a voz avançada que tem na openAI, que estou tentando contornar com gambiarra, mas também é provável que o DeepSeek R2 venha com isso. Agora o modelo que eu estou usando na grande parte do tempo é o DeepSeek-R1-Distill-Qwen-7B que roda incrivelmente bem em minha máquina, é leve, rápido e pra coisas básicas ele dá pro gasto, quando o caldo engrossa passo pro 14B.
      Quanto a minha maquina estou rodando esses modelos em um laptop Dell G15 de primeira geração, com Ryzen 5 5600H, RTX3050 4GB e 16GB de RAM, então meu limite aceitável é o modelo de 14B o de 32B ate rodou mas numa lerdeza absurda. Mas aqui deixo um adendo, estou usando no LM studio e tem que saber ajustar alguns ajustes lá dentro para equilibrar o hardware, pq senão vc deixa tudo lento mesmo com uma maquina em teoria boa pra rodar.

    • @thiagonovaes94
      @thiagonovaes94 7 днів тому +2

      Sim o desempenho por exemplo do DeepSeek versão Web é maior, visto que ta rodando com 671B, mas pelo que vim testando nas últimas 3 semanas, o DeepSeek-R1-Distill-Qwen-1.5B tem um desempenho bem próximo ou quase igual ao DeepSeek R1 Distill (Llama 8B) que particularmente não achei tão bom esse da Llama. Já o modelo DeepSeek-R1-Distill-Qwen-14B pra mim foi o que mais me agradou até mesmo mais que o 32B até porque o limite aceitável da minha maquina é o 14B kkk, basicamente estou testando com meu uso e demandas diárias que evolve cálculos de matemática avançada, física e programação. E o modelo de 14B está conseguindo se sair bem, errando as vezes na primeira resposta, mas conseguindo corrigir na segunda ou terceira tentativa. O que me faz falta é uma entrada multimodal e a voz avançada que tem na openAI, que estou tentando contornar com gambiarra, mas também é provável que o DeepSeek R2 venha com isso. Agora o modelo que eu estou usando na grande parte do tempo é o DeepSeek-R1-Distill-Qwen-7B que roda incrivelmente bem em minha máquina, é leve, rápido e pra coisas básicas ele dá pro gasto, quando o caldo engrossa passo pro 14B. Quanto a minha maquina estou rodando esses modelos em um laptop Dell G15 de primeira geração, com Ryzen 5 5600H, RTX3050 4GB e 16GB de RAM, então meu limite aceitável é o modelo de 14B o de 32B ate rodou mas numa lerdeza absurda. Mas aqui deixo um adendo, estou usando no LM studio e tem que saber ajustar alguns ajustes lá dentro para equilibrar o hardware, pq senão vc deixa tudo lento mesmo com uma maquina em teoria boa pra rodar.​@@DouglasCarioca7

    • @DouglasCarioca7
      @DouglasCarioca7 7 днів тому

      @@thiagonovaes94 Boa man, eu testei o modelo de 8B na minha AMD RX 6600XT de 8GB e ele até rodou bem, mas eu pretendo arrumar uma RTX 3090 que tenho aqui pra usar justamente pra isso, pq dai eu consigo usar o modelo de 33B com quantização e conseguir uma taxa de tokens/s aceitável, dai quero fazer isso pra desenvolver aplicações e usar minha máquina pra o ambiente de stage e quando eu tiver o produto feito eu uso a api do deepseek pra alimentar a aplicação pois além de ser mais rápida e atender a carga esperada de requisições, não é tão cara e para mim vale mais a pena do que investir em servidores pra rodar local

  • @qualeaarte889
    @qualeaarte889 6 днів тому +1

    habilitou o o3-mini e o o3-mini-high pra mim aqui hoje \o/

  • @rafaelluiz5792
    @rafaelluiz5792 4 дні тому

    Mestre, faz uma análise sobre a Qwen.

  • @vassoritzen
    @vassoritzen 7 днів тому

    2:06 , essa tua fala merece um filme inteiro! hehehe

  • @SacanagemSincera
    @SacanagemSincera 7 днів тому +9

    hoje já vi um novo whitepaper os caras otimizaram o r1 pra 1.5b, surreal bicho aprendendo sozinho

    • @Geraluzando
      @Geraluzando 7 днів тому +2

      Eu acho que os modelos destilados e/ou compactos serão uma opção mais acessível daqui para frente, sendo que alguns modelos que tem 7B de parâmetros roda em casa de boa sem nenhum problema.

    • @Fernando-e6w
      @Fernando-e6w 7 днів тому +2

      ​@@Geraluzandoo futuro será esses modelos pequeno

    • @minutacio
      @minutacio 7 днів тому

      @@Fernando-e6w pra quande maioria sim, pra que eu vou querer uma ia cientista AInstein se eu preciso dela só pra papear fofoca Leao Lobo kkkk

    • @Fernando-e6w
      @Fernando-e6w 7 днів тому

      @@minutacio para grande maioria vai ser apenas para responder perguntas bobas e pesquisas rápidas.

  • @RafaelRibeiro-ug1jw
    @RafaelRibeiro-ug1jw 7 днів тому +4

    Qual configuração mínima precisa para rodar localmente o Deepseek?

    • @SacanagemSincera
      @SacanagemSincera 7 днів тому

      4gb pro modelo 1.5b

    • @Fernando-e6w
      @Fernando-e6w 7 днів тому +1

      Gpu com pelo menos 8gb de vram da série rtx

    • @fabioa8059
      @fabioa8059 7 днів тому

      Rodo o de 7 bi num notebook. É mais fácil testar

    • @leosmi1
      @leosmi1 7 днів тому

      compensa usar o modelo da qwen para rodar localmente, são melhores.

    • @DouglasCarioca7
      @DouglasCarioca7 7 днів тому

      Se quiser rodar um modelo decente de pelo menos 33B de parâmetros, vai precisar de uma placa bem potente, uma RTX 3090 e usar modelo de quantizacao que deixa ele mais "leve". Mas no fim seu resultado com a velocidade de tokens/s vai ser muito inferior à aplicação web

  • @marcelocosta2612
    @marcelocosta2612 6 днів тому

    Nossa, o Zuckerberg não desiste mesmo desse óculos hein? Colocou até uma IA para ver se dá certo kkkk

  • @ailsonreuel
    @ailsonreuel 6 днів тому

    deepseek chegou para quebrar esse paradigma papai

  • @MrRickjfer
    @MrRickjfer 7 днів тому +1

    Não uso o lhama do zap, a não ser pra gerar uma ou outra imagem rapidamente. Nem mesmo pra gerar respostas, prefiro o Gemini pra isso. Como meu celular tem root, uso um módulo lsposed que permite gerar uma resposta pelo Gemini direito pelo teclado no celular.

  • @augustojlle
    @augustojlle 6 днів тому

    Concorrência gera aumento da qualidade e menores preços geralmente 👍🏻👍🏻

  • @Gabriel-ch7sx
    @Gabriel-ch7sx 7 днів тому +1

    Notícias que eu gostaria de ver aqui em 2025:
    1. China anuncia pleno domínio da geração de energia por fissão nuclear e começa as operações ainda esse ano. Membros dos BRICS terão preferência para a contratação do serviço por um preço camarada 😂😂.
    2. DeepSeek lança modelo multimodal opensource com desempenho superior ao das concorrentes estadunidenses.
    3. Huawei lançar gpu capaz de rodar localmente qualquer modelo do DeepSeek. O valor indicado equivale ao de um Raspberry Pi.

  • @igormedeiros
    @igormedeiros 7 днів тому

    Então, a Devin já está indo bem, até o Nubank é cliente, isso integrado no git repo, gestor de cards tipo jira e Slack para receber os prompts

    • @qualeaarte889
      @qualeaarte889 6 днів тому

      bem mal. Vc perde mais tempo corrigindo o código que qualquer outra coisa, eles estão fazendo isso pelo hype, se bobear a galera do devin tá pagando eles pra fazer essa publi. Na prática, ainda não vale a pena, o código gerado é todo feito de qualquer jeito. Acredito sim na qualidade de código num futuro próximo, mas ainda não chegamos lá. Até o o3 tá fazendo uns códigos problemáticos. Funciona, mas é cheio de problemas de segurança e mal estruturado.

  • @deussayajin1441
    @deussayajin1441 7 днів тому

    Show😅

  • @walasjoao5065
    @walasjoao5065 6 днів тому

    o negócio está ficando tenso...

  • @AIVideos-dy8ob
    @AIVideos-dy8ob 7 днів тому

    Pra mim não atualizou. Chegou pra alguém aí atualização do ChatGPT? Dá pra saber perguntando "qual sua data de corte?"

  • @AIVideos-dy8ob
    @AIVideos-dy8ob 7 днів тому

    Acho que o pessoal que tá usando o llama é bem aquele usuário básico. Desses que nunca baixa um navegador diferente, usa o Edge, nem sabe o nome do navegador.

  • @devalcisantos
    @devalcisantos 7 днів тому +3

    Eu acho que EU não tem nada haver com a política externa do USA! Precisamos focar no Brasil não ficar torcendo para a China ou para o USA! Geopolítica deixa para os outros canais do UA-cam

    • @fabioa8059
      @fabioa8059 7 днів тому +3

      Geopolítica afeta a vida de todos. Até porque a política externa dos EUA se aplica ao Brasil

    • @devalcisantos
      @devalcisantos 7 днів тому

      @fabioa8059 concordo, mas, há outros canais específicos nessa questão... Aqui "se me permite" dar opinião como assinante era focar nos temas de IA igual da época antes da eleição do Trump. De qualquer forma acho que o USA está correto e também acho que a CHINA está correta... O Brasil que está errado é só fala... em regulamentação e pauta woke e ESG... Enquanto a China investe em todo tipo de energia e tecnologia...

    • @fabioa8059
      @fabioa8059 7 днів тому

      @@devalcisantos o objetivo é cobrir ia. E faz parte da cobertura mostrar que as empresas querem boicotar seus concorrentes. Não existe cobertura de ia sem fazer de política

    • @julianoguimaraes845
      @julianoguimaraes845 7 днів тому

      Boa

    •  7 днів тому

      A IA de baixo nível está lá no gituhub (deepseek) para vcs estudarem, aqui não é canal de estudo sobre, então falar na consequência da IA nas vidas da pessoa ou nações é fundamental para nós pressionarmos nossos dirigentes a entrarem nessa corrida. Senão vamos ficar pra trás, como sempre!!

  • @josevaldenir4524
    @josevaldenir4524 7 днів тому

    a primeira guerra fria levou o homem a lua, espero que a segunda seja algo bem surreal

  • @Nerd_no_Volante
    @Nerd_no_Volante 7 днів тому

    Ja saiu alguma IA no a hoje? To assim agora kkkkkk vamos ver quem chega na frente kkkkkkk

  • @eduuuuuuuuuuuuuuuism6755
    @eduuuuuuuuuuuuuuuism6755 6 днів тому

    vamos que andar de burca na rua para não ser vigiado pela IA.

  • @alefribeiro5923
    @alefribeiro5923 7 днів тому

    Achei engraçado conhecimento de junho do ano 2024, eu achei legal diferença onisciência e onipotência os jogos usou emoji

  • @henriquefern67
    @henriquefern67 7 днів тому +1

    O llama do WhatsApp e Instagram é um lixo

  • @Felipelima85
    @Felipelima85 6 днів тому

    Viva ao socialismo Chinês!!!!

  • @corpocaustico
    @corpocaustico 7 днів тому

    E o livre comércio do papai EUA, ancaps?

  • @marciobob4529
    @marciobob4529 7 днів тому +4

    o tramp ta certo puta bagunça tava la, tipo Brasil zorra total ai não da

  • @cr7raposo
    @cr7raposo 7 днів тому

    Se com esses óculos eu puder ver a Joi. Eu pago 5k.

  • @AIVideos-dy8ob
    @AIVideos-dy8ob 7 днів тому +1

    O problema é que Chips são tecnologia dual, inteligência artificial também. Pode ser usado na guerra..e vai ser.. já tem testes assim na Ucrânia com drones voadores e em solo.

  • @Srcabulozo
    @Srcabulozo 7 днів тому

    Huawei ja possui chip com a mesma capacidade do h100, nvidea ta praticamente morta na china para servidores 😂🎉❤

  • @betobrandao9891
    @betobrandao9891 7 днів тому

    siiim... TODOS que conheço usam Whatsapp

  • @henriquefern67
    @henriquefern67 7 днів тому

    Impossível uma ia de um engenheiro de nivel médio em 2025. Talvez 2026 ou 2027

    • @Srcabulozo
      @Srcabulozo 7 днів тому

      O foco das desenvolvedoras esta sendo sempre a segurança, se botar as ias para colaborarem entre si sem restrições a super inteligencia chega no final do ano 😂🎉

    • @fabioa8059
      @fabioa8059 7 днів тому +1

      Depende do engenheiro, tem muita gente ruim no mercado

  • @FREDDADE-y9m
    @FREDDADE-y9m 7 днів тому

    Mas a Deepseek não teve dados vazados? O pessoal ainda confia usar ele?

    • @Felipelima85
      @Felipelima85 6 днів тому

      Qual empresa não vaza dados??!!! Isso aconteceu com a Google e a meta diversas vezes.

    • @FREDDADE-y9m
      @FREDDADE-y9m 6 днів тому

      @@Felipelima85 Sério que vai passar pano?
      O negócio não passou nem um mês direito e já saiu vazando dados de geral.

    • @FREDDADE-y9m
      @FREDDADE-y9m 6 днів тому

      @@Felipelima85 então vai lá dar teus dados kkkk

  • @conexaoparanormal7
    @conexaoparanormal7 7 днів тому +1

    Podem fazer oque quiser. Já perderam para China! E para os BRICS😂😂😂