Como Usar o DeepSeek R1 Grátis Local Off-Line com LM Studio e Ollama | Melhor que ChatGPT?

Поділитися
Вставка
  • Опубліковано 29 січ 2025

КОМЕНТАРІ • 305

  • @Max_Moura
    @Max_Moura 2 дні тому +172

    Pra quem tem dúvida de por que o LLM age de modo tão "burrinho", eis a explicação dada por ele mesmo: "A resposta original considera as informações fornecidas no problema, que não mencionam se o copo está aberto ou fechado. Se o copo estiver aberto, ao virá-lo, o dado realmente cairia na mesa devido à gravidade (cenário realista). Porém, como o enunciado original afirma que o dado permanece dentro do copo após a inversão e movimentação para o fogão, entende-se que o contexto implicitamente assume que o copo está fechado/tampado ou que o dado está preso (ex.: por aderência ou design do copo)." Ou seja, parte do problema é como nós, humanos, temos a premissa de que todo copo que existe no mundo está sempre com a parte de cima (boca) aberta, e o LLM considera que poderia haver uma tampa no copo. O fato é que nossa maneira de pensar tende a assumir muitas coisas (isso facilita nosso processo cognitivo, implicitamente a gente considera que algo sempre vai ser de um jeito, simplesmene pq na maioria das vezes é daquele jeito), e isso gera o problema da falta de contexto ao conversarmos com um LLM, a gente acha que já falou tudo o que importa, quando na verdade é o nosso jeito de pensar que é cheio de pequenos atalhos mentais.

    • @antoniocarvalhaes
      @antoniocarvalhaes 2 дні тому +9

      É mas penso que, se tem tampa, era mais lógico que mencionassemos ao menos que a fechamos. já que não daria para simplesmente colocar o dado com o copo já tampado.

    • @Max_Moura
      @Max_Moura 2 дні тому +11

      ​@@antoniocarvalhaes, ótimo ponto, e que boa discussão o vídeo do Bob nos trouxe. Provavelmente nós 2 temos razão. O seu ponto é que faltou "coerência temporal" à IA. Humanos assumem que copos permanecem abertos, a menos que sejam explicitamente fechados. Como o copo estava aberto para o dado entrar, seu argumento (bastante válido) é que ela deveria considerar esse mesmo estado até o fim do raciocínio. Entendo. Já o meu ponto diz mais respeito à explicação do comportamento da IA: Um LLM não tem experiência física do mundo real, por isso ele não assume automaticamente premissas (de que, por padrão, um copo é aberto), e ele explora todas as possibilidades textualmente válidas. Meu ponto é que devemos considerar que a IA parte do que você tá dizendo pra ela e vai tentar considerar muitas hipóteses. Em resumo, não custa nada dar uma forcinha pra ela entender melhor o problema que você tá passando pra ela. E já fica uma sugestão de tema pro Bob: trazer aqui um mini-curso sobre Engenharia de Prompt. Um forte abraço e obrigado pela excelente discussão, Antônio!

    • @jaedsonsouza294
      @jaedsonsouza294 2 дні тому +3

      ​@@Max_Moura cara você trouxe um tópico interessante. Quando eu sugerir a LLM nos meus trabalhos no escritório vou considerar essas visões.

    • @Cookieukw
      @Cookieukw 2 дні тому +3

      Eu coloquei o mesmo texto do copo no gpt e ele disse a mesma resposta, que o copo estaria com o dado dentro. Porém eu gerei outra resposta e alterei o input, especificando que o copo não tem nenhum tipo de grude ou vedações e a resposta do gpt foi diferente. Ele disse que o dado cairia e ele ainda errou porque disse que era sobre o fogao, mas depois que especifiquei que virei o corpo sobre a mesa ele raciocinou

    • @Cookieukw
      @Cookieukw 2 дні тому +5

      Coloquei um copo em cima da mesa e coloquei um dado dentro do copo. O copo é só um copo normal, não tem cola, vedações e afins. Virei o copo de cabeça para baixo na mesa. Peguei o copo e levei ele para cima do fogão. Onde está o dado?
      > O dado provavelmente ficou sobre a mesa, no local onde você virou o copo de cabeça para baixo. Como o copo é normal, sem cola ou vedações, e foi apenas virado, o dado teria caído da borda do copo durante o movimento. Assim, quando você levou o copo para o fogão, ele foi sem o dado.

  • @brminersoficial2014
    @brminersoficial2014 2 дні тому +57

    Ele está certo. Nós não especificamos se havia atmosfera , ele achou que estava no espaço .

    • @MrWaby
      @MrWaby День тому

      Como haveria pressão atmosférica sem gravidade? Se tem gravidade ele não estava no espaço. FIM

    • @railsonmateus4802
      @railsonmateus4802 19 годин тому +1

      @@MrWaby pelo que entendi a IA considerou que estivesse em um ambiente de experimento controlado e não no ambiente normal

    • @rodNantz
      @rodNantz 17 годин тому

      @@MrWaby existe gravidade sem atmosfera po kkkk

  • @brunogoncalves9747
    @brunogoncalves9747 День тому +2

    Bob, muito maneiro teu conteúdo, cara! Achei que ficou muito bacana a comparação entre os tipos de uso que você fez, tanto local e no servidor, especialmente pra quem não tem muito conhecimento na área! Parabéns mesmo!

  • @juantanajura
    @juantanajura День тому +2

    Muito bom! Parabéns pelo conteúdo, Bob!

  • @augustomarchand
    @augustomarchand День тому +11

    O Deepseek R1 foi um dos tapas de luva mais lindos da história. Tá todo mundo atordoado até agora lá dentro dos EUA sem entender direito o tamanho do estrago. Com hardware desatualizado os caras desenvolveram um modelo de desempenho equivalente aos mais tops, gastando 5% da grana toda que os americanos gastam pra treinar, e podendo rodar em PC's comuns; ainda publicaram um paper técnico detalhando com transparência de todo o processo. Como se não bastasse, pra humilhar eles disponibilizaram gratuitamente pro mundo inteiro usar...e como se ainda não bastasse, disponibilizaram em código aberto, até pros rivais das big techs americanas poderem copiar. Isso se chama humilhação em praça pública. Agora vamos a uma observação importante mais além do fato: Se o governo chinês permitiu que uma start up lá dentro disponibilizasse isso pros concorrentes americanos, é por que na verdade lá dentro a portas fechadas eles já têm coisas muito mais avançadas nos laboratórios de pesquisa e desenvolvimento, coisas que eles não vão abrir, obviamente para que possam estar na frente da concorrência e dominação tecnológica. Essa é a conclusão inevitável.

  • @luisferreira920
    @luisferreira920 2 дні тому +33

    Cara estou maravilhado aqui com o Deepseek, rodei está manhã o modelo 8B baixado do Ollama e usando O AnythingLLM como UI, ele rodou bem rápido em minha Desktop com uma GTX 1070 8GB, Core I5 8600 e 16 GB RAM. Ele respondondeu a uma charada de forma incrível e a forma como respondeu testando as possíbilidades que ele imaginou que seria até chegar a resposta correta foi sensacional. A charada:
    Se Celia tem um carro de modelo Celta e Olga tem um Opala quem é a dona do Fusca: Maria, Paula ou Fernanda?
    O final da resposta
    ...
    Depois de uma rápida verificação mental, acho que a resposta pretendida é Paula porque "Paula" tem um "u", que corresponde ao "u" em "Fusca". Mas outra parte de mim acha que é Fernanda porque seu nome começa com F, correspondendo à inicial de Fusca.
    Espere, talvez a charada seja estruturada de forma que cada modelo de carro corresponda ao nome de uma pessoa. Celta (C) → Celia; Opala (O) → Olga; então a próxima seria alguém começando com F, portanto Fernanda é dona do Fusca.
    Sim, isso faz sentido. Então a resposta seria Fernanda. Pensando ...
    A dona do Fusca é Fernanda.
    Explicação:
    A charada vincula o nome de cada pessoa a um modelo de carro por meio de iniciais ou sons.
    Celia (C) corresponde a Celta, e Olga (O) a Opala.
    Seguindo esse padrão, alguém que começa com F teria Fusca, que é Fernanda.

    • @zackgames3173
      @zackgames3173 2 дні тому

      o chat gpt teve outro raciocínio:
      "Essa é uma daquelas charadas clássicas que joga com os nomes e os contextos, mas se considerarmos a brincadeira lógica, a resposta seria Maria.
      Por quê? O trocadilho "Célia - Celta" e "Olga - Opala" sugere uma associação fonética entre os nomes das pessoas e os carros. Seguindo a lógica, "Fusca" lembra "Maria" pela sonoridade mais próxima. É um tipo de raciocínio baseado em brincadeiras com sons e associações! 😊 "

    • @pedrovaladao.
      @pedrovaladao. День тому

      @@zackgames3173 Burro dms kkkkkkkkk

    • @luisferreira920
      @luisferreira920 День тому +4

      ​@@zackgames3173 Totalmente incorreto, simplesme a charada tem aver com a letra inicial de cada nome que é igual a inicial de cada carro, o modelo acertou ! É uma charada bem simples para qualquer humano entender !

    • @PauloFigueredo
      @PauloFigueredo День тому

      @@zackgames3173 ou seja, o chat gpt não conseguiu entender/raciocinar.

  • @id-aiHa-Ezio
    @id-aiHa-Ezio 3 дні тому +35

    Excelente! Obrigado por compartilhar. Tô rodando local e é incrível os resultados. O modelos tão ficando cada vez mehores.

    • @PicanhaDeAbobora4
      @PicanhaDeAbobora4 2 дні тому

      😂😂😂😂😂😂😂😂😂

    • @joaoalberto7298
      @joaoalberto7298 День тому

      tá rodando bolsinha?

    • @SharkStrikeAC
      @SharkStrikeAC День тому

      @@joaoalberto7298 Sai daew Quinta Série!...

    • @Zero-g1e3f
      @Zero-g1e3f 18 годин тому

      o modelo local é livre de restrições politicamente corretas ?

    • @jhonwilker7062
      @jhonwilker7062 15 годин тому

      quais ois requisitos minimos pra rodar ele localmente?

  • @PsicólogoCharlesBelchior
    @PsicólogoCharlesBelchior День тому +4

    Ganhou um inscrito e admirador do seu trabalho!
    Me ganhou quando falou das configurações da sua maquina.
    Parabéns pelo conteúdo.
    Uma crítica construtiva: Se possível, verifique o microfone. Para mim o áudio parece um pouco estourado.

  • @luiszr1
    @luiszr1 День тому +7

    quem diria que bilhoes e bilhoesde investimento em educação e engenharia no final sairia uma IA de ponta e performatic. Bom video

  • @GCMLEANDRO2008C6
    @GCMLEANDRO2008C6 16 годин тому

    Pra mim vc é o melhor pra explicar parabéns

  • @iagonathanaelcavalca
    @iagonathanaelcavalca 17 годин тому

    Excelente conteúdo, +1 inscrito

  • @doctormachine14
    @doctormachine14 День тому +2

    Valeu!

  • @edualves15
    @edualves15 2 дні тому +15

    Quando esses modelos locais começaram a surgir comprei logo uma RTX 3060 com 12gb. É o melhor custo benefício no momento, mas está ficando difícil encontrar esse modelo. O Deepseek 14B roda super bem. Também uso Stable Diffusion e outros modelos.

    • @luizaugusto4294
      @luizaugusto4294 День тому

      Stable Diffusion gera a imagem local?

    • @23Puck666
      @23Puck666 День тому

      @@luizaugusto4294 Sim, só usar o webui ou o Comfy.

    • @viniciusfdb
      @viniciusfdb 17 годин тому

      @@luizaugusto4294 gera sim, tenho uma 3080ti, vai que é uma beleza.

  • @brminersoficial2014
    @brminersoficial2014 2 дні тому

    Seu canal e maravilhoso. Muito obrigado por tudo irmão.

  • @luisgustavosantini6843
    @luisgustavosantini6843 День тому +3

    Bob, testa o Juninho gênio (deepseek-R1 -1.5B) para resolver questoes de matemática do ITA, tente fazer algum comparativo entre as quantizações disponíveis no ollama Q4(padrão), Q8 e fp16! Obrigado!

  • @AlleartGames
    @AlleartGames День тому +2

    Finalmente algo consumindo mais memoria que o Chrome no PC, mas ta valendo muito a pena 😂 IA de graça agora já temos, só falta muitos equiparem seus hardwares pra isso.

  • @DiegoDutraLive
    @DiegoDutraLive 2 дні тому +1

    Obrigado por compartilhar o seu conhecimento! Ganhou um inscrito! 🙏🏻✨

  • @Anunakin
    @Anunakin День тому +2

    Instalei o LM Studio e a DeepSeek além de lembrar de tudo que já falei com ela, foi de boas e em português.
    Testei os modelos lhama de 4GB e 8GB, ambos não divergiram grandes coisas nas respostas, mas como minha placa tem só 4GB de VRAM, ela chhorou um pouco pra rodar a de 8GB

  • @mariovinicius8765
    @mariovinicius8765 2 дні тому +31

    Dá próxima coloca que há gravidade de 9.8N, que o copo foi virado para baixo à 90° e que a pressão atmosférica é de 1 atm, como se estivesse no nível do mar ou próximo.

    • @gilbertogiba1195
      @gilbertogiba1195 2 дні тому +1

      Up

    • @renatok26
      @renatok26 2 дні тому +11

      eu só queria usar o chatgpt, agora vou terq entrar num cursinho de fisica 😢😢😢

    • @pri_ramje
      @pri_ramje День тому +3

      Ou vc pode simplesmente pedir para considerar a atmosfera terrestre e um copo de cozinha comum ou, copo americano.

  • @CaioSousa-on9ds
    @CaioSousa-on9ds 2 дні тому +12

    O san prometeu 100 mensagems ao o3 mini por semana e no outro dia ja aumentou pra 100 por dia, obviamente com medo do deepseek, esse ano vai ser louco e olha que estamos em janeiro aimda..

  • @HenriqueSilva-o7s
    @HenriqueSilva-o7s День тому +1

    O cara sabe o que está falando....vídeo muito bom.

  • @caduguimaraes
    @caduguimaraes 2 дні тому +1

    Suas dicas são top demais

  • @Anunakin
    @Anunakin День тому

    Agora sim deu vontade de aprender a API da DeepSeek

  • @cybermsantos
    @cybermsantos День тому +1

    Primeira vez que venho nesse canal e fiquei com a sensação de estar assistindo um jogo de futebol. "Ai sim minha gente !!!"

  • @FernandoPereira_YouTube
    @FernandoPereira_YouTube День тому +2

    Super! Obrigado

  • @Fragmentosestelar
    @Fragmentosestelar 11 годин тому

    Instalei aqui. Já fiz um vídeo com llama, vou fazer um com o deepseek.

  • @viniciusandrade6105
    @viniciusandrade6105 14 годин тому

    vídeo excelente

  • @NogTecnologia
    @NogTecnologia 2 дні тому +1

    Parabéns meu amigo, muito legal seu video, conheci seu canal a gora e ja to seguindo!! Pergunta: Consigo fazer solicitação pra esse modelo via http? Ou seja, integra via API meus sistemas na inteligência?

  • @SauloPatricio777
    @SauloPatricio777 2 дні тому +1

    teria algum que gera imagens local ? um abraço gostei muito.

  • @lucasdametto8614
    @lucasdametto8614 День тому

    Obrigado pelo vídeo mano

  • @HakuChain
    @HakuChain 2 дні тому

    Você manja muito meu parceiro.

  • @flavioe.2770
    @flavioe.2770 2 дні тому +2

    Baixando e instalando, eu posso "apontar " como base de conhecimento um conjunto de documentos que eu tenho para fazer respostas com base neles? Se sim, como?

  • @andrezao_o
    @andrezao_o День тому

    otimo vídeo parabéns

  • @fabioacarvalho
    @fabioacarvalho День тому +3

    Eu consigo treinar esse modelo para lidar com as minhas informações? Por exemplo dados gerados pele minha empresa?

    • @Anunakin
      @Anunakin День тому +1

      Sim, tem que usa a API, para carregar os dados na forma de tabelas, daí manda ela tratar

    • @Anunakin
      @Anunakin День тому +1

      Dá pra copiar e colar tabelas de dados tbm

    • @fabioacarvalho
      @fabioacarvalho День тому

      @@Anunakin mas nesse caso meus dados estariam no servidor deles certo? Eu queria saber se tem como eu rodar esse modelo deles em um intranet tipo o llama?

  • @waltermax3796
    @waltermax3796 2 дні тому +1

    Incrível !!!

  • @madalenamonte4360
    @madalenamonte4360 15 годин тому

    Olá! Precisa baixar ou dá para usar on line, como o ChatGPT?

  • @vitoraugusto1085
    @vitoraugusto1085 19 годин тому

    Eu nao tenho muito conhecimento de IA...existe algum video que eu possa assistir para eu aprender algo sobre essas ferramentas? Para que servem elas?

  • @thiagonovaes94
    @thiagonovaes94 2 дні тому +2

    Pelo que percebi o modelo DeepSeek R1 Llama 32B me parece ser o modelo mais redondo e ideal para rodar localmente, não precisa de uma maquina exorbitante, mas um desktop ou laptop com no minimo uma 4060. Aqui consegui rodar de boa ate o de 14B que ja achei muito bom.

    • @natanaelsilva1004
      @natanaelsilva1004 2 дні тому +1

      precisa pelo menos tambem uns 32gb de ram para usar esse modelo

    • @thiagonovaes94
      @thiagonovaes94 2 дні тому +1

      @@natanaelsilva1004 Creio que o modelo de 32B alem de 32GB de RAM como vc mencionou, teria que ter uma GPU parruda em questões de VRAM pelo menos 8GB. Estou deduzindo pois meu Hardware é mais modesto que isso mas ainda sim consegui rodar o de 14B de forma tranquila fazendo ajustes, mas seria bom alguém que conseguiu e tem maquina mais parruda testar e nos dizer.

  • @PauloLyra
    @PauloLyra День тому +1

    é jovem ,mas maior parte do cluster do deepseek foi construído com arquitetura pascal e turing da nvidia, ou seja, de geração atrás e não a mais recente, funcionando bem. Uma 1060 para local está ótimo. Aqui usando uma 3070 em uma vm linux

    • @ocoitadimvoltou7696
      @ocoitadimvoltou7696 День тому +1

      Com a IA estadunidense o mundo não confiava muito e faltava uma parcela dos humanos a serem reconhecidos no mundo, principalmente países mais fechados. Agora todos ou quase todos serão reconhecidos. Imagina Estados Unidos e China dividindo o império? Talvez você no futuro possa escolher se será colônia de um ou de outro, não é legal essa inteligência ? Ou prefere a terceira guerra mundial ?

  • @fagnerribeiro927
    @fagnerribeiro927 2 дні тому +3

    obrigado pela aula professor, parabéns pelo vídeo !!!

  • @jokastudios
    @jokastudios День тому

    Eu testei, pedi pra ele criar uma estrutura de banco de dados semelhante o da Netflix.. E ele criou direitinho e deu até sugestões. Tudo em off-line

  • @PortaldeNovaLima
    @PortaldeNovaLima День тому +1

    Boa tarde amigo! Como posso criar um vídeo como este seu? Aparece a tela e essa bola com seu rosto. O audio também é integrado? Pode me ajudar? Obrigado

  • @juninhovit
    @juninhovit 2 дні тому +2

    For a interface gráfica ele disponibiliza api também ? Local

    • @devgui_
      @devgui_ 2 дні тому +1

      Pelo lm Studio só vc ligar o server na porta 1234

  • @carlostomaz5461
    @carlostomaz5461 День тому +1

    Alguém peça para a deepseek montar um código em C++ que calcule os coeficientes de shapiro-wilk para qualquer quantidade de registros. Antes de falar qualquer coisa a IA especifique que se ela não tiver certeza de conhecer o assunto não precisa responder ou realizar a tarefa, apenas informa que não sabe para evitar induzir ao erro e a perda de tempo. Depois procure algo sobre um personagem histórico que não seja muito conhecido hoje em dia para ver com ela vai responder, depois confira as informações, errar é normal. Mas prestem atenção na atitude quanto a transparência e integridade em passar uma certa certeza quanto ao que não há como ter certeza alguma. Serão horas e horas muito "agradáveis" ... não tenham pressa e prestem atenção aos detalhes ... Boa Sorte !!!

  • @JVMMauro
    @JVMMauro 2 дні тому

    A arquitetura que o R1 utiliza se chama MoE (Mixture of Expert).

  • @teteudofish
    @teteudofish 16 годин тому

    Funciona bem no MacBook?

  • @minascontabilidade5458
    @minascontabilidade5458 День тому

    É possivel utilizar em uma rede local? Disponibilizando talvez como uma interface de site local para que outras máquinas possam interagir?

  • @daviobalburdia
    @daviobalburdia День тому

    Sou leigo na matéria, minha questão é, da para configurar o DeepSeek local para ter uma interação de voz nem avançada igual a que a OpenAI oferece hoje?

  • @CarlosECR
    @CarlosECR 23 години тому +2

    Pergunte ao deepseek sobre o massacre da praça da paz celestial.

  • @monicamelosales4749
    @monicamelosales4749 2 дні тому

    grata. assim vou usar

  • @Silvio_Monteiro
    @Silvio_Monteiro День тому

    muito bom!!!!

  • @machadoow
    @machadoow 19 годин тому

    Galera, rodando localmente eu consigo anexar imagem/documento? Há algum custo envolvido (quantidade de tokens e afins)?

  • @lcsll100
    @lcsll100 2 дні тому +5

    O modelo errou porque você ativou o search. A versão destilada é inútil se você quer ter uma resposta mais certeira, para usar a versão local com o mesmo desempenho da versão online, teria que ter um PC muito mais muito parrudo, no mínimo, 4 Placas de vídeo NVIDIA RTX 4090 24GB, memória RAM de pelo menos 512GB. Melhor usar API que o preço é super barato.

    • @natanaelsilva1004
      @natanaelsilva1004 2 дні тому

      uma rtx 4070 ja da conta, o problema mesmo vai ser os 512gb de ram pra rodar o deepseek mais top

  • @caio7740
    @caio7740 2 дні тому +3

    Mano, imita o cj pegando fogo pra eu ver uma coisa..

  • @famfilhoyt
    @famfilhoyt День тому +1

    Olá Sou leigo nessa área, mas fiquei pensando sobre a utilização do deepseek.
    O questionamento é: não estaríamos fornecendo dados importantíssimos de nós mesmos e ajudando ao inimigo a desenvolver tudo muito mais tudo o que ele quisesse, digo, estaríamos alimentando exponencialmente o desenvolvimento de tudo para o PCCHINÊS??? Não que os outros não o façam, mas pelo menos os outros são ocidentais...

  • @rrubles
    @rrubles День тому +1

    Que legal ver todos correndo pro colo do xixi jinping.

    • @Billyce18
      @Billyce18 День тому

      Mano, eu concordaria 100% com vc, se não fosse o fato de que os EUA se utilizam exatamente dos mesmos artifícios de manipulação. Duvida? É só vc ver a sua reação a qualquer outro lugar do mundo fazendo coisa melhor do que os EUA, vc já tá alienado, corrompido, sofreu lavagem cerebral, acha que os EUA é do bem, nunca faz nada de errado.

  • @didafe
    @didafe 2 дні тому +1

    Qual placa você pretende pegar?

    • @raininheart9967
      @raininheart9967 2 дні тому +2

      Ele eu não sei, mas eu iria de 4060ti16gb ( eu uso ) ou aguardar a 5060ti 16gb. Mas se for pra gastar melhor ir de 4090

    • @didafe
      @didafe 2 дні тому

      @@raininheart9967 Show, acho que ele vai de H100 80 GB...kkk

  • @leonardosilvasantos1515
    @leonardosilvasantos1515 День тому

    Será que eu consigo instalar no meu notebook DellG15 com a placa se vídeo GTX 1650? Seria legal se puder alimentar ele com os dados em PDF para ajudar nos trabalhos do dia dia. Imagina poder conversar com o chat sobre uma determinada norma.

  • @eucaiobeppler
    @eucaiobeppler 11 годин тому

    Só texto? Imagem tem será?

  • @robersidrome
    @robersidrome День тому

    Sensacional

  • @ChicoCassio
    @ChicoCassio День тому

    As novas placas da Intel Arc Serie B580 está a melhor custo beneficio para começar a estudar AI ja que foi feito um melhoria nos pipeline vetorias da placa.

  • @cheeseminer7672
    @cheeseminer7672 19 годин тому

    eu tenho uma RTX 3060 no meu pc....rola de até quanto?
    tenho um ryzen 9 3900x , 32gb de ram

  • @gustav_d_paula-Production
    @gustav_d_paula-Production День тому +1

    Fiz o desafio do copo com o Deepseek, Gemnini, Copilot ChatGPT 3.5. Copilot acertou de primeira e o deepseek também acertou de primeira, mas o que me chamou a atenção foi que as palavras do Deepseek foram quase que exatamente as mesmas do Copilot, como se tivesse visto a resposta e copiado, já que perguntei primeiro ao Copilot. Gemini e ChatGPT 3.5 erraram miseravelmente.

    • @henriquefern67
      @henriquefern67 День тому +2

      China faz copia ou faz engenharia reversa. Provavelmente conseguiu o codigo fonte dos modelos da open ai e copiou

    • @federicoapablaza
      @federicoapablaza 19 годин тому

      ​@@henriquefern67esses códigos estão livres para acessar só pagar

  • @alefribeiro5923
    @alefribeiro5923 2 дні тому

    Eu uso online gostei muito deepseek R1, em biologia e filosofia mesmo ansiedade meu personalidade pelo 350 palavras GPT 4o pelos recursos de memória,

  • @fabioa8059
    @fabioa8059 2 дні тому

    To rodando num Pc médio notebook o de 7 bi qwen no ollama, tá funcionando bem

  • @JoelsonReis-hf3ew
    @JoelsonReis-hf3ew День тому

    Estou apenas com um notebook samsung (galaxybook3 360), consigo rodar ? ou é preciso ter uma placa de vídeo ?

  • @jun1orIV
    @jun1orIV 18 годин тому

    Instalei o 14B, usa 9.5GB de memória de vídeo aqui na 7700XT

  • @brminersoficial2014
    @brminersoficial2014 2 дні тому +6

    Meu amigo. Monte um Pc gamer barato , vc pode pegar umas 4 rtx 4070 usadas em mineração e um kit Xeon e52666 v3 com 64 GB de ram ddr4 ECC . E tudo muito mais barato

    • @dxtavela
      @dxtavela 2 дні тому +1

      ou até 3090, que possui 24gb de ram. Hoje em dia memoria ram ddr4 está muito barato, da até para colocar mais

    • @erickluz
      @erickluz 2 дні тому

      qual a estimativa de valor desse kit?

  • @Mudinhogameplay
    @Mudinhogameplay День тому +1

    Meu amigo. em 6:24 não tem a ver com placa de video... é so o tamanho do arquivo.

    • @pedroh.748
      @pedroh.748 День тому

      Instalei pra testar e sim, aquele é o espaço que ocupa na memoria de video da GPU e não no SSD

    • @Mudinhogameplay
      @Mudinhogameplay День тому

      @pedroh.748 Entendo, é pq ele baixou o arquivo do mesmo tamanho. Eu não baixei ainda. Obrigado pelo comentário

  • @arthurferreira9925
    @arthurferreira9925 2 дні тому

    Não entendo, qual a diferença de usar online ,app em comparação com essa forma?

  • @marcelocunha-b9o
    @marcelocunha-b9o 15 годин тому

    Eu não consegui que ele respondesse sobre o "MASSACRE DA PAZ CELESTIAL " por hein 😂😂😂😂

  • @Knelpz
    @Knelpz 2 дні тому

    Ela Faz Tarefas no navegador ?

  • @4tni
    @4tni День тому

    Será que meu notebook com i5 sem placa de vídeo vai conseguir rodar localmente?

  • @sebastian-c4g
    @sebastian-c4g День тому +11

    Você trabalha por 42 anos para ter R$ 2 milhões na aposentadoria. Enquanto isso, algumas pessoas estão colocando apenas R$ 20 mil em uma moeda meme por apenas alguns meses e agora são multimilionários. Rezo para que qualquer um que leia isso tenha sucesso na vida.

  • @andersonlobo9337
    @andersonlobo9337 2 дні тому +3

    Não estou conseguindo fazer cadastro, mais alguem com esse problema?

    • @suelenartes5033
      @suelenartes5033 2 дні тому

      eu fiz pela conta do google

    • @marry1321
      @marry1321 2 дні тому +1

      Eu também não. O código não chega

    • @fernando4885
      @fernando4885 2 дні тому +1

      os servidores foram atacados por hackers, por isso desativaram o cadastro

    • @FutureCapybara78
      @FutureCapybara78 2 дні тому

      Nvidia já mandou os hackers dela, ficou putassa pela mijada na cara que os chineses deram nela

    • @suelenartes5033
      @suelenartes5033 День тому

      @@fernando4885 sério ? É por isso que a open AI voltou atrás quando tinha liberado o acesso a todos os chats passados pro chatgpt ele disse q foi por segurança

  • @pesadelonightmare7848
    @pesadelonightmare7848 2 дні тому +5

    Fiz o teste do copo esses dias em 2 chats diferentes, no meu caso eu só ativei o raciocínio e não junto com a pesquisa
    Em ambos os testes ele acertou e até considerou as 2 alternativas que você diz como correto

  • @hudsonwalkerhudsonwalker6671
    @hudsonwalkerhudsonwalker6671 День тому

    Esse Pc ai e o da xuxa é?

  • @caduguimaraes
    @caduguimaraes 2 дні тому

    Eu não entendi essa questão deste modelo chinês com versão ollama.. O que seria isso?

  • @edsonjr-dev
    @edsonjr-dev День тому +1

    💜💜💜

  • @ryujp
    @ryujp 2 дні тому

    Boa tarde. Tenho uma rx 3090 24gb...qual desse modelos offline vc recomendaria rodar?

    • @natanaelsilva1004
      @natanaelsilva1004 2 дні тому

      se tiver pelo menos 64 gb de ram da pra baixar o segundo melhor modelo da deepseek r1 llama 70b

    • @ryujp
      @ryujp 2 дні тому

      ​@@natanaelsilva1004 muito obrigado, tenho 40gb soh rsrs...vou testar e se ficar lento compro mais ram. Muito obrigado

  • @LukasMKY
    @LukasMKY День тому

    alguem ta conseguindo usar hoje? aqui tá desde cedo sobrecarregado de acesso e nem consigo usar

  • @WeberFPV
    @WeberFPV 2 дні тому +4

    Sempre copiar custa menos. Empresas gastam bilhões durante anos em segredo para criar a tecnologia de IA e ai vem os chineses como sempre e copiam descaradamente e disponibilizam de forma barata numa qualidade muito inferior e quem não entende acha que é igual. Isso já era previsto.Sempre copiar custa menos. Empresas gastam bilhões durante anos em segredo para criar a tecnologia de IA e ai vem os chineses como sempre e copiam descaradamente e disponibilizam de forma barata numa qualidade muito inferior e quem não entende acha que é igual. Isso já era previsto.

    • @jefersono1971
      @jefersono1971 2 дні тому +1

      exatamente. e uma copia muito "meia-boca" por sinal.

    • @yannhhaaa
      @yannhhaaa 2 дні тому

      você fala como se o trabalho dessas empresas de IA fosse ético kkkkkkkkkkkkkkkkkk eles pegam milhares de ativos na internet sem a permissão dos donos para treinar os modelos deles. Os chineses estão certos em copiar.

  • @leanderx
    @leanderx 2 дні тому

    Que legal .an vlw

  • @walney2008
    @walney2008 2 дні тому

    ola tudo bem ? jah tentei uns 3 modelos na hora de carregar dah este erro sabe o porque ? ( No LM Runtime found for model format 'gguf'! ) no LM Studio

  • @harllemalves1590
    @harllemalves1590 2 дні тому

    Se da pra rodar esses modelos localmente, provavelmente tem uma api. Dava pra testar fazer chatbots com esse LLM e ver se fica menos custoso do que pagar outras APIs como a da openai.

  • @salamonluiz
    @salamonluiz День тому

    Tenho uma dica de charada que pode ser usada para IA's de raciocínio. Tente esta:
    Haviam 7 pessoas, 3 tentaram fugir e 4 tentaram ficar.
    Quantas pessoas restaram?

  • @jonathas33360
    @jonathas33360 2 дні тому

    Me responde uma coisa moço das IA, eu tenho uma placa de video com 4gb de memoria vram, porém ela tem uma extenção de 8gb que tiraria da minha ram o modelo ele usa tambem ram do processador?

    • @yuriotorres
      @yuriotorres День тому

      Usa ram da memória ram, a GPU (placa de vídeo) vai pegar os outros 4Gb da memória ram do seu computador. Se teu computador tiver 8Gb de ram, ele vai pegar 4Gb!

    • @jonathas33360
      @jonathas33360 День тому

      @@yuriotorres OOOOOOOOOH que massa, vou testar isso, pq eu tenho 16 hehe..

  • @edsonpborges
    @edsonpborges 2 дні тому

    eu uso lm com ia sem censura, será q essa também vai?

    • @natanaelsilva1004
      @natanaelsilva1004 2 дні тому

      já tem uma versao do deepseek sem censura. qual lllm vc usa sem censura?

  • @harleyrodrigues8366
    @harleyrodrigues8366 2 дні тому

    aqui deu erro ao carregar a modelo

  • @mentalidadesimples
    @mentalidadesimples День тому

    ele não lê imagens?

  • @gutomartins7680
    @gutomartins7680 День тому

    è que se o copo está vedado significa que ele tem uma tampa então por isso não caiu, no raciocínio dele, entretanto no contexto inicial ninguém falou nada sobre o copo estar ou não vedado\lacrado.

  • @fmkti
    @fmkti 2 дні тому +2

    Vocês sabem que essa ia é capada né? kkk

    • @flavioe.2770
      @flavioe.2770 2 дні тому +1

      Com certeza, o custo dela é muito mais capado que a capacidade. Aí é que ela ganha.

    • @jefersono1971
      @jefersono1971 2 дні тому

      @@flavioe.2770 Analises superficies de youtubers como este. na pratica a historia é outra.

    • @jefersono1971
      @jefersono1971 2 дні тому

      Review de um youtuber alucinado...

    • @fmkti
      @fmkti 2 дні тому

      @@flavioe.2770 custo baixo, então por que os chineses não usam essa ia com hardware superior americano. Que ai sim dominariam o mercado de ia completamente...

  • @brunoariel7264
    @brunoariel7264 2 дні тому

    Alguém me explica porque ele teve que baixar e não usou direto no navegador?

    • @RodrigoCinelli
      @RodrigoCinelli 2 дні тому +5

      Possibilidade de rodar offline, dar Fine-tuning (treinar o modelo como vc quer que ele responda, alterar a temperatura para diminuir a criatividade em raciocínios como programação ou matemática) e gerar uma api cloud para você utilizar em alguma IDE para programar por exemplo. Esses são alguns dos casos.

  • @felipealmeida5880
    @felipealmeida5880 2 дні тому

    Poxa se não fossem as alucinações e o peso dos modelos seria perfeito... Será que um dia vamos conseguir um modelinho 8B realmente inteligente? Talvez com aquela ideia dos modelos grandes treinando os pequenos. Porque se for parar para pensar esses modelos tem quase tudo para responder e para gerar imagens, só falta o "mapa do caminho certo" dos modelos grandes para eles serem assertivos. Mesmo que as respostas sejam "decoradas" ainda são respostas certas, ou seja, um modelo 8B que já tem os caminhos para milhões de respostas seria tão bom quanto o que precisa ficar pensando pra gerar esse caminho.

    • @fabioa8059
      @fabioa8059 2 дні тому

      Os modelos modelam o mundo dentro do espaço semântico deles.
      Portanto sim. Os modelos destilados de 7 bilhões de parâmetros usando dados de alta qualidade sintéticos são de fato inteligentes. Isso porque os cada um dos parâmetros tem alta qualidade.
      No caso a melhor arquitetura é a mistura de especialistas. Ao invés de um só modelo você têm muitos modelos cada um para uma aplicação

    • @toukyJK
      @toukyJK 2 дні тому

      Nem um modelo é 'inteligente' até o momento. Eles só são geradores de texto sofisticado, ainda falta muito pra alcançar isso
      E por isso que eles 'alucinam' já que eles tentam prever isso com o dataset e pd estar faltando ou má qualidade causando alucinações nas respostas

    • @fabioa8059
      @fabioa8059 2 дні тому

      @@toukyJK a teoria do papagaio estocástico está ultrapassada, faz uns anos. Eu não passo no Ita. O modelo passa. Na prova que não está no banco de dados dele, passa porque sabe qual o caminho correto para resolver a questão

    • @toukyJK
      @toukyJK 2 дні тому

      @@fabioa8059 pow maninho, ele diferente de vc tem bilhões de dados pra processar usando threshold pra identificar quais palavras ou sentenças combinam é processa td isso.
      N tô tirando o mérito da Ai, mas ela não é td isso como vcs ficam exaltando

    • @toukyJK
      @toukyJK 2 дні тому

      Afinal de contas, ela usa um algoritmo de aprendizado reforçado. Ent ela se dá bem msm com dados que n tenha visto só que aumenta a chance de alucinar

  • @sergioaparecida1691
    @sergioaparecida1691 День тому

    Xing ling derrotou o ridículo cowboy!
    kkkkkkkkkkkkkkk 😛

  • @macovskjonh
    @macovskjonh День тому

    daqui a 10 anos n duvido n que ja vamo pro espaço

  • @Uhlig04
    @Uhlig04 День тому

    Um detalhe que nao pode passar desapercebido é que é um ser humano quem estará interagindo com a IA.... e ae temos seres humanos com TDH, TOC TODI, GZ (geração Z), QI Abaixo do normal, etc.... é preciso saber interagir .... ate empregadas domesticas precisam se atualizar, pois existem fogões elétricos , maquinas de lavar e secar, televisores/monitores inteligentes etc.... quem não se atualizar e não souber interagir em pouco tempo será uma peça fora do universo..... (Edmilton Uhlig).

  • @AnFr33
    @AnFr33 2 дні тому

    To usando já, claro o 7B e o 8B qwen e llama R1 que rodam no meu notebook, baixei ontem, domingo pra testar, bem legal, não chega no deles mas o raciocínio funciona

    • @felipeveras6255
      @felipeveras6255 2 дні тому

      qual a configuração do seu note?

    • @AnFr33
      @AnFr33 2 дні тому

      @felipeveras6255 notebook I7-7700, 16 GB de Ram, Gpu GTX 1050 TI 4GB. Baixei modelos 7B 8B com entre 3 e 5 Gb de tamanho do arquivo em media e tem uns arquivos maiores . No meu note que é gamer mas não é novo, fica meio lento a resposta do chat mas funciona.Estão saindo modelos de 1.5B e 3B com R1 são mais imprecisos porém mais rapidos pra testar em PCs mais leves

  • @lionelson7098
    @lionelson7098 2 дні тому +1

    Efeito do sucesso, Deepseek atualmente anda lento, vários segundos pra responder, surgem bugs que simplesmente travam o chat, algo parecido ao ChatGpt, recentemente voltei pro Perpexity, Claude e mesmo pro Gpt...os servidores n tankaram o hype...agora é ver qual será o próximo

    • @FutureCapybara78
      @FutureCapybara78 2 дні тому

      Literalmente o mundo inteiro acessando sem parar

  • @vladimirputo2780
    @vladimirputo2780 2 дні тому

    Fiz o teste e o meu acertou. Disse: "O dado está sobre a mesa."