Pra quem tem dúvida de por que o LLM age de modo tão "burrinho", eis a explicação dada por ele mesmo: "A resposta original considera as informações fornecidas no problema, que não mencionam se o copo está aberto ou fechado. Se o copo estiver aberto, ao virá-lo, o dado realmente cairia na mesa devido à gravidade (cenário realista). Porém, como o enunciado original afirma que o dado permanece dentro do copo após a inversão e movimentação para o fogão, entende-se que o contexto implicitamente assume que o copo está fechado/tampado ou que o dado está preso (ex.: por aderência ou design do copo)." Ou seja, parte do problema é como nós, humanos, temos a premissa de que todo copo que existe no mundo está sempre com a parte de cima (boca) aberta, e o LLM considera que poderia haver uma tampa no copo. O fato é que nossa maneira de pensar tende a assumir muitas coisas (isso facilita nosso processo cognitivo, implicitamente a gente considera que algo sempre vai ser de um jeito, simplesmene pq na maioria das vezes é daquele jeito), e isso gera o problema da falta de contexto ao conversarmos com um LLM, a gente acha que já falou tudo o que importa, quando na verdade é o nosso jeito de pensar que é cheio de pequenos atalhos mentais.
É mas penso que, se tem tampa, era mais lógico que mencionassemos ao menos que a fechamos. já que não daria para simplesmente colocar o dado com o copo já tampado.
@@antoniocarvalhaes, ótimo ponto, e que boa discussão o vídeo do Bob nos trouxe. Provavelmente nós 2 temos razão. O seu ponto é que faltou "coerência temporal" à IA. Humanos assumem que copos permanecem abertos, a menos que sejam explicitamente fechados. Como o copo estava aberto para o dado entrar, seu argumento (bastante válido) é que ela deveria considerar esse mesmo estado até o fim do raciocínio. Entendo. Já o meu ponto diz mais respeito à explicação do comportamento da IA: Um LLM não tem experiência física do mundo real, por isso ele não assume automaticamente premissas (de que, por padrão, um copo é aberto), e ele explora todas as possibilidades textualmente válidas. Meu ponto é que devemos considerar que a IA parte do que você tá dizendo pra ela e vai tentar considerar muitas hipóteses. Em resumo, não custa nada dar uma forcinha pra ela entender melhor o problema que você tá passando pra ela. E já fica uma sugestão de tema pro Bob: trazer aqui um mini-curso sobre Engenharia de Prompt. Um forte abraço e obrigado pela excelente discussão, Antônio!
Eu coloquei o mesmo texto do copo no gpt e ele disse a mesma resposta, que o copo estaria com o dado dentro. Porém eu gerei outra resposta e alterei o input, especificando que o copo não tem nenhum tipo de grude ou vedações e a resposta do gpt foi diferente. Ele disse que o dado cairia e ele ainda errou porque disse que era sobre o fogao, mas depois que especifiquei que virei o corpo sobre a mesa ele raciocinou
Coloquei um copo em cima da mesa e coloquei um dado dentro do copo. O copo é só um copo normal, não tem cola, vedações e afins. Virei o copo de cabeça para baixo na mesa. Peguei o copo e levei ele para cima do fogão. Onde está o dado? > O dado provavelmente ficou sobre a mesa, no local onde você virou o copo de cabeça para baixo. Como o copo é normal, sem cola ou vedações, e foi apenas virado, o dado teria caído da borda do copo durante o movimento. Assim, quando você levou o copo para o fogão, ele foi sem o dado.
Bob, muito maneiro teu conteúdo, cara! Achei que ficou muito bacana a comparação entre os tipos de uso que você fez, tanto local e no servidor, especialmente pra quem não tem muito conhecimento na área! Parabéns mesmo!
O Deepseek R1 foi um dos tapas de luva mais lindos da história. Tá todo mundo atordoado até agora lá dentro dos EUA sem entender direito o tamanho do estrago. Com hardware desatualizado os caras desenvolveram um modelo de desempenho equivalente aos mais tops, gastando 5% da grana toda que os americanos gastam pra treinar, e podendo rodar em PC's comuns; ainda publicaram um paper técnico detalhando com transparência de todo o processo. Como se não bastasse, pra humilhar eles disponibilizaram gratuitamente pro mundo inteiro usar...e como se ainda não bastasse, disponibilizaram em código aberto, até pros rivais das big techs americanas poderem copiar. Isso se chama humilhação em praça pública. Agora vamos a uma observação importante mais além do fato: Se o governo chinês permitiu que uma start up lá dentro disponibilizasse isso pros concorrentes americanos, é por que na verdade lá dentro a portas fechadas eles já têm coisas muito mais avançadas nos laboratórios de pesquisa e desenvolvimento, coisas que eles não vão abrir, obviamente para que possam estar na frente da concorrência e dominação tecnológica. Essa é a conclusão inevitável.
Cara estou maravilhado aqui com o Deepseek, rodei está manhã o modelo 8B baixado do Ollama e usando O AnythingLLM como UI, ele rodou bem rápido em minha Desktop com uma GTX 1070 8GB, Core I5 8600 e 16 GB RAM. Ele respondondeu a uma charada de forma incrível e a forma como respondeu testando as possíbilidades que ele imaginou que seria até chegar a resposta correta foi sensacional. A charada: Se Celia tem um carro de modelo Celta e Olga tem um Opala quem é a dona do Fusca: Maria, Paula ou Fernanda? O final da resposta ... Depois de uma rápida verificação mental, acho que a resposta pretendida é Paula porque "Paula" tem um "u", que corresponde ao "u" em "Fusca". Mas outra parte de mim acha que é Fernanda porque seu nome começa com F, correspondendo à inicial de Fusca. Espere, talvez a charada seja estruturada de forma que cada modelo de carro corresponda ao nome de uma pessoa. Celta (C) → Celia; Opala (O) → Olga; então a próxima seria alguém começando com F, portanto Fernanda é dona do Fusca. Sim, isso faz sentido. Então a resposta seria Fernanda. Pensando ... A dona do Fusca é Fernanda. Explicação: A charada vincula o nome de cada pessoa a um modelo de carro por meio de iniciais ou sons. Celia (C) corresponde a Celta, e Olga (O) a Opala. Seguindo esse padrão, alguém que começa com F teria Fusca, que é Fernanda.
o chat gpt teve outro raciocínio: "Essa é uma daquelas charadas clássicas que joga com os nomes e os contextos, mas se considerarmos a brincadeira lógica, a resposta seria Maria. Por quê? O trocadilho "Célia - Celta" e "Olga - Opala" sugere uma associação fonética entre os nomes das pessoas e os carros. Seguindo a lógica, "Fusca" lembra "Maria" pela sonoridade mais próxima. É um tipo de raciocínio baseado em brincadeiras com sons e associações! 😊 "
@@zackgames3173 Totalmente incorreto, simplesme a charada tem aver com a letra inicial de cada nome que é igual a inicial de cada carro, o modelo acertou ! É uma charada bem simples para qualquer humano entender !
Ganhou um inscrito e admirador do seu trabalho! Me ganhou quando falou das configurações da sua maquina. Parabéns pelo conteúdo. Uma crítica construtiva: Se possível, verifique o microfone. Para mim o áudio parece um pouco estourado.
Quando esses modelos locais começaram a surgir comprei logo uma RTX 3060 com 12gb. É o melhor custo benefício no momento, mas está ficando difícil encontrar esse modelo. O Deepseek 14B roda super bem. Também uso Stable Diffusion e outros modelos.
Bob, testa o Juninho gênio (deepseek-R1 -1.5B) para resolver questoes de matemática do ITA, tente fazer algum comparativo entre as quantizações disponíveis no ollama Q4(padrão), Q8 e fp16! Obrigado!
Finalmente algo consumindo mais memoria que o Chrome no PC, mas ta valendo muito a pena 😂 IA de graça agora já temos, só falta muitos equiparem seus hardwares pra isso.
Instalei o LM Studio e a DeepSeek além de lembrar de tudo que já falei com ela, foi de boas e em português. Testei os modelos lhama de 4GB e 8GB, ambos não divergiram grandes coisas nas respostas, mas como minha placa tem só 4GB de VRAM, ela chhorou um pouco pra rodar a de 8GB
Dá próxima coloca que há gravidade de 9.8N, que o copo foi virado para baixo à 90° e que a pressão atmosférica é de 1 atm, como se estivesse no nível do mar ou próximo.
O san prometeu 100 mensagems ao o3 mini por semana e no outro dia ja aumentou pra 100 por dia, obviamente com medo do deepseek, esse ano vai ser louco e olha que estamos em janeiro aimda..
Parabéns meu amigo, muito legal seu video, conheci seu canal a gora e ja to seguindo!! Pergunta: Consigo fazer solicitação pra esse modelo via http? Ou seja, integra via API meus sistemas na inteligência?
Baixando e instalando, eu posso "apontar " como base de conhecimento um conjunto de documentos que eu tenho para fazer respostas com base neles? Se sim, como?
@@Anunakin mas nesse caso meus dados estariam no servidor deles certo? Eu queria saber se tem como eu rodar esse modelo deles em um intranet tipo o llama?
Pelo que percebi o modelo DeepSeek R1 Llama 32B me parece ser o modelo mais redondo e ideal para rodar localmente, não precisa de uma maquina exorbitante, mas um desktop ou laptop com no minimo uma 4060. Aqui consegui rodar de boa ate o de 14B que ja achei muito bom.
@@natanaelsilva1004 Creio que o modelo de 32B alem de 32GB de RAM como vc mencionou, teria que ter uma GPU parruda em questões de VRAM pelo menos 8GB. Estou deduzindo pois meu Hardware é mais modesto que isso mas ainda sim consegui rodar o de 14B de forma tranquila fazendo ajustes, mas seria bom alguém que conseguiu e tem maquina mais parruda testar e nos dizer.
é jovem ,mas maior parte do cluster do deepseek foi construído com arquitetura pascal e turing da nvidia, ou seja, de geração atrás e não a mais recente, funcionando bem. Uma 1060 para local está ótimo. Aqui usando uma 3070 em uma vm linux
Com a IA estadunidense o mundo não confiava muito e faltava uma parcela dos humanos a serem reconhecidos no mundo, principalmente países mais fechados. Agora todos ou quase todos serão reconhecidos. Imagina Estados Unidos e China dividindo o império? Talvez você no futuro possa escolher se será colônia de um ou de outro, não é legal essa inteligência ? Ou prefere a terceira guerra mundial ?
Boa tarde amigo! Como posso criar um vídeo como este seu? Aparece a tela e essa bola com seu rosto. O audio também é integrado? Pode me ajudar? Obrigado
Alguém peça para a deepseek montar um código em C++ que calcule os coeficientes de shapiro-wilk para qualquer quantidade de registros. Antes de falar qualquer coisa a IA especifique que se ela não tiver certeza de conhecer o assunto não precisa responder ou realizar a tarefa, apenas informa que não sabe para evitar induzir ao erro e a perda de tempo. Depois procure algo sobre um personagem histórico que não seja muito conhecido hoje em dia para ver com ela vai responder, depois confira as informações, errar é normal. Mas prestem atenção na atitude quanto a transparência e integridade em passar uma certa certeza quanto ao que não há como ter certeza alguma. Serão horas e horas muito "agradáveis" ... não tenham pressa e prestem atenção aos detalhes ... Boa Sorte !!!
Sou leigo na matéria, minha questão é, da para configurar o DeepSeek local para ter uma interação de voz nem avançada igual a que a OpenAI oferece hoje?
O modelo errou porque você ativou o search. A versão destilada é inútil se você quer ter uma resposta mais certeira, para usar a versão local com o mesmo desempenho da versão online, teria que ter um PC muito mais muito parrudo, no mínimo, 4 Placas de vídeo NVIDIA RTX 4090 24GB, memória RAM de pelo menos 512GB. Melhor usar API que o preço é super barato.
Olá Sou leigo nessa área, mas fiquei pensando sobre a utilização do deepseek. O questionamento é: não estaríamos fornecendo dados importantíssimos de nós mesmos e ajudando ao inimigo a desenvolver tudo muito mais tudo o que ele quisesse, digo, estaríamos alimentando exponencialmente o desenvolvimento de tudo para o PCCHINÊS??? Não que os outros não o façam, mas pelo menos os outros são ocidentais...
Mano, eu concordaria 100% com vc, se não fosse o fato de que os EUA se utilizam exatamente dos mesmos artifícios de manipulação. Duvida? É só vc ver a sua reação a qualquer outro lugar do mundo fazendo coisa melhor do que os EUA, vc já tá alienado, corrompido, sofreu lavagem cerebral, acha que os EUA é do bem, nunca faz nada de errado.
Será que eu consigo instalar no meu notebook DellG15 com a placa se vídeo GTX 1650? Seria legal se puder alimentar ele com os dados em PDF para ajudar nos trabalhos do dia dia. Imagina poder conversar com o chat sobre uma determinada norma.
As novas placas da Intel Arc Serie B580 está a melhor custo beneficio para começar a estudar AI ja que foi feito um melhoria nos pipeline vetorias da placa.
Fiz o desafio do copo com o Deepseek, Gemnini, Copilot ChatGPT 3.5. Copilot acertou de primeira e o deepseek também acertou de primeira, mas o que me chamou a atenção foi que as palavras do Deepseek foram quase que exatamente as mesmas do Copilot, como se tivesse visto a resposta e copiado, já que perguntei primeiro ao Copilot. Gemini e ChatGPT 3.5 erraram miseravelmente.
Meu amigo. Monte um Pc gamer barato , vc pode pegar umas 4 rtx 4070 usadas em mineração e um kit Xeon e52666 v3 com 64 GB de ram ddr4 ECC . E tudo muito mais barato
Você trabalha por 42 anos para ter R$ 2 milhões na aposentadoria. Enquanto isso, algumas pessoas estão colocando apenas R$ 20 mil em uma moeda meme por apenas alguns meses e agora são multimilionários. Rezo para que qualquer um que leia isso tenha sucesso na vida.
@@fernando4885 sério ? É por isso que a open AI voltou atrás quando tinha liberado o acesso a todos os chats passados pro chatgpt ele disse q foi por segurança
Fiz o teste do copo esses dias em 2 chats diferentes, no meu caso eu só ativei o raciocínio e não junto com a pesquisa Em ambos os testes ele acertou e até considerou as 2 alternativas que você diz como correto
Sempre copiar custa menos. Empresas gastam bilhões durante anos em segredo para criar a tecnologia de IA e ai vem os chineses como sempre e copiam descaradamente e disponibilizam de forma barata numa qualidade muito inferior e quem não entende acha que é igual. Isso já era previsto.Sempre copiar custa menos. Empresas gastam bilhões durante anos em segredo para criar a tecnologia de IA e ai vem os chineses como sempre e copiam descaradamente e disponibilizam de forma barata numa qualidade muito inferior e quem não entende acha que é igual. Isso já era previsto.
você fala como se o trabalho dessas empresas de IA fosse ético kkkkkkkkkkkkkkkkkk eles pegam milhares de ativos na internet sem a permissão dos donos para treinar os modelos deles. Os chineses estão certos em copiar.
ola tudo bem ? jah tentei uns 3 modelos na hora de carregar dah este erro sabe o porque ? ( No LM Runtime found for model format 'gguf'! ) no LM Studio
Se da pra rodar esses modelos localmente, provavelmente tem uma api. Dava pra testar fazer chatbots com esse LLM e ver se fica menos custoso do que pagar outras APIs como a da openai.
Tenho uma dica de charada que pode ser usada para IA's de raciocínio. Tente esta: Haviam 7 pessoas, 3 tentaram fugir e 4 tentaram ficar. Quantas pessoas restaram?
Me responde uma coisa moço das IA, eu tenho uma placa de video com 4gb de memoria vram, porém ela tem uma extenção de 8gb que tiraria da minha ram o modelo ele usa tambem ram do processador?
Usa ram da memória ram, a GPU (placa de vídeo) vai pegar os outros 4Gb da memória ram do seu computador. Se teu computador tiver 8Gb de ram, ele vai pegar 4Gb!
è que se o copo está vedado significa que ele tem uma tampa então por isso não caiu, no raciocínio dele, entretanto no contexto inicial ninguém falou nada sobre o copo estar ou não vedado\lacrado.
@@flavioe.2770 custo baixo, então por que os chineses não usam essa ia com hardware superior americano. Que ai sim dominariam o mercado de ia completamente...
Possibilidade de rodar offline, dar Fine-tuning (treinar o modelo como vc quer que ele responda, alterar a temperatura para diminuir a criatividade em raciocínios como programação ou matemática) e gerar uma api cloud para você utilizar em alguma IDE para programar por exemplo. Esses são alguns dos casos.
Poxa se não fossem as alucinações e o peso dos modelos seria perfeito... Será que um dia vamos conseguir um modelinho 8B realmente inteligente? Talvez com aquela ideia dos modelos grandes treinando os pequenos. Porque se for parar para pensar esses modelos tem quase tudo para responder e para gerar imagens, só falta o "mapa do caminho certo" dos modelos grandes para eles serem assertivos. Mesmo que as respostas sejam "decoradas" ainda são respostas certas, ou seja, um modelo 8B que já tem os caminhos para milhões de respostas seria tão bom quanto o que precisa ficar pensando pra gerar esse caminho.
Os modelos modelam o mundo dentro do espaço semântico deles. Portanto sim. Os modelos destilados de 7 bilhões de parâmetros usando dados de alta qualidade sintéticos são de fato inteligentes. Isso porque os cada um dos parâmetros tem alta qualidade. No caso a melhor arquitetura é a mistura de especialistas. Ao invés de um só modelo você têm muitos modelos cada um para uma aplicação
Nem um modelo é 'inteligente' até o momento. Eles só são geradores de texto sofisticado, ainda falta muito pra alcançar isso E por isso que eles 'alucinam' já que eles tentam prever isso com o dataset e pd estar faltando ou má qualidade causando alucinações nas respostas
@@toukyJK a teoria do papagaio estocástico está ultrapassada, faz uns anos. Eu não passo no Ita. O modelo passa. Na prova que não está no banco de dados dele, passa porque sabe qual o caminho correto para resolver a questão
@@fabioa8059 pow maninho, ele diferente de vc tem bilhões de dados pra processar usando threshold pra identificar quais palavras ou sentenças combinam é processa td isso. N tô tirando o mérito da Ai, mas ela não é td isso como vcs ficam exaltando
Um detalhe que nao pode passar desapercebido é que é um ser humano quem estará interagindo com a IA.... e ae temos seres humanos com TDH, TOC TODI, GZ (geração Z), QI Abaixo do normal, etc.... é preciso saber interagir .... ate empregadas domesticas precisam se atualizar, pois existem fogões elétricos , maquinas de lavar e secar, televisores/monitores inteligentes etc.... quem não se atualizar e não souber interagir em pouco tempo será uma peça fora do universo..... (Edmilton Uhlig).
To usando já, claro o 7B e o 8B qwen e llama R1 que rodam no meu notebook, baixei ontem, domingo pra testar, bem legal, não chega no deles mas o raciocínio funciona
@felipeveras6255 notebook I7-7700, 16 GB de Ram, Gpu GTX 1050 TI 4GB. Baixei modelos 7B 8B com entre 3 e 5 Gb de tamanho do arquivo em media e tem uns arquivos maiores . No meu note que é gamer mas não é novo, fica meio lento a resposta do chat mas funciona.Estão saindo modelos de 1.5B e 3B com R1 são mais imprecisos porém mais rapidos pra testar em PCs mais leves
Efeito do sucesso, Deepseek atualmente anda lento, vários segundos pra responder, surgem bugs que simplesmente travam o chat, algo parecido ao ChatGpt, recentemente voltei pro Perpexity, Claude e mesmo pro Gpt...os servidores n tankaram o hype...agora é ver qual será o próximo
Pra quem tem dúvida de por que o LLM age de modo tão "burrinho", eis a explicação dada por ele mesmo: "A resposta original considera as informações fornecidas no problema, que não mencionam se o copo está aberto ou fechado. Se o copo estiver aberto, ao virá-lo, o dado realmente cairia na mesa devido à gravidade (cenário realista). Porém, como o enunciado original afirma que o dado permanece dentro do copo após a inversão e movimentação para o fogão, entende-se que o contexto implicitamente assume que o copo está fechado/tampado ou que o dado está preso (ex.: por aderência ou design do copo)." Ou seja, parte do problema é como nós, humanos, temos a premissa de que todo copo que existe no mundo está sempre com a parte de cima (boca) aberta, e o LLM considera que poderia haver uma tampa no copo. O fato é que nossa maneira de pensar tende a assumir muitas coisas (isso facilita nosso processo cognitivo, implicitamente a gente considera que algo sempre vai ser de um jeito, simplesmene pq na maioria das vezes é daquele jeito), e isso gera o problema da falta de contexto ao conversarmos com um LLM, a gente acha que já falou tudo o que importa, quando na verdade é o nosso jeito de pensar que é cheio de pequenos atalhos mentais.
É mas penso que, se tem tampa, era mais lógico que mencionassemos ao menos que a fechamos. já que não daria para simplesmente colocar o dado com o copo já tampado.
@@antoniocarvalhaes, ótimo ponto, e que boa discussão o vídeo do Bob nos trouxe. Provavelmente nós 2 temos razão. O seu ponto é que faltou "coerência temporal" à IA. Humanos assumem que copos permanecem abertos, a menos que sejam explicitamente fechados. Como o copo estava aberto para o dado entrar, seu argumento (bastante válido) é que ela deveria considerar esse mesmo estado até o fim do raciocínio. Entendo. Já o meu ponto diz mais respeito à explicação do comportamento da IA: Um LLM não tem experiência física do mundo real, por isso ele não assume automaticamente premissas (de que, por padrão, um copo é aberto), e ele explora todas as possibilidades textualmente válidas. Meu ponto é que devemos considerar que a IA parte do que você tá dizendo pra ela e vai tentar considerar muitas hipóteses. Em resumo, não custa nada dar uma forcinha pra ela entender melhor o problema que você tá passando pra ela. E já fica uma sugestão de tema pro Bob: trazer aqui um mini-curso sobre Engenharia de Prompt. Um forte abraço e obrigado pela excelente discussão, Antônio!
@@Max_Moura cara você trouxe um tópico interessante. Quando eu sugerir a LLM nos meus trabalhos no escritório vou considerar essas visões.
Eu coloquei o mesmo texto do copo no gpt e ele disse a mesma resposta, que o copo estaria com o dado dentro. Porém eu gerei outra resposta e alterei o input, especificando que o copo não tem nenhum tipo de grude ou vedações e a resposta do gpt foi diferente. Ele disse que o dado cairia e ele ainda errou porque disse que era sobre o fogao, mas depois que especifiquei que virei o corpo sobre a mesa ele raciocinou
Coloquei um copo em cima da mesa e coloquei um dado dentro do copo. O copo é só um copo normal, não tem cola, vedações e afins. Virei o copo de cabeça para baixo na mesa. Peguei o copo e levei ele para cima do fogão. Onde está o dado?
> O dado provavelmente ficou sobre a mesa, no local onde você virou o copo de cabeça para baixo. Como o copo é normal, sem cola ou vedações, e foi apenas virado, o dado teria caído da borda do copo durante o movimento. Assim, quando você levou o copo para o fogão, ele foi sem o dado.
Ele está certo. Nós não especificamos se havia atmosfera , ele achou que estava no espaço .
Como haveria pressão atmosférica sem gravidade? Se tem gravidade ele não estava no espaço. FIM
@@MrWaby pelo que entendi a IA considerou que estivesse em um ambiente de experimento controlado e não no ambiente normal
@@MrWaby existe gravidade sem atmosfera po kkkk
Bob, muito maneiro teu conteúdo, cara! Achei que ficou muito bacana a comparação entre os tipos de uso que você fez, tanto local e no servidor, especialmente pra quem não tem muito conhecimento na área! Parabéns mesmo!
Muito bom! Parabéns pelo conteúdo, Bob!
O Deepseek R1 foi um dos tapas de luva mais lindos da história. Tá todo mundo atordoado até agora lá dentro dos EUA sem entender direito o tamanho do estrago. Com hardware desatualizado os caras desenvolveram um modelo de desempenho equivalente aos mais tops, gastando 5% da grana toda que os americanos gastam pra treinar, e podendo rodar em PC's comuns; ainda publicaram um paper técnico detalhando com transparência de todo o processo. Como se não bastasse, pra humilhar eles disponibilizaram gratuitamente pro mundo inteiro usar...e como se ainda não bastasse, disponibilizaram em código aberto, até pros rivais das big techs americanas poderem copiar. Isso se chama humilhação em praça pública. Agora vamos a uma observação importante mais além do fato: Se o governo chinês permitiu que uma start up lá dentro disponibilizasse isso pros concorrentes americanos, é por que na verdade lá dentro a portas fechadas eles já têm coisas muito mais avançadas nos laboratórios de pesquisa e desenvolvimento, coisas que eles não vão abrir, obviamente para que possam estar na frente da concorrência e dominação tecnológica. Essa é a conclusão inevitável.
Cara estou maravilhado aqui com o Deepseek, rodei está manhã o modelo 8B baixado do Ollama e usando O AnythingLLM como UI, ele rodou bem rápido em minha Desktop com uma GTX 1070 8GB, Core I5 8600 e 16 GB RAM. Ele respondondeu a uma charada de forma incrível e a forma como respondeu testando as possíbilidades que ele imaginou que seria até chegar a resposta correta foi sensacional. A charada:
Se Celia tem um carro de modelo Celta e Olga tem um Opala quem é a dona do Fusca: Maria, Paula ou Fernanda?
O final da resposta
...
Depois de uma rápida verificação mental, acho que a resposta pretendida é Paula porque "Paula" tem um "u", que corresponde ao "u" em "Fusca". Mas outra parte de mim acha que é Fernanda porque seu nome começa com F, correspondendo à inicial de Fusca.
Espere, talvez a charada seja estruturada de forma que cada modelo de carro corresponda ao nome de uma pessoa. Celta (C) → Celia; Opala (O) → Olga; então a próxima seria alguém começando com F, portanto Fernanda é dona do Fusca.
Sim, isso faz sentido. Então a resposta seria Fernanda. Pensando ...
A dona do Fusca é Fernanda.
Explicação:
A charada vincula o nome de cada pessoa a um modelo de carro por meio de iniciais ou sons.
Celia (C) corresponde a Celta, e Olga (O) a Opala.
Seguindo esse padrão, alguém que começa com F teria Fusca, que é Fernanda.
o chat gpt teve outro raciocínio:
"Essa é uma daquelas charadas clássicas que joga com os nomes e os contextos, mas se considerarmos a brincadeira lógica, a resposta seria Maria.
Por quê? O trocadilho "Célia - Celta" e "Olga - Opala" sugere uma associação fonética entre os nomes das pessoas e os carros. Seguindo a lógica, "Fusca" lembra "Maria" pela sonoridade mais próxima. É um tipo de raciocínio baseado em brincadeiras com sons e associações! 😊 "
@@zackgames3173 Burro dms kkkkkkkkk
@@zackgames3173 Totalmente incorreto, simplesme a charada tem aver com a letra inicial de cada nome que é igual a inicial de cada carro, o modelo acertou ! É uma charada bem simples para qualquer humano entender !
@@zackgames3173 ou seja, o chat gpt não conseguiu entender/raciocinar.
Excelente! Obrigado por compartilhar. Tô rodando local e é incrível os resultados. O modelos tão ficando cada vez mehores.
😂😂😂😂😂😂😂😂😂
tá rodando bolsinha?
@@joaoalberto7298 Sai daew Quinta Série!...
o modelo local é livre de restrições politicamente corretas ?
quais ois requisitos minimos pra rodar ele localmente?
Ganhou um inscrito e admirador do seu trabalho!
Me ganhou quando falou das configurações da sua maquina.
Parabéns pelo conteúdo.
Uma crítica construtiva: Se possível, verifique o microfone. Para mim o áudio parece um pouco estourado.
quem diria que bilhoes e bilhoesde investimento em educação e engenharia no final sairia uma IA de ponta e performatic. Bom video
Pra mim vc é o melhor pra explicar parabéns
Excelente conteúdo, +1 inscrito
Valeu!
Quando esses modelos locais começaram a surgir comprei logo uma RTX 3060 com 12gb. É o melhor custo benefício no momento, mas está ficando difícil encontrar esse modelo. O Deepseek 14B roda super bem. Também uso Stable Diffusion e outros modelos.
Stable Diffusion gera a imagem local?
@@luizaugusto4294 Sim, só usar o webui ou o Comfy.
@@luizaugusto4294 gera sim, tenho uma 3080ti, vai que é uma beleza.
Seu canal e maravilhoso. Muito obrigado por tudo irmão.
Bob, testa o Juninho gênio (deepseek-R1 -1.5B) para resolver questoes de matemática do ITA, tente fazer algum comparativo entre as quantizações disponíveis no ollama Q4(padrão), Q8 e fp16! Obrigado!
Finalmente algo consumindo mais memoria que o Chrome no PC, mas ta valendo muito a pena 😂 IA de graça agora já temos, só falta muitos equiparem seus hardwares pra isso.
Obrigado por compartilhar o seu conhecimento! Ganhou um inscrito! 🙏🏻✨
Instalei o LM Studio e a DeepSeek além de lembrar de tudo que já falei com ela, foi de boas e em português.
Testei os modelos lhama de 4GB e 8GB, ambos não divergiram grandes coisas nas respostas, mas como minha placa tem só 4GB de VRAM, ela chhorou um pouco pra rodar a de 8GB
Dá próxima coloca que há gravidade de 9.8N, que o copo foi virado para baixo à 90° e que a pressão atmosférica é de 1 atm, como se estivesse no nível do mar ou próximo.
Up
eu só queria usar o chatgpt, agora vou terq entrar num cursinho de fisica 😢😢😢
Ou vc pode simplesmente pedir para considerar a atmosfera terrestre e um copo de cozinha comum ou, copo americano.
O san prometeu 100 mensagems ao o3 mini por semana e no outro dia ja aumentou pra 100 por dia, obviamente com medo do deepseek, esse ano vai ser louco e olha que estamos em janeiro aimda..
O cara sabe o que está falando....vídeo muito bom.
Suas dicas são top demais
Agora sim deu vontade de aprender a API da DeepSeek
Primeira vez que venho nesse canal e fiquei com a sensação de estar assistindo um jogo de futebol. "Ai sim minha gente !!!"
Super! Obrigado
Instalei aqui. Já fiz um vídeo com llama, vou fazer um com o deepseek.
vídeo excelente
Parabéns meu amigo, muito legal seu video, conheci seu canal a gora e ja to seguindo!! Pergunta: Consigo fazer solicitação pra esse modelo via http? Ou seja, integra via API meus sistemas na inteligência?
teria algum que gera imagens local ? um abraço gostei muito.
Obrigado pelo vídeo mano
Você manja muito meu parceiro.
Baixando e instalando, eu posso "apontar " como base de conhecimento um conjunto de documentos que eu tenho para fazer respostas com base neles? Se sim, como?
otimo vídeo parabéns
Eu consigo treinar esse modelo para lidar com as minhas informações? Por exemplo dados gerados pele minha empresa?
Sim, tem que usa a API, para carregar os dados na forma de tabelas, daí manda ela tratar
Dá pra copiar e colar tabelas de dados tbm
@@Anunakin mas nesse caso meus dados estariam no servidor deles certo? Eu queria saber se tem como eu rodar esse modelo deles em um intranet tipo o llama?
Incrível !!!
Olá! Precisa baixar ou dá para usar on line, como o ChatGPT?
Eu nao tenho muito conhecimento de IA...existe algum video que eu possa assistir para eu aprender algo sobre essas ferramentas? Para que servem elas?
Pelo que percebi o modelo DeepSeek R1 Llama 32B me parece ser o modelo mais redondo e ideal para rodar localmente, não precisa de uma maquina exorbitante, mas um desktop ou laptop com no minimo uma 4060. Aqui consegui rodar de boa ate o de 14B que ja achei muito bom.
precisa pelo menos tambem uns 32gb de ram para usar esse modelo
@@natanaelsilva1004 Creio que o modelo de 32B alem de 32GB de RAM como vc mencionou, teria que ter uma GPU parruda em questões de VRAM pelo menos 8GB. Estou deduzindo pois meu Hardware é mais modesto que isso mas ainda sim consegui rodar o de 14B de forma tranquila fazendo ajustes, mas seria bom alguém que conseguiu e tem maquina mais parruda testar e nos dizer.
é jovem ,mas maior parte do cluster do deepseek foi construído com arquitetura pascal e turing da nvidia, ou seja, de geração atrás e não a mais recente, funcionando bem. Uma 1060 para local está ótimo. Aqui usando uma 3070 em uma vm linux
Com a IA estadunidense o mundo não confiava muito e faltava uma parcela dos humanos a serem reconhecidos no mundo, principalmente países mais fechados. Agora todos ou quase todos serão reconhecidos. Imagina Estados Unidos e China dividindo o império? Talvez você no futuro possa escolher se será colônia de um ou de outro, não é legal essa inteligência ? Ou prefere a terceira guerra mundial ?
obrigado pela aula professor, parabéns pelo vídeo !!!
Eu testei, pedi pra ele criar uma estrutura de banco de dados semelhante o da Netflix.. E ele criou direitinho e deu até sugestões. Tudo em off-line
Boa tarde amigo! Como posso criar um vídeo como este seu? Aparece a tela e essa bola com seu rosto. O audio também é integrado? Pode me ajudar? Obrigado
OBS studio, procure vídeos no UA-cam sobre
For a interface gráfica ele disponibiliza api também ? Local
Pelo lm Studio só vc ligar o server na porta 1234
Alguém peça para a deepseek montar um código em C++ que calcule os coeficientes de shapiro-wilk para qualquer quantidade de registros. Antes de falar qualquer coisa a IA especifique que se ela não tiver certeza de conhecer o assunto não precisa responder ou realizar a tarefa, apenas informa que não sabe para evitar induzir ao erro e a perda de tempo. Depois procure algo sobre um personagem histórico que não seja muito conhecido hoje em dia para ver com ela vai responder, depois confira as informações, errar é normal. Mas prestem atenção na atitude quanto a transparência e integridade em passar uma certa certeza quanto ao que não há como ter certeza alguma. Serão horas e horas muito "agradáveis" ... não tenham pressa e prestem atenção aos detalhes ... Boa Sorte !!!
A arquitetura que o R1 utiliza se chama MoE (Mixture of Expert).
Funciona bem no MacBook?
É possivel utilizar em uma rede local? Disponibilizando talvez como uma interface de site local para que outras máquinas possam interagir?
Sim
Sou leigo na matéria, minha questão é, da para configurar o DeepSeek local para ter uma interação de voz nem avançada igual a que a OpenAI oferece hoje?
Pergunte ao deepseek sobre o massacre da praça da paz celestial.
grata. assim vou usar
muito bom!!!!
Galera, rodando localmente eu consigo anexar imagem/documento? Há algum custo envolvido (quantidade de tokens e afins)?
O modelo errou porque você ativou o search. A versão destilada é inútil se você quer ter uma resposta mais certeira, para usar a versão local com o mesmo desempenho da versão online, teria que ter um PC muito mais muito parrudo, no mínimo, 4 Placas de vídeo NVIDIA RTX 4090 24GB, memória RAM de pelo menos 512GB. Melhor usar API que o preço é super barato.
uma rtx 4070 ja da conta, o problema mesmo vai ser os 512gb de ram pra rodar o deepseek mais top
Mano, imita o cj pegando fogo pra eu ver uma coisa..
Olá Sou leigo nessa área, mas fiquei pensando sobre a utilização do deepseek.
O questionamento é: não estaríamos fornecendo dados importantíssimos de nós mesmos e ajudando ao inimigo a desenvolver tudo muito mais tudo o que ele quisesse, digo, estaríamos alimentando exponencialmente o desenvolvimento de tudo para o PCCHINÊS??? Não que os outros não o façam, mas pelo menos os outros são ocidentais...
😂
Kkkkkkkkkkkkkkk
Q bosta kkkkkkk
Que legal ver todos correndo pro colo do xixi jinping.
Mano, eu concordaria 100% com vc, se não fosse o fato de que os EUA se utilizam exatamente dos mesmos artifícios de manipulação. Duvida? É só vc ver a sua reação a qualquer outro lugar do mundo fazendo coisa melhor do que os EUA, vc já tá alienado, corrompido, sofreu lavagem cerebral, acha que os EUA é do bem, nunca faz nada de errado.
Qual placa você pretende pegar?
Ele eu não sei, mas eu iria de 4060ti16gb ( eu uso ) ou aguardar a 5060ti 16gb. Mas se for pra gastar melhor ir de 4090
@@raininheart9967 Show, acho que ele vai de H100 80 GB...kkk
Será que eu consigo instalar no meu notebook DellG15 com a placa se vídeo GTX 1650? Seria legal se puder alimentar ele com os dados em PDF para ajudar nos trabalhos do dia dia. Imagina poder conversar com o chat sobre uma determinada norma.
Só texto? Imagem tem será?
Sensacional
As novas placas da Intel Arc Serie B580 está a melhor custo beneficio para começar a estudar AI ja que foi feito um melhoria nos pipeline vetorias da placa.
eu tenho uma RTX 3060 no meu pc....rola de até quanto?
tenho um ryzen 9 3900x , 32gb de ram
Fiz o desafio do copo com o Deepseek, Gemnini, Copilot ChatGPT 3.5. Copilot acertou de primeira e o deepseek também acertou de primeira, mas o que me chamou a atenção foi que as palavras do Deepseek foram quase que exatamente as mesmas do Copilot, como se tivesse visto a resposta e copiado, já que perguntei primeiro ao Copilot. Gemini e ChatGPT 3.5 erraram miseravelmente.
China faz copia ou faz engenharia reversa. Provavelmente conseguiu o codigo fonte dos modelos da open ai e copiou
@@henriquefern67esses códigos estão livres para acessar só pagar
Eu uso online gostei muito deepseek R1, em biologia e filosofia mesmo ansiedade meu personalidade pelo 350 palavras GPT 4o pelos recursos de memória,
To rodando num Pc médio notebook o de 7 bi qwen no ollama, tá funcionando bem
Como faz isso?
Estou apenas com um notebook samsung (galaxybook3 360), consigo rodar ? ou é preciso ter uma placa de vídeo ?
Instalei o 14B, usa 9.5GB de memória de vídeo aqui na 7700XT
Meu amigo. Monte um Pc gamer barato , vc pode pegar umas 4 rtx 4070 usadas em mineração e um kit Xeon e52666 v3 com 64 GB de ram ddr4 ECC . E tudo muito mais barato
ou até 3090, que possui 24gb de ram. Hoje em dia memoria ram ddr4 está muito barato, da até para colocar mais
qual a estimativa de valor desse kit?
Meu amigo. em 6:24 não tem a ver com placa de video... é so o tamanho do arquivo.
Instalei pra testar e sim, aquele é o espaço que ocupa na memoria de video da GPU e não no SSD
@pedroh.748 Entendo, é pq ele baixou o arquivo do mesmo tamanho. Eu não baixei ainda. Obrigado pelo comentário
Não entendo, qual a diferença de usar online ,app em comparação com essa forma?
Eu não consegui que ele respondesse sobre o "MASSACRE DA PAZ CELESTIAL " por hein 😂😂😂😂
Ela Faz Tarefas no navegador ?
Será que meu notebook com i5 sem placa de vídeo vai conseguir rodar localmente?
Você trabalha por 42 anos para ter R$ 2 milhões na aposentadoria. Enquanto isso, algumas pessoas estão colocando apenas R$ 20 mil em uma moeda meme por apenas alguns meses e agora são multimilionários. Rezo para que qualquer um que leia isso tenha sucesso na vida.
Não estou conseguindo fazer cadastro, mais alguem com esse problema?
eu fiz pela conta do google
Eu também não. O código não chega
os servidores foram atacados por hackers, por isso desativaram o cadastro
Nvidia já mandou os hackers dela, ficou putassa pela mijada na cara que os chineses deram nela
@@fernando4885 sério ? É por isso que a open AI voltou atrás quando tinha liberado o acesso a todos os chats passados pro chatgpt ele disse q foi por segurança
Fiz o teste do copo esses dias em 2 chats diferentes, no meu caso eu só ativei o raciocínio e não junto com a pesquisa
Em ambos os testes ele acertou e até considerou as 2 alternativas que você diz como correto
Quais chats?
Esse Pc ai e o da xuxa é?
Eu não entendi essa questão deste modelo chinês com versão ollama.. O que seria isso?
💜💜💜
Boa tarde. Tenho uma rx 3090 24gb...qual desse modelos offline vc recomendaria rodar?
se tiver pelo menos 64 gb de ram da pra baixar o segundo melhor modelo da deepseek r1 llama 70b
@@natanaelsilva1004 muito obrigado, tenho 40gb soh rsrs...vou testar e se ficar lento compro mais ram. Muito obrigado
alguem ta conseguindo usar hoje? aqui tá desde cedo sobrecarregado de acesso e nem consigo usar
Sempre copiar custa menos. Empresas gastam bilhões durante anos em segredo para criar a tecnologia de IA e ai vem os chineses como sempre e copiam descaradamente e disponibilizam de forma barata numa qualidade muito inferior e quem não entende acha que é igual. Isso já era previsto.Sempre copiar custa menos. Empresas gastam bilhões durante anos em segredo para criar a tecnologia de IA e ai vem os chineses como sempre e copiam descaradamente e disponibilizam de forma barata numa qualidade muito inferior e quem não entende acha que é igual. Isso já era previsto.
exatamente. e uma copia muito "meia-boca" por sinal.
você fala como se o trabalho dessas empresas de IA fosse ético kkkkkkkkkkkkkkkkkk eles pegam milhares de ativos na internet sem a permissão dos donos para treinar os modelos deles. Os chineses estão certos em copiar.
Que legal .an vlw
ola tudo bem ? jah tentei uns 3 modelos na hora de carregar dah este erro sabe o porque ? ( No LM Runtime found for model format 'gguf'! ) no LM Studio
sera que sua maquina suporta?
Se da pra rodar esses modelos localmente, provavelmente tem uma api. Dava pra testar fazer chatbots com esse LLM e ver se fica menos custoso do que pagar outras APIs como a da openai.
Tenho uma dica de charada que pode ser usada para IA's de raciocínio. Tente esta:
Haviam 7 pessoas, 3 tentaram fugir e 4 tentaram ficar.
Quantas pessoas restaram?
Me responde uma coisa moço das IA, eu tenho uma placa de video com 4gb de memoria vram, porém ela tem uma extenção de 8gb que tiraria da minha ram o modelo ele usa tambem ram do processador?
Usa ram da memória ram, a GPU (placa de vídeo) vai pegar os outros 4Gb da memória ram do seu computador. Se teu computador tiver 8Gb de ram, ele vai pegar 4Gb!
@@yuriotorres OOOOOOOOOH que massa, vou testar isso, pq eu tenho 16 hehe..
eu uso lm com ia sem censura, será q essa também vai?
já tem uma versao do deepseek sem censura. qual lllm vc usa sem censura?
aqui deu erro ao carregar a modelo
ele não lê imagens?
è que se o copo está vedado significa que ele tem uma tampa então por isso não caiu, no raciocínio dele, entretanto no contexto inicial ninguém falou nada sobre o copo estar ou não vedado\lacrado.
Vocês sabem que essa ia é capada né? kkk
Com certeza, o custo dela é muito mais capado que a capacidade. Aí é que ela ganha.
@@flavioe.2770 Analises superficies de youtubers como este. na pratica a historia é outra.
Review de um youtuber alucinado...
@@flavioe.2770 custo baixo, então por que os chineses não usam essa ia com hardware superior americano. Que ai sim dominariam o mercado de ia completamente...
Alguém me explica porque ele teve que baixar e não usou direto no navegador?
Possibilidade de rodar offline, dar Fine-tuning (treinar o modelo como vc quer que ele responda, alterar a temperatura para diminuir a criatividade em raciocínios como programação ou matemática) e gerar uma api cloud para você utilizar em alguma IDE para programar por exemplo. Esses são alguns dos casos.
Poxa se não fossem as alucinações e o peso dos modelos seria perfeito... Será que um dia vamos conseguir um modelinho 8B realmente inteligente? Talvez com aquela ideia dos modelos grandes treinando os pequenos. Porque se for parar para pensar esses modelos tem quase tudo para responder e para gerar imagens, só falta o "mapa do caminho certo" dos modelos grandes para eles serem assertivos. Mesmo que as respostas sejam "decoradas" ainda são respostas certas, ou seja, um modelo 8B que já tem os caminhos para milhões de respostas seria tão bom quanto o que precisa ficar pensando pra gerar esse caminho.
Os modelos modelam o mundo dentro do espaço semântico deles.
Portanto sim. Os modelos destilados de 7 bilhões de parâmetros usando dados de alta qualidade sintéticos são de fato inteligentes. Isso porque os cada um dos parâmetros tem alta qualidade.
No caso a melhor arquitetura é a mistura de especialistas. Ao invés de um só modelo você têm muitos modelos cada um para uma aplicação
Nem um modelo é 'inteligente' até o momento. Eles só são geradores de texto sofisticado, ainda falta muito pra alcançar isso
E por isso que eles 'alucinam' já que eles tentam prever isso com o dataset e pd estar faltando ou má qualidade causando alucinações nas respostas
@@toukyJK a teoria do papagaio estocástico está ultrapassada, faz uns anos. Eu não passo no Ita. O modelo passa. Na prova que não está no banco de dados dele, passa porque sabe qual o caminho correto para resolver a questão
@@fabioa8059 pow maninho, ele diferente de vc tem bilhões de dados pra processar usando threshold pra identificar quais palavras ou sentenças combinam é processa td isso.
N tô tirando o mérito da Ai, mas ela não é td isso como vcs ficam exaltando
Afinal de contas, ela usa um algoritmo de aprendizado reforçado. Ent ela se dá bem msm com dados que n tenha visto só que aumenta a chance de alucinar
Xing ling derrotou o ridículo cowboy!
kkkkkkkkkkkkkkk 😛
daqui a 10 anos n duvido n que ja vamo pro espaço
Um detalhe que nao pode passar desapercebido é que é um ser humano quem estará interagindo com a IA.... e ae temos seres humanos com TDH, TOC TODI, GZ (geração Z), QI Abaixo do normal, etc.... é preciso saber interagir .... ate empregadas domesticas precisam se atualizar, pois existem fogões elétricos , maquinas de lavar e secar, televisores/monitores inteligentes etc.... quem não se atualizar e não souber interagir em pouco tempo será uma peça fora do universo..... (Edmilton Uhlig).
To usando já, claro o 7B e o 8B qwen e llama R1 que rodam no meu notebook, baixei ontem, domingo pra testar, bem legal, não chega no deles mas o raciocínio funciona
qual a configuração do seu note?
@felipeveras6255 notebook I7-7700, 16 GB de Ram, Gpu GTX 1050 TI 4GB. Baixei modelos 7B 8B com entre 3 e 5 Gb de tamanho do arquivo em media e tem uns arquivos maiores . No meu note que é gamer mas não é novo, fica meio lento a resposta do chat mas funciona.Estão saindo modelos de 1.5B e 3B com R1 são mais imprecisos porém mais rapidos pra testar em PCs mais leves
Efeito do sucesso, Deepseek atualmente anda lento, vários segundos pra responder, surgem bugs que simplesmente travam o chat, algo parecido ao ChatGpt, recentemente voltei pro Perpexity, Claude e mesmo pro Gpt...os servidores n tankaram o hype...agora é ver qual será o próximo
Literalmente o mundo inteiro acessando sem parar
Fiz o teste e o meu acertou. Disse: "O dado está sobre a mesa."