DLSS3 Frame Gen, Nvidia trabalhou em hardware específico presente na série 40 para mapear e analisar o fluxo de direção da rasterização e gerar um frame buscando maior precisão. Seria sim possível fazer sem esse hardware exatamente como a AMD fez, porém a NVIDIA optou em priorizar a precisão junto ao hardware e fugir de imprecisões (apesar de mesmo assim os frames gerados imprecisos estarem presentes mas precisando estar bem disposto para analisar e encontrar). A NVIDIA relata a série 30 e anterior como não compatíveis com a tecnologia de geração de quadros do DLSS por apenas não atingir o patamar de precisão que ela considera satisfatório apenas! FSR3 Frane Gen por sua vez já não tendo um hardware dedicado a análise dos frames para frame gen, faz a mesma tarefa com apenas menos precisão e se isso é menos visível ou não, depende muito do canário do jogo,velocidade da cena é a percepção do jogador o que foi bem mais recebido por todos kkk
@nathansilva4568, se isso for realmente verdadeiro, vc está certíssimo, mas o fato é que somente quem está dentro da NVIDIA e no projeto, vai realmente saber dizer se o seu resumo é a verdade ou, se não era interessante ($$$$) ter esforços para a serie 30 ou qq outra e forçar as pessoas a migrarem para a série 40.
Mano da pra colocar FSR3 na RX580, ta rodando the last of us, cyberpunk e diversos outros lancamentos acima de 60 FPS. Essa placa é imortal kkkkkkkkkkkkk amo!
Rapaz o homem esta no shape mesmo kkkkkkkkk, eu falei que a Nvidia enganou a todos com o markentig dela do frame generation so na linha RTX 4000 poder funcionar, AMD esta salvando a todos, a comunidade esta ferrando a Nvidia todos os dias kkkkkk.
O problema n eh o frame fake, o problema foi a nvidia claramente escorar uma geração de placa cara e com pouca evolução no dlss 3, quando algo semelhante poderia ser feito nos modelos antigos.
a NVIDIA ficou sem cara, vendendo tanto o hardware das RTX 40 que era único para poder fazer uso dos Frame Generation, aí vem a AMD e disponibiliza para todos. Os modders lançando os mods que podem ser aplicados até em jogos antigos que não possuem o DLSS 3.
@@Dougfulll E isso que é o verdadeiro problema de tudo que foi dito. Agora corremos uma ENORME chance de só termos jogos PORCAMENTE MAL OTIMIZADOS daqui pra frente.
Na verdade, o problema é que os desenvolvedores estão se aproveitando do DLSS e FSR para lançarem jogos mal otimizados. Daí se torna realmente obrigatório o uso dessas tecnologias.
A NVIDIA está em uma saia justa. Caso ela traga uma versão de DLSS 3, que seja ativado nas RTX 20 e 30 vai ser muito vergonhoso para ela, pois foi preciso a sua concorrente, AMD, disponibilizar a todos uma tecnologia aberta com geração de frames.
@@albertdart6216 patética mesmo! Ficou demais feio para ela, pq deixou de lado seus próprios consumidores, os de RTX 20 e 30, os de GTX. Com os mods, até chips gráficos integrados estão se beneficiando. Não se pode nem reclamar do FSR da AMD, a tecnologia é nova e estão aprimorando. Eu mesmo tendo uma RTX 4070, estou demais feliz pelas outras pessoas que agora fazem uso do Frame Generation, eu usando o mod do FSR 3, ganhei mais FPS comparado ao DLSS 3, cerca de 12 FPS no Starfield.
Resolvi testar ontem o mod no Alan Wake na minha 3080 que tava sofrendo no 4k qualidade, achei satisfatório, segurou nos 55/60 fps, da pra relevar os artefatos.
Sobre os artefatos, no mod do Nuke se colocar o Dlss como performance +FG os artefatos somem, mas depois de colocar tem que fechar o jogo e abrir novamente para ver a diferença.
A questão é a filosofia. A nvidia lançou o frame generation como complemento a série 40, para esconder a volta de evolução da série 40 em relação 30. FSR3 é uma opção liberada pela AMD para todos.
Só saio da 3060ti quando lançar a série 50. Da mesma forma que a série 20 foi o incremento do rtx, a série 40 é o incremento da I.A, rtx on foi aprimorando na série 30 então eu deduzo que a I.A só vá ficar boa na série 50. Tenho essa opinião, mas cogito pegar uma 7900xtx, ou talvez eu realmente espere a série 50. Nunca usei placa AMD, mas o custo por frame/benefício é muito alto e mesmo gostando de rtx on, ao ver o teste de desempenho, tem uma média boa.
3060ti dá caldo ainda para uns 4 anos em FHD se souber otimizar bem amigo, só sai da 3060ti por causa da VRAM eu gosto de jogar em QHD então 8gb não estava dando conta, agora se for em FHD dá para jogar 4 anos ainda no médio/alto
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Pq no começo estava disponível só pra 4090 e como a maioria não tem acesso a ela, é mais confortável falar que é ruim pra não se sentir excluído. Isso aconteceu e vai acontecer com toda tecnologia que não saiu ainda pra massa e ficou exclusiva para um grupo seleto.
Exato, Nvidia anuncio o DLSS3 achei pura enganação, AMD anunciou, pensei a mesma coisa. Mas agora que é possível testar, ai de fato podemos sair do achismo e ter uma conclusão e veredito da tecnologia. E sim, funciona muito bem, e os MOD de FSR3 está na fase inicial ainda, deve melhorar mais em breve. Avatar testei aqui, e está bem superior aos MOD, pois não consegui ver defeitos visuais algum. Também agora temos o Lossless Scaling com geração de quadros (em fase bem inicial também), testei aqui e também funciona muito bem , isso nos jogos que funciona, Cyberpunk por exemplo não achei que ficou bom, o MOD FSR3 ficou bem melhor nele, porém Callisto e Guardiões da Galáxia rodei de forma satisfatória em 4k e com RT em uma 6800 XT usando esse programinha. Ainda estou na esperança da AMD conseguir fazer o AFMF via driver ficar tão bom quanto os MOD, pois já testei e também achei promissor. Em resumo para ter o melhor desempenho em RT, DLSS3 e etc, só indo de Nvidia e não tem nenhum problema nisso, de fato só o preço abusivo que é o problema, digo o mesmo pro lado das novas placas da AMD mesmo sendo mais em conta, ainda é caro demais. Mas claro, temos que lembrar o fator Brasil que nunca nos ajuda nessa hora, muito pelo contrário.
@@N1kou a do lukefz é muito facil. basta copiar e colar 4 dll na pasta do executavel e ja eras. quando abre o game o CMD abre ai vc sabe q o mod funcionou
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Rapaz, o mod simplesmente reconheceu minha rx5700xt no hogwarts legacy como uma 4090 kkkkkk, com tudo no ultra e dlss ativado no ultraqualidade chega a pegar pouco mais de 100 fps em certos locais, input lag aceitável mesmo em ainda em beta, como sendo jogo single, se travar nos 60 ja fica muito aceitável, incrível!
A maior preocupação da comunidade daqui pra frente será em como os jogos serão otimizados, pois com o lançamento desse Mod ao público, a chance de recebermos jogos PORCAMENTE mal otimizados é muito alta. Principalmente com as produtoras querendo mostrar algo inovador como gráficos/física super realista, etc, etc. Enfim... Oremos 😂
Agora que existe o FSR3, se as produtoras quiserem inovar e para isso for necessário o uso da tecnologia, acho super-bem vindo. A nova geração de console chegou, mas existem pouquissimos jogos que não rodariam na geração passada. O cenário nunca esteve tão favorável para as desenvolvedores extrapolarem o conceito dos jogos. Mas se for pra lançar mais um jogo padrão usando FSR3 de muleta, aí é de phude... Ridículo de fato
@@tiagoamaral2371 Da uma pesquisada nos MOD FSR 3 + Frame Generation que vc vai ver a magia acontecendo. Fiz vídeo instalando e fazendo os testes se caso tenha dúvida. Vc praticamente dobra os FPS.
@@InuGii O tal do frame Fake e bla bla bla. Eu tinha essa mesma dúvida até eu mesmo testar. E é notório o ganho de desempenho mesmo com frames criados por IA. Aconselho primeiro a testar vc mesmo e depois dar uma opinião sincera sobre.
experimentei as duas tecnologias e fiquei mais puto ainda com a nvidia, troquei a minha 2060 por uma 4070 e agora com os mods to vendo que foi pura enganação
A diferença é que você não terá CUDA, shaders exclusivos Nvidia (exigidos para Arcades antigos baseados em Linux 32-bit) e em qualidade DLSS3 é ainda superior.
ele ta passando um pano do cacete pra nvadia mas é isso o dia q a amd for safada tbm temos q criticar,o certo a se fazer e sempre ser pro consumidor q n e o caso da nvadia
Fez, though? Já temos o primeiro jogo que qualquer gpu abaixo da 4090 precisa dos frames falsos pra rodar acima de 60 fps na floresta = alan wake 2. A maioria das rtx 4000 precisam dele pra fazer meros 60 (metade deles sendo quadros falsos). Imagine como será isso em jogos futuros, rtx 4000 não são future proof e logo, logo estarão caindo em qualidade também pra manter o desempenho (reduzindo qualidade do dlss, ray tracing, tendo que recorrer a frame gen etc)
Conclusões que sempre mencionei nos vídeos sobre o assunto. Melhor um padrão aberto que algo fechado, exclusivo em determinada empresa e série de placas. Eu realmente tenho interesse em GPUs AMD, o problema é a falta de comparativos na área de produtividade, trabalho. Quase todos os comparativos são em jogos, como se todos jogassem o tempo todo. Testes em Blender, Premiere, Davince, Photoshop, Autodesk entre outros softwwares similares. O mesmo pode ser encaixar processadores e memória e tipos SSDs. Testes em jogos são importantes, mais muitos como eu deixou os jogos em segundo plano, para dedicar ao trabalho e o meu envolve produtividade uma boa máquina de trabalhar. Fica mais uma vez a dica para investir em testes do gênero. Grande abraço Marcus.
9 місяців тому+1
O problema é que muitos destes programas usam software proprietario da nvidia pra rodar algumas coisas, então ainda a Nvidia é o melhor caminho pra esse publico, eu mesmo faço aglumas coisas com a minha AMD, mas sei q tem um abismo entre a AMD e NVidia quando é produtividade em edição de video e 3d, em Blender mesmo é quase 3x a diferença, é foda, mas a AMD tá focando no mercado que vende mais que é dos games, com o tempo creio q ela vai crescer pra outros também, em Processador ela já tá batendo de frente com a Intel, Placa de video pra jogos já está muito bem, agora falta a parte do segmento profissional...
@ Tem vídeo do Adrenaline com uso de GPUs nvidia e AMD, gpus gamers e profissionais. Nos testes, as GPUs AMD se saíram melhor na maior parte dos softwares. O ponto é: varia de software para software, e a galera costuma resumir software de produtividade a alguns poucos e somente um mercado de produtividade e batem o martelo que Nvidia é melhor nesse quesito. Recomendo darem uma olhada no vídeo do adrenaline..
9 місяців тому
@@xClanPkSx eu já vi esse video, mas mesmo nesses testes foi superficial, pois a Adrenaline se não me engano foi o primeiro video a respeito, se vc for analisar os comentarios do pessoal q entende vc vai ver o pessoal comentando que os testes não mostraram bem a realidade, eu só vi canal gringo mesmo testando de fato em software profissionais, e a AMD ainda tá bem atrás, como disse o ultimo q eu vi a NVidia tinha 3x mais preformance que a AMD no blender... procure por NVIDIA or AMD - For Professional Video Editing in 2023? | AMD has come far, do apurv das
@@xClanPkSx Então, este é um ponto que me deixa confuso, cada um diz uma coisa, por isso sempre apelo para fazerem testes em produtividade. Infelizmente são casos isolados, não é um padrão igual em jogos. Uma explicação técnica porque determinado hardware se sai melhor é um complemento ao teste mostrado. Também poucas pessoas explicam sobre isso, Marcus é uma pessoa que tem está capacidade de explicação didática. Irei pesquisar sobre este teste do Adrenaline, bem provável que eu tenha visto, sempre estou a procurar estes conteúdos, mais obrigado por deixar a sugestão e opinar sobre.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
FSR3 funcionando em todas as placas inclusive nas antigas rx580 da vida, só prova que a Nvidea usa suas tecnologias pra vender produtos que por sinal em muitos casos são produtos bem fracos (rtx 4070 pra baixo) que só têm valor por conta dessas tecnologias.
Acabei de comprar neste exato momento o Windows 11 pro 32/64 bits ESD, no site que tu indicou. Paguei 89.99 barato demais. Vlw. Canal de qualidade. 👍🏻🤝🏻👏🏻👏🏻
um incremento maravilhoso é que o proprio msi afterburner, melhor dizendo o riva turner, se pegar a versão beta 6 você tem nvidia reflex, sim, o riva turner adicionando REFLEX da nvidia nos jogos até os que não tem suporte e reduzindo muito mais a latencia
Irmão isso salvo legal minha GTX 1650 kkkkk vo zera God of War dnv só q agr com td no Alto e a 60FPS sem esse mod eu tinha zerado no baixo/médio a 30FPS
O problema é que quando tem lá requisito recomendado Dlss equilíbrio, a gente já sabe que esta mal otimizado!! Parece mais uma muleta do que um filtro com um extra de desempenho!!
O problema não é usar Dlss e FSR como requisitos e sim não ter o trabalho de otimizar ou terminar os jogos fazendo com o que essas tecnologias sejam obrigatórias para se jogar com quadros e fluidez decentes (claro que tem hardware para cada tipo de situação) mas hoje o que se mais tem é jogos Full Price lançados em Beta ou Alpha todo cagado e instáveis no que só de virar a câmera os FPS e Framerate vai pro carai. Sobre o código aberto da AMD e as maneiras de implementações nos jogos sejam via MOD e tals em diversos modelos de placas AMD ,Nvidia e Intel foi a melhor coisa pro consumidor .
Que bom ver um canal conceituado usando esse termo, quase fui banido de um canal aí por falar que o recurso do frame gen traz ganhos por meio de frames falsos, excelente vídeo como já é de prache por aqui.
8:35 na verdade oq eu quero é oq acontecia na geração GTX 1000, coloco a placa pra renderizar em quad HD e faço downscale para 1080p sem usar nenhum tipo de anti serrilhado
Eu tenho uma 3090 fui testar esse tal de FSR3 nela, e realmente os frames fake são muito perceptíveis, a imagem fica com uma qualidade ruim... então eu acho que realmente em comparação com a da série 4000, é bem mais otimizado isso.
Acho que a comunidade percebeu que o fato da AMD fazer o FSR3 open source é benéfico a TODOS, menos pra NVidia. Acho que em breve até a Intel vai se beneficiar. A meu ver, NVidia só vale a pena pra quem quiser jogar E usar IA.
Vai acontecer coisa parecida que aconteceu com o Freesync e o Gsync. Um não tinha que pagar taxa para implementar no monitor e não precisava de chip dedicado.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
@@Dutra-- mesma coisa. Um carinha andou falando que a AMD (meu Acer) tem aprimoramento de imagem no driver e a NVIDIA não, que pode ser isso. Pior que no meu Acer isso tá desativado, então nem é isso.
(comentário feito antes de assistir o vídeo) vou falar sobre minha opinião, eu não curtia essa ideia de DLSS 3, TENHO UMA RTX 3060 TI e vou ter que admitir que depois que usei mods de FSR 3 minha opinião mudou, claro que isso não vai substituir rodar o game nativamente mas o fato de melhorar a fluidez da imagem é muito louca principalmente em jogos campanha como red dead 2 que agora eu posso jogar a 60 fps com tudo no talo no meu monitor que tem a resolução 3440 x 1440. Pra esse tipo de situação eu gostei, queria testar o Dlss 3 da nvidea mas infelizmente vai ser só quando eu trocar de placa, provavelmente caso eu consiga comprar a 4070 super
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
tenho uma placa com dlss 3 mas nem uso, pelo menos no meu monitor (1080p) e no meu ver, a imagem fica um pouco esquisita mesmo no modo qualidade, em alguns jogos nao ligo tanto, mas realmente da pra ver uma diferença
Isso é a prova de que a NVidia poderia ter lançado uma versão inferior do DLSS 3 nas placas de vídeo anteriores a série 4000. Basta ver o vídeo da Adrenaline sobre isso.
As 40x são melhores que as 30x isso nao tenho dúvidas. O problema é o salto no valor injustificável pelo salto na melhoria. Um notebook com 4060 custa 3k a mais que um com 3060. Possuí vantagens no projeto 4060 até mesmo pelo aquecimento e consumo que são coisas super importantes em noteboos, mas nao justificariam essa diferença absurda de valor. Talvez 1k a mais pelo que oferece fosse justo. Digo isso pq a placa de vídeo nao é só jogos, eu uso para renderizar e trabalhar gostaria de ter um ganho na nova geração. As 40x apresentam pouco ganho para quem usa o computador para trabalho. Resumindo, uma geração de placas perdidas para quem nao joga e não se importa com o frame generation.
fiz o teste hoje do FSR 3 no Cyberpunk na minha guerreiríssima GTX 1650 de notebook e eu só posso dizer que finalmente eu consigo minimamente jogar o jogo com certa fluidez. Fiquei extremamente feliz com esse recurso porque me entrega um certo aumento da "vida-útil" do meu notebook até eu conseguir trocar de notebook. A única coisa que eu vejo como preocupante é justamente a premissa do recurso: adicionar os frames, já que isso pode tanto ser uma coisa muitíssimo boa pois vai fazer com que as próximas placas tenham um desempenho exorbitantemente maior do que as da geração passada CASO as mesmas sejam construídas melhor do que as anteriores, de modo que mesmo sem o FG a placa consiga ainda seus 30% de ganho de performance em relação ao modelo anterior, porém pode ser ruim pois pode ser que as marcas de GPU falem algo como "Olha só, com esse recurso a gente consegue fazer com que a placa já consiga bem mais FPS do que o modelo passado, então vamos melhorar minimamente ou então nem se quer melhorar a placa e colocar esse recurso que ainda assim o ganho vai ser notável", coisa que ao meu ver aconteceu com a RTX 4060 quando comparada à 3060, onde, para notebooks ao menos, os únicos 2 motivos pra comprar a 4060 são: o Frame Generation e a capacidade de rodar os jogos e programas em QHD por conta da maior VRAM, mesmo que em 1080p o desempenho seja extremamente parecido entre as 2 placas, não chegando a nem 10% de diferença até onde eu vi
Minha birra é com nvadia, aumentou os preços da série 70 pra cima em ralação a gerações anteriores, e o trave do dlss3 nas rtx 3xxx. AMD trouxe a a alternativa (pode ser pior, ok, mas ao menos trouxe pra todos, até mesmo para a nvadia).
Concordo totalmente. O problema não são as tecnologias em si, mas a forma como são ofertadas no mercado. RT foi super mal recebido na época, mas duvido que teria sido tão criticado como foi, se não tivessem cobrado o absurdo que foram os preços dessas placas. Tecnologia nova é sempre legal, mas de que adianta se ninguém pode ter acesso? Parabéns à AMD que ao menos se esforça pra tentar parecer um pouco pro-consumidor. Tenho uma Nvidia mas sou totalmente crítico das práticas da Nvidia no mercado, especialmente quando a concorrente com muito menos recurso consegue entregar algo similar e muito mais acessível.
Só um adendo. A gente só ta começando a ter RT REALMENTE VIÁVEL agora nas placas top tipo 4090. A maior revolta com Ray tracing é justamente por isso, nas rtx2000 era uma gimick pouco funcional.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Verdade! Aqui minha gtx 1060 não tem a mesma nitidez/saturação do gráfico integrado do processador da amd. Mas, apesar de que atualmente o app da Nvidia que está integrado podemos melhorar isso nos filtros... Mas realmente o da amd até mexendo no painel ficar um pouco melhor.
Galera, a RX 7700 Xt vale mais a pena do que uma 4070? vi varios testes, a 4070 leva uma pequena vantagem na maioria dos jogos, porém a diferença de preço delas é maior tbm
É isso que acontece quando uma empresa começa a se sentir no Top da Pirâmide: os usuários que lasquem. Igual foi a Intel um dia, onde do nada a AMD chegou com Ryzen e a Intel não teve nada oque fazer e hoje está ai correndo atrás do prejuízo.
Marcus eu concordo com você na questão de não reclamar dessas tecnologias que vem em favor para nós e dar uma longevidade para as placas e experiência nos jogos, porém o que eu sinceramente não concordo e não entra na minha cabeça é o seguinte , as placas de vídeo não estão rodando nativamente como rodavam antes e aí que entra o Dlss , as tecnologias salva a galera mas em questão de desempenho bruto das placas não é algo que se está vendo hoje em dia exceto pelas hight end.
NVidia fazer vc ter que gastar mais e trocar de GPU pra ter frames fakes dando a desculpa que não tinha como aplicar nas gerações antigas foi o maior motivo de geral odiar e criticar. O da AMD geral tá amando pq graças aos mods não estão se limitando e te forçando a comprar um produto pra ter essa nova tecnologia. Apenas a alegria do pobre que vai sobreviver mais tempo sem precisar vender um rim pra comprar uma 4070 ti
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Pra mim o problema não é passar a usar o AA do FSR/DLSS como peadrão, o problema é o padrã o ser FSR/DLSS em modo equilibrado pra 1080p, ou qualquer modo pra qualquer resolução, pq em vez de termos jogos mais bonitos rodando bem teremos jogos iguais ou mais feios rodando na mesma performance pq os devs cagaram pra otimização. É uma tecnologia boa mas que se for obrigatoria vai atrasar mais doq ajudar
Concordo, usar o dlss ou fsr como solução pra antiserrilhado beleza, mas usar como requisito pra mim tá totalmente errado, imagina o requisito de um jogo seja pra rodar ele em 60fps colocar em Full HD e dlss modo equilibrado, vai ficar horrível.
Aí nesse caso eu prefiro não jogar o jogo. Como foi com Immortals of Aveum, que tive vontade de jogar, mas depois de ver como estava rodando, deixei de lado e não comprei. Temos que ponderar, não dá para o engenheiro da Nvidia/AMD, quando for desenvolver alguma tecnologia, ficar pensando se o desenvolvedor do jogo ou aplicação 3D vai ou não fazer o uso correto dessa tecnologia.
@@PCFacts É dos devs, mas infelizmente os estudios vao escolher economizar no tempo/dinheiro jogando parte da otimização pro DLSS/FSR. Eu fiquei tão animado quando vi o DLSS pela primeira vez... torcer pra ser usado da maneria "correta"
@@PCFacts desde que comecei no mundo do PC gamer as DEVs não otimizam games para PC corretamente, isso nem é novidade, então contar com essas muletas é um oásis no deserto!
A grande parada é que levando em conta a diferneça de valor nos EUA por exemplo, não é tão grande assim pra eles, mas já pra gente é muita coisa. mas realmente o fato da AMD liberar essa tecnologia tornando acessível à todos fez muita diferença
Ainda não assisti o vídeo, mas acho que as pessoas odiaram o DLSS pelo simples fato de ser algo exclusivo das placas de vídeo top, e acho que ninguém quer comprar uma placa de vídeo top caríssima para jogar com frames falsos. Agora, o FSR é gratuito e de código aberto, e desde o início já tinha suporte até para placas concorrentes, e por ser de código aberto, já podiam criar mods para usar em qualquer placa. Eu to usando em uma GTX 750 TI, mas eu só to usando em jogos antigos que estão lacrados a 30fps.
Daqui a uns dias vou testar esse frame fake da NVidia, da AMD eu testei e era apenas um número no afterburner, com impressão de fluidez zero, pior até que não usar.
Graças ao FSR3, minha 3060ti se tornou um pouco menos obsoleta. Infelizmente continua sendo uma placa horrível pra quad hd nos lançamentos por conta da falta de VRAM.
Uma coisa é uma tecnologia em desenvolvimento grátis para salvar gpus que não tem mais desempenho ou melhorar o desempenho opcionalmente, outra é ter que pagar por elas sendo exclusiva e não 100% eficiente em uma nova geração.
Frame Generation vai ser igual foi DLSS 2.0 em seu começo. No inicio servia para ganho de desempenho e era só felicidade....com issso os devs viram que poderiam usar o DLSS para poderem cagar na otimização, e pronto, agora DLSS é usado como muleta e o público game aceita de boa. Agora é a vez do Frame Generation. Não é atoa que a indústria de games vem decaindo, onde até o mercado de vídeo a passou...e olha que isso não acontecia há um bom tempo. O hobby esta mudando, e isso tudo só esta acontecendo por causa dos próprios devs (acredito q ganância e falta de criatividade são os principais fatores) ...estão cavando a própria cova.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
@@the.ben.johnson Provavelmente é a qualidade da tela, amigo. A sua TV e Legion devem possuir uma tela inferior...tem q ver qual modelo é: OLed, VA, IPS, QLed, TN etc...e também a fabricante.
O problema das empresas se escorarem em "soluções" como DLSS é usar isto como desculpa para trazer jogos com uma otimização cada vez mais fraca, e pior que isto é os jogadores aceitarem só pq tem um artifício que aumenta os FPS em detrimento da perda de qualidade de imagem. Enxergo essa e outras soluções como ferramentas para possibilitar hardware mais antigo a ter uma experiência um pouco melhor, e não existe contexto pra que isto seja requisito de um jogo com milhões em investimento.
Eu não esqueci, achei uma porcaria de qualquer jeito, só funciona razoavelmente se já tiver próximo dos 60 frames, se eu já tiver 60 frames eu não preciso de geração de quadros falsos.
To usando aqui no Ratchat Clanck, Spider Man, Alan Wake 2, The Witcher 3, Cyberpunk e The Last of Us, meu monitor é 120hz e com uma 3070 estou conseguindo jogar tudo em 120 com Ray tracyng em 2K, gostei kkkkkkkkkkk
Minha experiência com o DLSS3.5 é incrível, não vejo artefatos mas vejo sim ghosting, principalmente no cyberpunk, nos carros e até no HUD, mas não chega a incomodar. A tecnologia é ótima. Vale muito a pena migrar pras 40 quem está na série 1000 ou 2000. Infelizmente está cheio de gente que não tem condições e quer pagar de malandro difamando a tecnologia. Agora o que a Nvidia faz impondo que você compre as 40 é outros 500, você pode concordar ou não, difamar a tecnologia por não poder ter é sacanagem.
Nunca chamei de "fake frames". Eu disse a algum tempo que o hardware evoluiu. Mas parece que o software não acompanhou. Os "geradores de quadros" na verdade são só os drivers otimizados, pra usar a real capacidade do seu respectivo hardware. Prova disso é que passamos os últimos anos reclamando que a maioria dos jogos AAA lançados recentemente não eram necessariamente pesados, mas sim mal otimizados.
Vou falar pra você. Eu não gosto de usar DLSS ou FSR no Red Dead Redemptiom 2. Eu sinto a diferença e a imagem com TAA acho mais bem definida. E DLAA da menos performance que TAA então nos jogos que tem então é complicado...
Não é todo game que TAA é pior. O TAA é melhor quando o dev para pra fazer. A questão que entra é: quantas vezes você acha que o dev para pra fazer kkkk
Nem me fale, gosto da Nvidia, mas ela faz isso, ou não disponibiliza, ou tira depois de um tempo como fez com o Nvidia 3D Vision deixando quem comprou na mão.
Não sei como é o DLLS,mas jogando Hogwarts Legacy e usando o FSR o ghost é real e não fica legal....joguei na resolução padrão e fim dos problemas. Sem I.A. por favor
Devido ao fsr3 estou jogando palworld ha 60 frames num ryzen 5600g. Pelo menos pra mim ta muito gostosin de jogar ( obviamente nao e em Full hd ultra, afinal ele nao faz milagre também) Eu estou usando via mod losscalin
É "bom" por ser gratis, mas ainda são frames fakes que geram artefatos, rastros de imagem e etc, o caminho pra isso ser consistentemente bom de fato ainda é longo, esse auê todo é pelo deslumbre da descoberta, e isso já estar atrelado a presets dentro do jogo pra mim é gambiarra pra entregar fluidez em detrimento de um polimento maior do jogo, mas desde que dê pra desligar que se dane rs
Minha experiência pessoal: Testei esse FG do FSR3 em 4 jogos, Avatar e Forspoken que são nativos, e FH5 e Cyberpunk via mod e achei a fluidez horrível. Você sai de 60fps para 100fps, mas com "sensação de 50fps". Artefatos e ghosting acontece o tempo todo, principalmente nos carros em movimento. Enquanto isso vejo muito fanboys endeusando o FSR3 e alguns produtores de conteúdo menores mentindo que fica perfeito.
Acho que com o fsr 3 sendo open source e com o apoio da comunidade de modders ele pode vir a ser melhor do que o dlss 3 até mesmo em rtx 20 e 30 um dia
Não concordo com essa de fazer FSR e DLSS virar requisito. Se o PC está comprido com o Hardware necessário então o jogo já deveria rodar bem, FSR e DLSS era pra ser um recurso a + pra quem tem PC abaixo dos requisitos ou quem que mais frames, apenas isso, não é pra virar uma muleta como estão usando agora.
Minha dúvida é se a NVIDIA não usava isso em testes antigos pra ganhar em desempenho, porque não é possível uma rx580 rodando jogos que a 1050ti que na época dava um banho mal consegue rodar.
Só sei de uma coisa, FSR ainda está bugado e só entrega FPS sem qualidade nenhuma e as vezes até erros nos gráficos! Temos como exemplo Alan Wake 2 na própria jaqueta da investigadora a escrita toda borrada das siglas FBI quando ativamos o FSR. Já o DLSS temos qualidade mesclada com FPS e agora a Nvidia lançou o DLSS 3.7 que está realmente fazendo a diferença nos games deixando uma ótima qualidade e FPS!
ainda n vi o vídeo, mas imagino que a razão seja: a implementação não depende de hardware especifico (gastar dinheiro) e tem bons resultados. Eu digo sem vergonha, duvidei que a AMD entregaria isso, e estou feliz em ter errado kkkkk nVidia cobra caro pra por o RTX nas placas, tem um hardware dedicado a isso, e todos já sabemos que as tecnologias que ela desenvolve é para o mercado de IA, os consumidores foram os financiadores. Financiamos com as caríssimas RTX20, 30 e agora 40. Pagamos o pato, e fomos "abandonados" de certa forma com os ganhos geracionais pífios. Com o Lukefz no Cyberpunk 2077, saí de 25 fps ultra com a 1060 6GB e fui para 60fps apenas com ghosting que já existia da implementação FSR2 do jogo. A fluidez melhorou, e a responsividade também está adequada.
Na minha opinião a Nvidia só tem 1 vantagem, APENAS 1, é q ela pode usar tanto Dlss 3 quanto Fsr 3, afinal a Amd permite, então usando a Nvidia vc ganha mais abrangência no uso dessas tecnologias, isso é importante quando vc lembra q nem todo jogo tem tanto o Dlss quanto Fsr, mas em todo resto a Amd ganha, talvez n no Ray Trancing, mas sendo bem sincero isso é algo q a maioria das pessoas nem usa, pois é tão pesado q acaba com seu fps, ah n ser q vc tenha uma 4090
DLSS3 Frame Gen, Nvidia trabalhou em hardware específico presente na série 40 para mapear e analisar o fluxo de direção da rasterização e gerar um frame buscando maior precisão. Seria sim possível fazer sem esse hardware exatamente como a AMD fez, porém a NVIDIA optou em priorizar a precisão junto ao hardware e fugir de imprecisões (apesar de mesmo assim os frames gerados imprecisos estarem presentes mas precisando estar bem disposto para analisar e encontrar). A NVIDIA relata a série 30 e anterior como não compatíveis com a tecnologia de geração de quadros do DLSS por apenas não atingir o patamar de precisão que ela considera satisfatório apenas! FSR3 Frane Gen por sua vez já não tendo um hardware dedicado a análise dos frames para frame gen, faz a mesma tarefa com apenas menos precisão e se isso é menos visível ou não, depende muito do canário do jogo,velocidade da cena é a percepção do jogador o que foi bem mais recebido por todos kkk
Seu texto foi perfeito! Merece ser fixado! Parabéns!
Congratulações jovem Padawan!
Ótimo ponto, mas canário do jogo fez perder um pouco da seriedade kk.
@nathansilva4568, se isso for realmente verdadeiro, vc está certíssimo, mas o fato é que somente quem está dentro da NVIDIA e no projeto, vai realmente saber dizer se o seu resumo é a verdade ou, se não era interessante ($$$$) ter esforços para a serie 30 ou qq outra e forçar as pessoas a migrarem para a série 40.
Que conversa kkkkkkkk. Tirou isso de onde cara? Que conversa mole kkkkkkkkkkkkkkkkkkk.
Mano da pra colocar FSR3 na RX580, ta rodando the last of us, cyberpunk e diversos outros lancamentos acima de 60 FPS. Essa placa é imortal kkkkkkkkkkkkk amo!
Fps não, fluidez de fps mas o fps real é menos de 60. Exemplo 30 com uma fluidez de 60 com input lag de 30
se aumenta o fps ent abaixa o input lag de qq forma@@KatiZ_
@@pedrof3232 🤡
Coloquei no RDR2 e infelizmente ficou tudo bugado
vou continuar jogando a 40 fps mesmo
Rapaz o homem esta no shape mesmo kkkkkkkkk, eu falei que a Nvidia enganou a todos com o markentig dela do frame generation so na linha RTX 4000 poder funcionar, AMD esta salvando a todos, a comunidade esta ferrando a Nvidia todos os dias kkkkkk.
E esse shape vai melhorar, viu?
@@PCFacts isso ai foco sempre
Tinha notado também kkkk o homem tá imparável
@@PCFacts rapaz tá saindo a fera da jaula brabo 🔥
Vida longa aos moders e seus mods FSR3.
Tudo isso tão rápido por que o FSR tem código aberto.
O problema n eh o frame fake, o problema foi a nvidia claramente escorar uma geração de placa cara e com pouca evolução no dlss 3, quando algo semelhante poderia ser feito nos modelos antigos.
a NVIDIA ficou sem cara, vendendo tanto o hardware das RTX 40 que era único para poder fazer uso dos Frame Generation, aí vem a AMD e disponibiliza para todos. Os modders lançando os mods que podem ser aplicados até em jogos antigos que não possuem o DLSS 3.
E o pior tbm os desenvolvedores estão se escorando nessas tecnologias e estão cada vez menos otimizando os jogos.
@@jorysmarc vc tem uma rtx 4000? O frame generation da AMD é muito inferior ao da nvidia
@@jorysmarc e onde eu consigo instalar esse MOD para testar na minha rtx 3050?
@@Dougfulll E isso que é o verdadeiro problema de tudo que foi dito. Agora corremos uma ENORME chance de só termos jogos PORCAMENTE MAL OTIMIZADOS daqui pra frente.
Tomara que o pessoal adote o FSR3 em detrimento do DLSS3 assim como freesync x G-sync.
Padrão aberto e livre pra todos.
Jogos que não vierem com fsr3 vão cair na ira do povão kkkk
ótima analise + essa tecnologia da amd foi baixaria mesmo, ficou muito bom !!!
Na verdade, o problema é que os desenvolvedores estão se aproveitando do DLSS e FSR para lançarem jogos mal otimizados. Daí se torna realmente obrigatório o uso dessas tecnologias.
Infelizmente essa é a realidade
A NVIDIA está em uma saia justa. Caso ela traga uma versão de DLSS 3, que seja ativado nas RTX 20 e 30 vai ser muito vergonhoso para ela, pois foi preciso a sua concorrente, AMD, disponibilizar a todos uma tecnologia aberta com geração de frames.
Tosco, né? A AMD foi genial em lançar o FSR para as placas anteriores e as da Nvidia. Agradeço a eles por isso. A Nvidia foi patética kkkk.
@@albertdart6216 patética mesmo! Ficou demais feio para ela, pq deixou de lado seus próprios consumidores, os de RTX 20 e 30, os de GTX.
Com os mods, até chips gráficos integrados estão se beneficiando.
Não se pode nem reclamar do FSR da AMD, a tecnologia é nova e estão aprimorando.
Eu mesmo tendo uma RTX 4070, estou demais feliz pelas outras pessoas que agora fazem uso do Frame Generation, eu usando o mod do FSR 3, ganhei mais FPS comparado ao DLSS 3, cerca de 12 FPS no Starfield.
Resolvi testar ontem o mod no Alan Wake na minha 3080 que tava sofrendo no 4k qualidade, achei satisfatório, segurou nos 55/60 fps, da pra relevar os artefatos.
E tem o detalhe de ainda ser um mod, em "testes" vamos assim dizer
Sobre os artefatos, no mod do Nuke se colocar o Dlss como performance +FG os artefatos somem, mas depois de colocar tem que fechar o jogo e abrir novamente para ver a diferença.
A questão é a filosofia. A nvidia lançou o frame generation como complemento a série 40, para esconder a volta de evolução da série 40 em relação 30. FSR3 é uma opção liberada pela AMD para todos.
acho que somente a 4090 foi a que realmente evoluiu
Aí que está fsr3 e para todos então eu não vou comprar uma placa de vídeo da AMD kkkk sendo que posso comprar uma rtx 4060 e ter os 2 recursos kkkk
@@Lipegamerr1 mas vai pagar bem a mais por isso, as vezes algo em tono de 50% a mais, será que compesa ? ao meu ver, nao...
Finalmente consegui compreender neste video à questão do FPS fake da DLSS3.
Cada caso é um caso, só testando p/ ver se fica bom em meus games.
A AMD literalmente, subiu no telhado quebrou a janela, urinou na cama da nvidea tirou foto e postou na Internet
kkkkkkkkkkkkkkkkk
Na verdade não, a AMD é responsável por cerca de 82% do mercado de placa de vídeo, então eles estão cagando pra qualquer coisa, eles fazem oq querem
Kkkkkkkk sério @@danielfahl8066
Só saio da 3060ti quando lançar a série 50.
Da mesma forma que a série 20 foi o incremento do rtx, a série 40 é o incremento da I.A, rtx on foi aprimorando na série 30 então eu deduzo que a I.A só vá ficar boa na série 50.
Tenho essa opinião, mas cogito pegar uma 7900xtx, ou talvez eu realmente espere a série 50. Nunca usei placa AMD, mas o custo por frame/benefício é muito alto e mesmo gostando de rtx on, ao ver o teste de desempenho, tem uma média boa.
3060ti dá caldo ainda para uns 4 anos em FHD se souber otimizar bem amigo, só sai da 3060ti por causa da VRAM eu gosto de jogar em QHD então 8gb não estava dando conta, agora se for em FHD dá para jogar 4 anos ainda no médio/alto
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Ótimo vídeo... complicado é o medo de gastar um rim num rtx 40 (ou rtx 40 super) e ano que vem a nvidia lançar o dlss 4 exclusivo para as rtx 50...
Pq no começo estava disponível só pra 4090 e como a maioria não tem acesso a ela, é mais confortável falar que é ruim pra não se sentir excluído.
Isso aconteceu e vai acontecer com toda tecnologia que não saiu ainda pra massa e ficou exclusiva para um grupo seleto.
Exato, Nvidia anuncio o DLSS3 achei pura enganação, AMD anunciou, pensei a mesma coisa.
Mas agora que é possível testar, ai de fato podemos sair do achismo e ter uma conclusão e veredito da tecnologia.
E sim, funciona muito bem, e os MOD de FSR3 está na fase inicial ainda, deve melhorar mais em breve.
Avatar testei aqui, e está bem superior aos MOD, pois não consegui ver defeitos visuais algum.
Também agora temos o Lossless Scaling com geração de quadros (em fase bem inicial também), testei aqui e também funciona muito bem , isso nos jogos que funciona, Cyberpunk por exemplo não achei que ficou bom, o MOD FSR3 ficou bem melhor nele, porém Callisto e Guardiões da Galáxia rodei de forma satisfatória em 4k e com RT em uma 6800 XT usando esse programinha.
Ainda estou na esperança da AMD conseguir fazer o AFMF via driver ficar tão bom quanto os MOD, pois já testei e também achei promissor.
Em resumo para ter o melhor desempenho em RT, DLSS3 e etc, só indo de Nvidia e não tem nenhum problema nisso, de fato só o preço abusivo que é o problema, digo o mesmo pro lado das novas placas da AMD mesmo sendo mais em conta, ainda é caro demais. Mas claro, temos que lembrar o fator Brasil que nunca nos ajuda nessa hora, muito pelo contrário.
Pode me explicar essa parada de mod?? É tipo instalação de mod de slyrim, mas da fps?
@@N1kou a do lukefz é muito facil. basta copiar e colar 4 dll na pasta do executavel e ja eras. quando abre o game o CMD abre ai vc sabe q o mod funcionou
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Rapaz, o mod simplesmente reconheceu minha rx5700xt no hogwarts legacy como uma 4090 kkkkkk, com tudo no ultra e dlss ativado no ultraqualidade chega a pegar pouco mais de 100 fps em certos locais, input lag aceitável mesmo em ainda em beta, como sendo jogo single, se travar nos 60 ja fica muito aceitável, incrível!
Caramba, acho que sua 5700XT se identifica como uma 4090
A maior preocupação da comunidade daqui pra frente será em como os jogos serão otimizados, pois com o lançamento desse Mod ao público, a chance de recebermos jogos PORCAMENTE mal otimizados é muito alta. Principalmente com as produtoras querendo mostrar algo inovador como gráficos/física super realista, etc, etc. Enfim... Oremos 😂
Agora que existe o FSR3, se as produtoras quiserem inovar e para isso for necessário o uso da tecnologia, acho super-bem vindo. A nova geração de console chegou, mas existem pouquissimos jogos que não rodariam na geração passada. O cenário nunca esteve tão favorável para as desenvolvedores extrapolarem o conceito dos jogos.
Mas se for pra lançar mais um jogo padrão usando FSR3 de muleta, aí é de phude... Ridículo de fato
Na minha RTX 3060 eu testei o MOD FSR3 + Fluid Motion, e meu amigos, que coisa maravilhosa 😂😂
Fluid Motion pelo que sei é só para as AMD.
@@tiagoamaral2371 Da uma pesquisada nos MOD FSR 3 + Frame Generation que vc vai ver a magia acontecendo. Fiz vídeo instalando e fazendo os testes se caso tenha dúvida. Vc praticamente dobra os FPS.
Você sabe que na real não dobra o FPS kkk@@NerdCalvo
@@InuGii O tal do frame Fake e bla bla bla. Eu tinha essa mesma dúvida até eu mesmo testar. E é notório o ganho de desempenho mesmo com frames criados por IA. Aconselho primeiro a testar vc mesmo e depois dar uma opinião sincera sobre.
faz o L
Sua retórica é excelente, sou seu fã!
Não tem outro canal no Brasil com a habilidade de storytelling e maturidade igual a desse pra falar de hardware.
experimentei as duas tecnologias e fiquei mais puto ainda com a nvidia, troquei a minha 2060 por uma 4070 e agora com os mods to vendo que foi pura enganação
Amigo eu to jogando tudo com o mod. E ainda usando dlss da nvidia. Jogo que não tem implementado eu mando um LossLess e pronto kk. Amo a AMD.
Achei legal esse LossLess, comprei na steam. Prefiro ele do que os mods que tem que ficar copiando arquivos para pastas do jogo.
Testei o LossLess e era infinitamente pior que os mods, vou testar melhor depois, mas o mod Nukem é impecável
@@gustavofaria1802 não funciona em todos os jogos! Mods são melhores
É por isso que troquei a 3080 pra RX 7900 XTX e em 2026 eu troco por outra AMD ...
Troquei 3070 por 7900xtx
A diferença é que você não terá CUDA, shaders exclusivos Nvidia (exigidos para Arcades antigos baseados em Linux 32-bit) e em qualidade DLSS3 é ainda superior.
Com Nvidia tem DLSS e FSR, com AMD só FSR, não tem sentido comprar AMD.
@@cdfldftem sim economia de dinheiro com praticamente a mesma tecnologia .
@cdfldf não tem sentido é pagar 1000 reais a mais, para ter o mesmo desempenho.
Muito lúcido! Parabéns pelas observações 👏👌
O FasterBenchmarker tá precisando ver seus vídeos pois ele virou fanboy alucinado da NVidia.
ele ta passando um pano do cacete pra nvadia mas é isso o dia q a amd for safada tbm temos q criticar,o certo a se fazer e sempre ser pro consumidor q n e o caso da nvadia
Quem é Faster Banchmarker? é aquele que voltou das cinzas e faz videos maçantes que mais de meia hora?
@@RegissInPlay ele mesmo Regis kkkk
O canal é bom d+ , uma coisa q deixa a desejar e não......
......ter vídeo pelo menos 3 vezes na semana... no mínimo
Ótimo vídeo meu conterrâneo do Pará, sempre uma análise justa e precisa sobre ambos lados, parabéns pelo trabalho e que excelente oratória!
Vida longa a esses mods, deu novo sopro de vida pra minha 3080 12GB poder continuar a rodar em 4K.
Fez, though? Já temos o primeiro jogo que qualquer gpu abaixo da 4090 precisa dos frames falsos pra rodar acima de 60 fps na floresta = alan wake 2. A maioria das rtx 4000 precisam dele pra fazer meros 60 (metade deles sendo quadros falsos). Imagine como será isso em jogos futuros, rtx 4000 não são future proof e logo, logo estarão caindo em qualidade também pra manter o desempenho (reduzindo qualidade do dlss, ray tracing, tendo que recorrer a frame gen etc)
Conclusões que sempre mencionei nos vídeos sobre o assunto. Melhor um padrão aberto que algo fechado, exclusivo em determinada empresa e série de placas.
Eu realmente tenho interesse em GPUs AMD, o problema é a falta de comparativos na área de produtividade, trabalho. Quase todos os comparativos são em jogos, como se todos jogassem o tempo todo. Testes em Blender, Premiere, Davince, Photoshop, Autodesk entre outros softwwares similares.
O mesmo pode ser encaixar processadores e memória e tipos SSDs.
Testes em jogos são importantes, mais muitos como eu deixou os jogos em segundo plano, para dedicar ao trabalho e o meu envolve produtividade uma boa máquina de trabalhar.
Fica mais uma vez a dica para investir em testes do gênero. Grande abraço Marcus.
O problema é que muitos destes programas usam software proprietario da nvidia pra rodar algumas coisas, então ainda a Nvidia é o melhor caminho pra esse publico, eu mesmo faço aglumas coisas com a minha AMD, mas sei q tem um abismo entre a AMD e NVidia quando é produtividade em edição de video e 3d, em Blender mesmo é quase 3x a diferença, é foda, mas a AMD tá focando no mercado que vende mais que é dos games, com o tempo creio q ela vai crescer pra outros também, em Processador ela já tá batendo de frente com a Intel, Placa de video pra jogos já está muito bem, agora falta a parte do segmento profissional...
@ Tem vídeo do Adrenaline com uso de GPUs nvidia e AMD, gpus gamers e profissionais. Nos testes, as GPUs AMD se saíram melhor na maior parte dos softwares.
O ponto é: varia de software para software, e a galera costuma resumir software de produtividade a alguns poucos e somente um mercado de produtividade e batem o martelo que Nvidia é melhor nesse quesito.
Recomendo darem uma olhada no vídeo do adrenaline..
@@xClanPkSx eu já vi esse video, mas mesmo nesses testes foi superficial, pois a Adrenaline se não me engano foi o primeiro video a respeito, se vc for analisar os comentarios do pessoal q entende vc vai ver o pessoal comentando que os testes não mostraram bem a realidade, eu só vi canal gringo mesmo testando de fato em software profissionais, e a AMD ainda tá bem atrás, como disse o ultimo q eu vi a NVidia tinha 3x mais preformance que a AMD no blender... procure por NVIDIA or AMD - For Professional Video Editing in 2023? | AMD has come far, do apurv das
@@xClanPkSx Então, este é um ponto que me deixa confuso, cada um diz uma coisa, por isso sempre apelo para fazerem testes em produtividade. Infelizmente são casos isolados, não é um padrão igual em jogos.
Uma explicação técnica porque determinado hardware se sai melhor é um complemento ao teste mostrado. Também poucas pessoas explicam sobre isso, Marcus é uma pessoa que tem está capacidade de explicação didática.
Irei pesquisar sobre este teste do Adrenaline, bem provável que eu tenha visto, sempre estou a procurar estes conteúdos, mais obrigado por deixar a sugestão e opinar sobre.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Um dos melhores canais de hardware do Brasil. Detalhe pra qualidade ABSURDA da camera do Sr. PC Facts
Obrigado
FSR3 funcionando em todas as placas inclusive nas antigas rx580 da vida, só prova que a Nvidea usa suas tecnologias pra vender produtos que por sinal em muitos casos são produtos bem fracos (rtx 4070 pra baixo) que só têm valor por conta dessas tecnologias.
Funciona em GTX e pasmem funciona melhor que nas rx antigas.
To rodando cyberpunk a 120 frames com tudo no maximo na RTX 3060 se ligar o ray tracing no max fica a 80-90, Obrigado aos mods e a AMD.
Aí sim
dlss desativou capou ! kkkkkkkkkk o cara quis refutar a tua analise e a minha também sobre preços gerações e segmentos kkkkkkkkkkkkkk
Que doideira, fui ver o vídeo do PC Facts e o cara emagreceu pra caramba hahah. Parabéns, ficou uns 10 anos mais jovem hahaha
Acabei de comprar neste exato momento o Windows 11 pro 32/64 bits ESD, no site que tu indicou. Paguei 89.99 barato demais. Vlw. Canal de qualidade. 👍🏻🤝🏻👏🏻👏🏻
Gastou seu dinheiro no lixo. Windows pirata. Compre na Microsoft ou na Kalunga.
É a famosa lenda do "Todo mundo fala que..." sendo que a maior parte do tempo é um todo mundo que só existe no mundo das ideias
um incremento maravilhoso é que o proprio msi afterburner, melhor dizendo o riva turner, se pegar a versão beta 6 você tem nvidia reflex, sim, o riva turner adicionando REFLEX da nvidia nos jogos até os que não tem suporte e reduzindo muito mais a latencia
Você tem uma fonte disso?
Irmão isso salvo legal minha GTX 1650 kkkkk vo zera God of War dnv só q agr com td no Alto e a 60FPS sem esse mod eu tinha zerado no baixo/médio a 30FPS
Lembro q vc falou lá atrás e estava certo, uma vez q a tecnologia for democratizada a crítica vai diminuir e diminuiu mesmo.
O problema é que quando tem lá requisito recomendado Dlss equilíbrio, a gente já sabe que esta mal otimizado!! Parece mais uma muleta do que um filtro com um extra de desempenho!!
O problema não é usar Dlss e FSR como requisitos e sim não ter o trabalho de otimizar ou terminar os jogos fazendo com o que essas tecnologias sejam obrigatórias para se jogar com quadros e fluidez decentes (claro que tem hardware para cada tipo de situação) mas hoje o que se mais tem é jogos Full Price lançados em Beta ou Alpha todo cagado e instáveis no que só de virar a câmera os FPS e Framerate vai pro carai.
Sobre o código aberto da AMD e as maneiras de implementações nos jogos sejam via MOD e tals em diversos modelos de placas AMD ,Nvidia e Intel foi a melhor coisa pro consumidor .
Que bom ver um canal conceituado usando esse termo, quase fui banido de um canal aí por falar que o recurso do frame gen traz ganhos por meio de frames falsos, excelente vídeo como já é de prache por aqui.
8:35 na verdade oq eu quero é oq acontecia na geração GTX 1000, coloco a placa pra renderizar em quad HD e faço downscale para 1080p sem usar nenhum tipo de anti serrilhado
Eu tenho uma 3090 fui testar esse tal de FSR3 nela, e realmente os frames fake são muito perceptíveis, a imagem fica com uma qualidade ruim... então eu acho que realmente em comparação com a da série 4000, é bem mais otimizado isso.
Acho que a comunidade percebeu que o fato da AMD fazer o FSR3 open source é benéfico a TODOS, menos pra NVidia. Acho que em breve até a Intel vai se beneficiar. A meu ver, NVidia só vale a pena pra quem quiser jogar E usar IA.
Vai acontecer coisa parecida que aconteceu com o Freesync e o Gsync.
Um não tinha que pagar taxa para implementar no monitor e não precisava de chip dedicado.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
@@the.ben.johnson pode ser o tipo de tela, compare as especificações delas
@@Dutra-- mesma coisa. Um carinha andou falando que a AMD (meu Acer) tem aprimoramento de imagem no driver e a NVIDIA não, que pode ser isso. Pior que no meu Acer isso tá desativado, então nem é isso.
Como sempre, ótimos videos, parabéns Marcos!
Valeu, querido!
(comentário feito antes de assistir o vídeo) vou falar sobre minha opinião, eu não curtia essa ideia de DLSS 3, TENHO UMA RTX 3060 TI e vou ter que admitir que depois que usei mods de FSR 3 minha opinião mudou, claro que isso não vai substituir rodar o game nativamente mas o fato de melhorar a fluidez da imagem é muito louca principalmente em jogos campanha como red dead 2 que agora eu posso jogar a 60 fps com tudo no talo no meu monitor que tem a resolução 3440 x 1440. Pra esse tipo de situação eu gostei, queria testar o Dlss 3 da nvidea mas infelizmente vai ser só quando eu trocar de placa, provavelmente caso eu consiga comprar a 4070 super
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
tenho uma placa com dlss 3 mas nem uso, pelo menos no meu monitor (1080p) e no meu ver, a imagem fica um pouco esquisita mesmo no modo qualidade, em alguns jogos nao ligo tanto, mas realmente da pra ver uma diferença
Isso é a prova de que a NVidia poderia ter lançado uma versão inferior do DLSS 3 nas placas de vídeo anteriores a série 4000. Basta ver o vídeo da Adrenaline sobre isso.
As 40x são melhores que as 30x isso nao tenho dúvidas. O problema é o salto no valor injustificável pelo salto na melhoria. Um notebook com 4060 custa 3k a mais que um com 3060. Possuí vantagens no projeto 4060 até mesmo pelo aquecimento e consumo que são coisas super importantes em noteboos, mas nao justificariam essa diferença absurda de valor. Talvez 1k a mais pelo que oferece fosse justo. Digo isso pq a placa de vídeo nao é só jogos, eu uso para renderizar e trabalhar gostaria de ter um ganho na nova geração. As 40x apresentam pouco ganho para quem usa o computador para trabalho. Resumindo, uma geração de placas perdidas para quem nao joga e não se importa com o frame generation.
só queria que voltassem a investir em poder de rasterização, porque eu duvido que tenha chegado no limite que tem pra chegar. Só falta evolução.
fiz o teste hoje do FSR 3 no Cyberpunk na minha guerreiríssima GTX 1650 de notebook e eu só posso dizer que finalmente eu consigo minimamente jogar o jogo com certa fluidez. Fiquei extremamente feliz com esse recurso porque me entrega um certo aumento da "vida-útil" do meu notebook até eu conseguir trocar de notebook. A única coisa que eu vejo como preocupante é justamente a premissa do recurso: adicionar os frames, já que isso pode tanto ser uma coisa muitíssimo boa pois vai fazer com que as próximas placas tenham um desempenho exorbitantemente maior do que as da geração passada CASO as mesmas sejam construídas melhor do que as anteriores, de modo que mesmo sem o FG a placa consiga ainda seus 30% de ganho de performance em relação ao modelo anterior, porém pode ser ruim pois pode ser que as marcas de GPU falem algo como "Olha só, com esse recurso a gente consegue fazer com que a placa já consiga bem mais FPS do que o modelo passado, então vamos melhorar minimamente ou então nem se quer melhorar a placa e colocar esse recurso que ainda assim o ganho vai ser notável", coisa que ao meu ver aconteceu com a RTX 4060 quando comparada à 3060, onde, para notebooks ao menos, os únicos 2 motivos pra comprar a 4060 são: o Frame Generation e a capacidade de rodar os jogos e programas em QHD por conta da maior VRAM, mesmo que em 1080p o desempenho seja extremamente parecido entre as 2 placas, não chegando a nem 10% de diferença até onde eu vi
Minha birra é com nvadia, aumentou os preços da série 70 pra cima em ralação a gerações anteriores, e o trave do dlss3 nas rtx 3xxx. AMD trouxe a a alternativa (pode ser pior, ok, mas ao menos trouxe pra todos, até mesmo para a nvadia).
Concordo totalmente. O problema não são as tecnologias em si, mas a forma como são ofertadas no mercado. RT foi super mal recebido na época, mas duvido que teria sido tão criticado como foi, se não tivessem cobrado o absurdo que foram os preços dessas placas. Tecnologia nova é sempre legal, mas de que adianta se ninguém pode ter acesso?
Parabéns à AMD que ao menos se esforça pra tentar parecer um pouco pro-consumidor.
Tenho uma Nvidia mas sou totalmente crítico das práticas da Nvidia no mercado, especialmente quando a concorrente com muito menos recurso consegue entregar algo similar e muito mais acessível.
Só um adendo. A gente só ta começando a ter RT REALMENTE VIÁVEL agora nas placas top tipo 4090. A maior revolta com Ray tracing é justamente por isso, nas rtx2000 era uma gimick pouco funcional.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Verdade! Aqui minha gtx 1060 não tem a mesma nitidez/saturação do gráfico integrado do processador da amd. Mas, apesar de que atualmente o app da Nvidia que está integrado podemos melhorar isso nos filtros... Mas realmente o da amd até mexendo no painel ficar um pouco melhor.
Galera, a RX 7700 Xt vale mais a pena do que uma 4070? vi varios testes, a 4070 leva uma pequena vantagem na maioria dos jogos, porém a diferença de preço delas é maior tbm
O pior é saber que a tecnológica funciona nas placas antigas, e simplesmente é a unica coisa literalmente que eles tem de diferença nas 40
É isso que acontece quando uma empresa começa a se sentir no Top da Pirâmide: os usuários que lasquem. Igual foi a Intel um dia, onde do nada a AMD chegou com Ryzen e a Intel não teve nada oque fazer e hoje está ai correndo atrás do prejuízo.
Sempre qualidade, tá doido, muito bom ouvir esse cara.
Marcus eu concordo com você na questão de não reclamar dessas tecnologias que vem em favor para nós e dar uma longevidade para as placas e experiência nos jogos, porém o que eu sinceramente não concordo e não entra na minha cabeça é o seguinte , as placas de vídeo não estão rodando nativamente como rodavam antes e aí que entra o Dlss , as tecnologias salva a galera mas em questão de desempenho bruto das placas não é algo que se está vendo hoje em dia exceto pelas hight end.
Mas as placas não rodam como antes porque os saltos que a NVIDIA trouxe foram pequenos. E a febre tá falando disso faz tempo
NVidia fazer vc ter que gastar mais e trocar de GPU pra ter frames fakes dando a desculpa que não tinha como aplicar nas gerações antigas foi o maior motivo de geral odiar e criticar. O da AMD geral tá amando pq graças aos mods não estão se limitando e te forçando a comprar um produto pra ter essa nova tecnologia. Apenas a alegria do pobre que vai sobreviver mais tempo sem precisar vender um rim pra comprar uma 4070 ti
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
Pra mim o problema não é passar a usar o AA do FSR/DLSS como peadrão, o problema é o padrã o ser FSR/DLSS em modo equilibrado pra 1080p, ou qualquer modo pra qualquer resolução, pq em vez de termos jogos mais bonitos rodando bem teremos jogos iguais ou mais feios rodando na mesma performance pq os devs cagaram pra otimização.
É uma tecnologia boa mas que se for obrigatoria vai atrasar mais doq ajudar
Concordo, usar o dlss ou fsr como solução pra antiserrilhado beleza, mas usar como requisito pra mim tá totalmente errado, imagina o requisito de um jogo seja pra rodar ele em 60fps colocar em Full HD e dlss modo equilibrado, vai ficar horrível.
Mas gente… isso é culpa de quem? Do DLSS ou do desenvolvedor que otimizou mal?
Aí nesse caso eu prefiro não jogar o jogo. Como foi com Immortals of Aveum, que tive vontade de jogar, mas depois de ver como estava rodando, deixei de lado e não comprei.
Temos que ponderar, não dá para o engenheiro da Nvidia/AMD, quando for desenvolver alguma tecnologia, ficar pensando se o desenvolvedor do jogo ou aplicação 3D vai ou não fazer o uso correto dessa tecnologia.
@@PCFacts É dos devs, mas infelizmente os estudios vao escolher economizar no tempo/dinheiro jogando parte da otimização pro DLSS/FSR.
Eu fiquei tão animado quando vi o DLSS pela primeira vez... torcer pra ser usado da maneria "correta"
@@PCFacts desde que comecei no mundo do PC gamer as DEVs não otimizam games para PC corretamente, isso nem é novidade, então contar com essas muletas é um oásis no deserto!
Obrigado por animar essa terça-feira meu conterrâneo. Cirúrgico, novamente. 🍷
Valeeeeu
A grande parada é que levando em conta a diferneça de valor nos EUA por exemplo, não é tão grande assim pra eles, mas já pra gente é muita coisa. mas realmente o fato da AMD liberar essa tecnologia tornando acessível à todos fez muita diferença
Acho muito legal alguém do meu estado ser grande no youtube e relevante na area de hardware. Égua mano
Grande nada. Ainda nem chegamos a 100 mil. Mas obrigado pela força.
Ainda não assisti o vídeo, mas acho que as pessoas odiaram o DLSS pelo simples fato de ser algo exclusivo das placas de vídeo top, e acho que ninguém quer comprar uma placa de vídeo top caríssima para jogar com frames falsos. Agora, o FSR é gratuito e de código aberto, e desde o início já tinha suporte até para placas concorrentes, e por ser de código aberto, já podiam criar mods para usar em qualquer placa. Eu to usando em uma GTX 750 TI, mas eu só to usando em jogos antigos que estão lacrados a 30fps.
Daqui a uns dias vou testar esse frame fake da NVidia, da AMD eu testei e era apenas um número no afterburner, com impressão de fluidez zero, pior até que não usar.
Graças ao FSR3, minha 3060ti se tornou um pouco menos obsoleta. Infelizmente continua sendo uma placa horrível pra quad hd nos lançamentos por conta da falta de VRAM.
Finalmente alguém lúcido que acha que os 8 gb são descentes.
Uma coisa é uma tecnologia em desenvolvimento grátis para salvar gpus que não tem mais desempenho ou melhorar o desempenho opcionalmente, outra é ter que pagar por elas sendo exclusiva e não 100% eficiente em uma nova geração.
ae cara seu canal é top, ja sigo a mt tempo, referencia! E o shape ai, jaja ta quebrando as placa no braço
Valeu 😊
Frame Generation vai ser igual foi DLSS 2.0 em seu começo. No inicio servia para ganho de desempenho e era só felicidade....com issso os devs viram que poderiam usar o DLSS para poderem cagar na otimização, e pronto, agora DLSS é usado como muleta e o público game aceita de boa. Agora é a vez do Frame Generation. Não é atoa que a indústria de games vem decaindo, onde até o mercado de vídeo a passou...e olha que isso não acontecia há um bom tempo. O hobby esta mudando, e isso tudo só esta acontecendo por causa dos próprios devs (acredito q ganância e falta de criatividade são os principais fatores) ...estão cavando a própria cova.
Comprei um notebook Lenovo Legion 5i 2022 i7 12700h RTX 3060 e achei a imagem sem muita nitidez, sem aquelas bordas definidas, traços bonitos, meeesmo na TV. Já o Acer Aspire 5 Ryzen 7 5700u com placa integrada tem a nitidez melhor, nitidez boa, nitidez NORMAL. O que pode ser? Ambos estão na resolução das telas, 1080p e tal.
@@the.ben.johnson Provavelmente é a qualidade da tela, amigo. A sua TV e Legion devem possuir uma tela inferior...tem q ver qual modelo é: OLed, VA, IPS, QLed, TN etc...e também a fabricante.
@@yuridaibert5340 nitidez do Acer é top na notebook e na TV, Lenovo é ruim no notebook e na TV.
O problema das empresas se escorarem em "soluções" como DLSS é usar isto como desculpa para trazer jogos com uma otimização cada vez mais fraca, e pior que isto é os jogadores aceitarem só pq tem um artifício que aumenta os FPS em detrimento da perda de qualidade de imagem. Enxergo essa e outras soluções como ferramentas para possibilitar hardware mais antigo a ter uma experiência um pouco melhor, e não existe contexto pra que isto seja requisito de um jogo com milhões em investimento.
Eu comprei a RX 7800 XT, to jogando em 1080p, so aguardando sairem mais opcoes de monitores OLED, para trocar o meu.
Eu não esqueci, achei uma porcaria de qualquer jeito, só funciona razoavelmente se já tiver próximo dos 60 frames, se eu já tiver 60 frames eu não preciso de geração de quadros falsos.
To usando aqui no Ratchat Clanck, Spider Man, Alan Wake 2, The Witcher 3, Cyberpunk e The Last of Us, meu monitor é 120hz e com uma 3070 estou conseguindo jogar tudo em 120 com Ray tracyng em 2K, gostei kkkkkkkkkkk
Minha experiência com o DLSS3.5 é incrível, não vejo artefatos mas vejo sim ghosting, principalmente no cyberpunk, nos carros e até no HUD, mas não chega a incomodar. A tecnologia é ótima. Vale muito a pena migrar pras 40 quem está na série 1000 ou 2000. Infelizmente está cheio de gente que não tem condições e quer pagar de malandro difamando a tecnologia. Agora o que a Nvidia faz impondo que você compre as 40 é outros 500, você pode concordar ou não, difamar a tecnologia por não poder ter é sacanagem.
Nunca chamei de "fake frames".
Eu disse a algum tempo que o hardware evoluiu.
Mas parece que o software não acompanhou.
Os "geradores de quadros" na verdade são só os drivers otimizados, pra usar a real capacidade do seu respectivo hardware.
Prova disso é que passamos os últimos anos reclamando que a maioria dos jogos AAA lançados recentemente não eram necessariamente pesados, mas sim mal otimizados.
Avatar ta crashando na minha 7600 e não consegui testar o fsr3
Vou falar pra você. Eu não gosto de usar DLSS ou FSR no Red Dead Redemptiom 2. Eu sinto a diferença e a imagem com TAA acho mais bem definida. E DLAA da menos performance que TAA então nos jogos que tem então é complicado...
Não é todo game que TAA é pior. O TAA é melhor quando o dev para pra fazer. A questão que entra é: quantas vezes você acha que o dev para pra fazer kkkk
Nem me fale, gosto da Nvidia, mas ela faz isso, ou não disponibiliza, ou tira depois de um tempo como fez com o Nvidia 3D Vision deixando quem comprou na mão.
Não sei como é o DLLS,mas jogando Hogwarts Legacy e usando o FSR o ghost é real e não fica legal....joguei na resolução padrão e fim dos problemas.
Sem I.A. por favor
Eu não percebo muito ghosting de monitor VA e do FG, mas input lag me irrita muito
Caraca o maluco secou, parabens pelo up 10 anos mais novo o maluco.
Uso o DLDSR com o DLSS, fica melhor que o 4k nativo e com o desempenho melhor.
Melhor não fica não, mas dependendo do tamanho da tela e distância fica imperceptível.
@@VictorFC Tô afirmando que fica melhor amigo, uso uma TV oled C1 de 55. Se pra vc não faz diferença, tá fazendo do modo errado.
@@VictorFCfica melhor sim amigo, confia, mesmo num monitor 1080p com dldsr a imagem vira um escândalo de bonita
Devido ao fsr3 estou jogando palworld ha 60 frames num ryzen 5600g. Pelo menos pra mim ta muito gostosin de jogar ( obviamente nao e em Full hd ultra, afinal ele nao faz milagre também)
Eu estou usando via mod losscalin
É "bom" por ser gratis, mas ainda são frames fakes que geram artefatos, rastros de imagem e etc, o caminho pra isso ser consistentemente bom de fato ainda é longo, esse auê todo é pelo deslumbre da descoberta, e isso já estar atrelado a presets dentro do jogo pra mim é gambiarra pra entregar fluidez em detrimento de um polimento maior do jogo, mas desde que dê pra desligar que se dane rs
O problema é que chegará a hora que isso será imposto. Talvez não nos PCs, mas consoles isso vai acontecer.
Minha experiência pessoal: Testei esse FG do FSR3 em 4 jogos, Avatar e Forspoken que são nativos, e FH5 e Cyberpunk via mod e achei a fluidez horrível. Você sai de 60fps para 100fps, mas com "sensação de 50fps".
Artefatos e ghosting acontece o tempo todo, principalmente nos carros em movimento.
Enquanto isso vejo muito fanboys endeusando o FSR3 e alguns produtores de conteúdo menores mentindo que fica perfeito.
Eu n esqueci n , a precisão dos comandos fica uma bost@
É igual habilitar o motion da TV pra jogar
Bom dia, deixa te pergunta quando ativo a aceleração de hardware no navegador faz meu PC congela já procurei em todo lugar não achei nada sobre isso.
Acho que com o fsr 3 sendo open source e com o apoio da comunidade de modders ele pode vir a ser melhor do que o dlss 3 até mesmo em rtx 20 e 30 um dia
Sem dúvidas! Acho que a melhor saída pra Nvidia, seria deixar também o DLSS em open source
Não concordo com essa de fazer FSR e DLSS virar requisito. Se o PC está comprido com o Hardware necessário então o jogo já deveria rodar bem, FSR e DLSS era pra ser um recurso a + pra quem tem PC abaixo dos requisitos ou quem que mais frames, apenas isso, não é pra virar uma muleta como estão usando agora.
Minha dúvida é se a NVIDIA não usava isso em testes antigos pra ganhar em desempenho, porque não é possível uma rx580 rodando jogos que a 1050ti que na época dava um banho mal consegue rodar.
Rx 580 envelheceu bem, igual a um vinho. Já a GTX 1050ti envelheceu mau.
Só sei de uma coisa, FSR ainda está bugado e só entrega FPS sem qualidade nenhuma e as vezes até erros nos gráficos! Temos como exemplo Alan Wake 2 na própria jaqueta da investigadora a escrita toda borrada das siglas FBI quando ativamos o FSR. Já o DLSS temos qualidade mesclada com FPS e agora a Nvidia lançou o DLSS 3.7 que está realmente fazendo a diferença nos games deixando uma ótima qualidade e FPS!
ainda n vi o vídeo, mas imagino que a razão seja: a implementação não depende de hardware especifico (gastar dinheiro) e tem bons resultados. Eu digo sem vergonha, duvidei que a AMD entregaria isso, e estou feliz em ter errado kkkkk
nVidia cobra caro pra por o RTX nas placas, tem um hardware dedicado a isso, e todos já sabemos que as tecnologias que ela desenvolve é para o mercado de IA, os consumidores foram os financiadores. Financiamos com as caríssimas RTX20, 30 e agora 40. Pagamos o pato, e fomos "abandonados" de certa forma com os ganhos geracionais pífios.
Com o Lukefz no Cyberpunk 2077, saí de 25 fps ultra com a 1060 6GB e fui para 60fps apenas com ghosting que já existia da implementação FSR2 do jogo. A fluidez melhorou, e a responsividade também está adequada.
Pra mim a única vantagem do DLSS/FSR é poder deixar todas as configurações no alto ou ultra e ajustar a qualidade do jogo através deles.
e se tiver uma parceria e juntar as duas formas em um super DLSS FSR ?
Pessoal, to em duvida entre RYX 4060 ou RX7600. Qual me indicam? Estão no mesmo valor no setup. Ambas da Gigabyte.
Na minha opinião a Nvidia só tem 1 vantagem, APENAS 1, é q ela pode usar tanto Dlss 3 quanto Fsr 3, afinal a Amd permite, então usando a Nvidia vc ganha mais abrangência no uso dessas tecnologias, isso é importante quando vc lembra q nem todo jogo tem tanto o Dlss quanto Fsr, mas em todo resto a Amd ganha, talvez n no Ray Trancing, mas sendo bem sincero isso é algo q a maioria das pessoas nem usa, pois é tão pesado q acaba com seu fps, ah n ser q vc tenha uma 4090
30fps só para jogos que não precisam de precisão como é o caso dos FPS, ou jogos off-line.
Parou de comer AÇAÍ lá no Ver-o-Peso, parceiro? Tá esbelto 👏👏👏
Ehehehheheeheh