le pire avec cette histoire de DLSS c'est que , le consommateur moyen est a la ramasse et nvidia ne fait aucun effort. mais vraiment, les "gamer" font tellement pitié tellement il sont déconnecté du monde hardware, alors que c'est grace a ça qu'il joue...
Parfois le problème pour les boites dans la tech c'est de penser que le grand public y comprenne quoi que ce soit ou suive ce qu'il se passe tout le temps.. pour ce type de sujet c'est pas le cas =/
@@VC-Gaming en même temps on parle de nvidia c'est tout de suite logique , il en on rien a faire , tant qu'il passe pour les meilleurs et qu'il fassent toujours plus d'argent... j'ai une 4090 et je me sent comme un traitre a la nation xD
Bjr, merci beaucoup pour ces précisions sur le DLSS, c bien plus clair pour moi maintenant.. AMD est quand même bien gentil de faire profiter de son FSR à tous quand NVIDIA ne pense même pas à ses acheteurs de rtx3000... Le RayTracing apporte t-il vraiment pour les ressources qu'il demande??Bientôt des Voodoo RT et Voodoo AI ? (Lol, j'espère pas !) Bonne continuation
@@madmaskcena mouais... Et pourtant AMD propose une solution pour tout le monde. Après chacun prêche pour sa paroisse AMD met en avant son côté ouvert et Nvidia met avant son côté on a la meilleure techno mais il faut une nouvelle carte pour en profiter.
Faut pas rever c'est totalement voulu cette confusion de la part de NVidia. J'ai déjà lu des personnes qui pensaient que le DLSS3 arrivait bientot sur toutes les RTX alors que non c'est le DLSS3.5... Ben oui c'est logique qui peut le plus peut le moins, non ? Ben non pas chez NVidia.
Fake news! Tout le monde sait que les Denoisers ont disparus il y a des millions d'années, et on n'est pas près de les recréer comme dans Jurassic Park.
Faudra peut-être faire une vidéo en complément sur le Ray Reconstruction, parceque je suis pas trop sûr de son fonctionnement😅 En tout cas, superbe vidéo David, comme d'habitude✌️
Oui j'ai tout compris, c'est des dinosaures qui envoient des rayons lasers, en fait c'est Jurassic Park croisé avec le MCU. Sinon je suis préssé de voir la comparaison entre le DLSS 3.5 et le FSR 3
@@angrypapibeuns Je ne vois pas ce qui empêcherait de les jauger ? Pour moi il est évident de tester les dernières technos sorties et de les mettres face à face. D'ailleurs les youtubeurs anglophones ne se sont pas fait prier pour le faire.
Yep, sur blender, NVIDIA avait fait "optix" pour le denoise, il y a en a un aussi de Intel (oid) qui marche aussi bien, plus d'autres fait par des dev indépendant, bien plus en avance et performant. Il y a rien de nouveau :) si non dans l'ensemble, c'est cools que ça continue à évoluer. Des bisous 😊
Pourquoi dlss 3.5 ? Je pense que l'appellation dlss est assez vendeur auprès d'une partie de la clientèle. On va croiser les doigts côté fsr 3 . Merci pour les explications 👌
Oui le nom DLSS est plutôt connus donc c'est plus une appellation marketing qu'autre chose, mais dans le cas ici c'est vraiment pas adapté je trouve =/
Très bonne présentation. Les technos IA pour améliorer l’expérience visuelle tout en étant fidèle au rendu imaginé par l’artiste OK. Mais malheureusement je crains que nVidia pousse le bouchon trop loin et trop vite et que toutes ces technos rendent les développeurs fenians, qu’ils ne réfléchissent plus au rendu des éclairages et qu’une techno comme RTx Vibrance dénature complètement le jeu. L’IA c’est tout de même un peu craignos quand ça remplace tout et surtout le côté artistique. La rasterisation doit absolument rester une option et ne pas disparaître. D’autant plus que tout ceci est propriétaire…. À méditer… ou non.
Slt excelent boulot javoue je perd un peu meme si je connais un peu en hardware mais ses pour quand une carte dédier pour ray tracing serais genial d'allegée nos carte video un peu a la physX avec une 2 ieme carte Nvidia mon dernier test etais sur une 1660ti avec le physX activer seulement sur la 1060 en duo la seul perception fps plus stable mais pas tout les jeux utulise physX ca pourrais etre cool comme test a faire voir si vraiment sa fonctionne toujour moi ca fais deja 4 ou 5 ans javais fait ca et maitenant suis sur smd 6700 xt je peu pas combiner les 2 sinon je ferais encore surement dire ca ses deja fait combiner les 2 entre 2010 et 2012 si je trompe pas avant que nvidia block tout avec ses drivers amd et nvidia pouvais coexisté amd 4870 et gtx 9800 et juste pour physX avec un Phenom II X4 940
Merci pour cette vidéo ! et de nous rappeler que le dlss 3.5 marche sur toutes les RTX ! Et pour ces mods ou remix de Bloodlines, je prie pour aussi !!!
Merci pour cette vidéo qui nous éclaire bien comme d'hab. Pour ton commentaire sur Fortnite et Call Of, ça paraît effectivement évident à des connaisseurs comme toi ou la majorité de tes abonnés, mais faut voir le nombre de noob qui pensent que "pour bien jouer à Fortnite il faut au moins 120fps" et qui n'ont aucune notion de ce que sont la latence, l'input lag,...
Merci pour cette vidéo ! un gros Gg pour toute ces explications ! Perso HL² me hype... sans doute parce que je suis un vieux. A l'époque de la sortie de HL² j'avais même, avant sa sortie refait exprès une config booster aux PCIE ( Asus P5AD2 premium (première carte PCIE) + intel 560 + 2x512Mo DDR2 + ATI X800XT en tout env 3000€ ) pour découvrir qu'a l'instar de Doom 3 (qui ne pouvait tourner a fond correctement sur AUCUNE machine existante a sa sortie), même un PC très moyen faisait tourner le jeu sans problème tellement il était opti proprement 😅 malgré la révolution du moteur physique implanter aujourd'hui dans pratiquement tout les jeux.
Bravo pour cette vidéo, tu es le seul qui explique enfin la confusion du DLSS, et le marketing honteux de l'appellation de cette techno !!! Oui, je vois des streameurs chercher le DLSS 3.5 sur le jeu Cyberpunk (entre autres), et quand je leur indique la confusion, c'est des "Ah ouais, t'es sûr, mais non ou tu racontes n'importe quoi !!!...😄", je les dirige alors vers ta vidéo 😉 ! Encore un grand merci à toi 🥰
Très bonne vulgarisation comme d'hab 👌 A la sortie du raytracing j'étais pas hyper enthousiaste mais je dois bien reconnaître que j'ai hâte de refaire cyberpunk a la sortie du dlc, avec le raytracing et ce fameux dlss 3.5 (en full rt j'ai des bug d'affichage dans certains endroit style les portes de garage, ça fait la même chose que dans the witcher sur le toit en paille que t'as montré dans cette vidéo, a voir ce que ça donnera avec le dlss 3.5). Ça fait plaisir de voir nvidia progresser et faire avancer la machine dans le rendu RT, par contre effectivement les différentes appellations du dlss, qui devient un fourre tout de technos, prêtent bien à confusion... Merci pour la vidéo 🙂
Je comprend les personnes qui ne veulent pas s'intéresser à la tech info, il y a tellement de truc :) Pour cela que beaucoup de personnes achètent n'importe quoi ou pas compatible ou pas optimisé ... C'est toujours l'embrouille marketing !
A leur décharge, la base de toutes les technos est la même : l'échantillonnage par Deep Learning. D'où le DLSS (Deep Learning Super Sampling). Le problème c'est que la même méthode n'est pas utilisée pour fournir les mêmes résultats. Et pour certains cas, Nvidia s'appuie sur des techno supplémentaires. C'est vrai que ça prête à confusion. Merci pour cette vidéo de clarification.
Pouvez vous arrêter vous les UA-camr de véhiculer des fausse info s’il vous plaît. Nvidia n’a jamais dis que le DLSS3 c’était le FG. Vous avez tous interpréter ça de cette manière et mtn tlm le dit et font les « choqués » si vous lisiez un minimum le patch note vous verrez que le DLSS3 et bien la 3 eme génération du DLSS qui est compatible avec le FG mais en aucun cas elle concerne uniquement le FG. Vos carte 2000/3000 tourne avec les amélioration et les correctif du dlss3. La confusion c’est vous les créateur de contenu qui l’avaient créé francophone ou anglophone.
Le seul qui semble être dans la confusion.. c'est toi. Tu penses vraiment que si il n'y avait pas eu le FG.. et donc juste une évolution du DLSS 2 on serait passé au DLSS 3 ? 🤣. Merci bien c'est Nvidia lui même dans ses présentations qui a bien indiqué que le DLSS 3 c'était la cumulation du SR/FG/Reflex, il n'y a pas d'évolution majeure du SR / DLSS2 avec le DLSS3.. Contrairement à toi j'ai assisté aux présentations tech d'Nvidia sur ces sujets au lancement je connais le sujet merci 😒
Mais bien sur la confusion n'est pas du tout entretenu par NVidia... C'est pas comme si Nvidia avait marketé le DLSS3 = FG = compatible uniquement avec la gen 40, donc allez acheter ses nouvelles cartes. Et là on revient en arrière avec le DLSS3.5 qu'ils annoncent TRES CLAIREMENT comme étant compatible avec toutes les cartes RTX. Donc non c'est pas la faute des créateurs de contenu et des journalistes mais de NVidia.
de la théorie a la pratique d ici quelques mois la mis en place de ses avancées sera plus représentatif , il est vrai que a cette instant c est principalement de la com attendons de voir si les devs parviennent a un résultat satisfaisant et si les résultats sont proche de l imaginaire comme dab , doc de vulgarisation très bien travailler , merci David
Les joueurs n'imaginent pas la quantité de calculs que font leurs cartes. Sauf que passer d'une étape à une autre amplifie les calculs de beaucoup (ex basique : la résolution c'est au carré. 2 fois plus en finesse, c'est 4 fois plus de pixels donc de calculs). Ces cartes vidéo sont des monstres et on constate que la perfo brute plafonne sauf a "augmenter" la taille des processeurs graphiques et donc le prix. Les mecs qui font du jeu veulent du beau et tirent sur les cartes dès qu'une meilleure sort pour vendre du rêve. En gros , ne rêvez pas , la carte qui épate les copains va couter une blinde (et à vos copains après). Arrêtez de croire que vous avez les moyens, ne mettez pas les paramètres du jeu à fond. Si les éditeurs de jeux veulent vous imposer du matos hors de prix à terme , renseignez vous avant d'acheter le jeu. Ne l'achetez pas si ils n'ont pas un mode dégradé satisfaisant, ils feront en sorte de pas vous punir. Un jeu , c'est pas que sa "gueule". Une carte à 500-700 balles (+le PC qui suit) , c'est pas une bouse , ca doit tenir pas loin de 10 ans simplement car on ne double plus les perfos tous les 3 ans depuis bien longtemps à prix constant. C'est terminé les gros progrès matériels à prix constant, les gars qui s'y connaissent vous le disent (pas moi). Papa n'est pas la pour vous donner un jouet à 3000-4000 E tous les 5 ans car vous pleurez. Mon pote a sorti 2000 E pour le PC top y'a 5-6 ans pour son drôle. Son "con" de fils de 22 ans chaume , reste dans sa chambre et veut juste un PC à 4000 E (j'imagine la 4090) maintenant. Le vieux lui dit "Jamais ! Passe le permis , je te paie une bagnole.". Après, si vous bossez , vous êtes pas tous pétés de tunes.
Merci vcg je fait parti de ce qui ce sont fait avoir merci nvidia ^^ mais du coup si ont peut activer au moins le r.r que ont ont ce fou de garder une image actuel passable ont va pouvoir baisser le rtx d'un cran et gagner quelques FPS sans devoir le couper pour les vielles carte 🤔
@@jdekdskzksis6909 La différence se fait sur upscaling classique du DLSS, la version 3.5 est meilleure que la 3.1.1 en qualité visuelle même sans le RR.
Coucou . Partage tu la pensée que grâce à tout les upscaler , au futur dans 20-30 ans les baisses de fps n'existeront plus ? Tout les jeux seront fluides .. J'ai ce petit espoir et je demandais ton avis. Merci
Le fait de vouloir vendre des gen 40 ? On verra bien quand le FSR3 sortira si c'est un bridage purement marketing ou bien technique...Honnetement je pense qu'il s'agit des deux. NVidia pourrait l'activer sur la gen 30 et 20 mais il ne serait pas aussi performant que sur les gen 40.
Selon Nvidia les unités OFA des RTX 4000 sont beaucoup plus rapide et efficace que sur les RTX 3000 ou 2000, et comme ce sont elles qui effectuent les calculs pour le FG c'est ce qui coincerait. Est ce que ca serait moins rapide ou performant sur les 3000 et 2000 ou une image de moins bonne qualité ou juste une excuse pratique, personne ne sait. Jusqu'ici personne n 'a put démontrer que le FG made in Nvidia fonctionnerait sans encombres sur les anciennes générations donc jusqu'à ce qu'on ait preuve du contraire on ne peut que se reposer sur le discours officiel.
Salut David, je m’attendais à ce que tu parles de Denver. Pourtant Denver c’est le dernier denoizer… 😂
😂😂😂
le pire avec cette histoire de DLSS c'est que , le consommateur moyen est a la ramasse et nvidia ne fait aucun effort.
mais vraiment, les "gamer" font tellement pitié tellement il sont déconnecté du monde hardware, alors que c'est grace a ça qu'il joue...
Parfois le problème pour les boites dans la tech c'est de penser que le grand public y comprenne quoi que ce soit ou suive ce qu'il se passe tout le temps.. pour ce type de sujet c'est pas le cas =/
@@VC-Gaming en même temps on parle de nvidia c'est tout de suite logique , il en on rien a faire , tant qu'il passe pour les meilleurs et qu'il fassent toujours plus d'argent...
j'ai une 4090 et je me sent comme un traitre a la nation xD
Bjr, merci beaucoup pour ces précisions sur le DLSS, c bien plus clair pour moi maintenant.. AMD est quand même bien gentil de faire profiter de son FSR à tous quand NVIDIA ne pense même pas à ses acheteurs de rtx3000...
Le RayTracing apporte t-il vraiment pour les ressources qu'il demande??Bientôt des Voodoo RT et Voodoo AI ? (Lol, j'espère pas !)
Bonne continuation
Nvidia a des standards qui n’était pas dispo sur els 3000 rien à voir avec le fait de vouloir négliger
@@madmaskcena mouais... Et pourtant AMD propose une solution pour tout le monde. Après chacun prêche pour sa paroisse AMD met en avant son côté ouvert et Nvidia met avant son côté on a la meilleure techno mais il faut une nouvelle carte pour en profiter.
Faut pas rever c'est totalement voulu cette confusion de la part de NVidia. J'ai déjà lu des personnes qui pensaient que le DLSS3 arrivait bientot sur toutes les RTX alors que non c'est le DLSS3.5... Ben oui c'est logique qui peut le plus peut le moins, non ? Ben non pas chez NVidia.
Fake news! Tout le monde sait que les Denoisers ont disparus il y a des millions d'années, et on n'est pas près de les recréer comme dans Jurassic Park.
😂😂😂
Merci l'ami : C'est NVIDIA cherchez pas à comprendre (eux s'y retrouvent)
Vive les dinosaures😂
Allez AMD, lance l'équivalent fonctionnant sur toutes les cartes et c'est bon 😁
Très précis comme d'habitude
👌
Faudra peut-être faire une vidéo en complément sur le Ray Reconstruction, parceque je suis pas trop sûr de son fonctionnement😅
En tout cas, superbe vidéo David, comme d'habitude✌️
Vidéo très claire. Merci beaucoup !
Oui j'ai tout compris, c'est des dinosaures qui envoient des rayons lasers, en fait c'est Jurassic Park croisé avec le MCU.
Sinon je suis préssé de voir la comparaison entre le DLSS 3.5 et le FSR 3
Sauf qu'il faut comparer le DLSS3 avec le FSR3 plutot ;)
@@angrypapibeuns Je ne vois pas ce qui empêcherait de les jauger ? Pour moi il est évident de tester les dernières technos sorties et de les mettres face à face. D'ailleurs les youtubeurs anglophones ne se sont pas fait prier pour le faire.
😂😂😂
Yep, sur blender, NVIDIA avait fait "optix" pour le denoise, il y a en a un aussi de Intel (oid) qui marche aussi bien, plus d'autres fait par des dev indépendant, bien plus en avance et performant. Il y a rien de nouveau :) si non dans l'ensemble, c'est cools que ça continue à évoluer. Des bisous 😊
Merci pour les précisions.
Pourquoi dlss 3.5 ? Je pense que l'appellation dlss est assez vendeur auprès d'une partie de la clientèle. On va croiser les doigts côté fsr 3 . Merci pour les explications 👌
Oui le nom DLSS est plutôt connus donc c'est plus une appellation marketing qu'autre chose, mais dans le cas ici c'est vraiment pas adapté je trouve =/
video parfaite avant de partir au taf ☕☕☕☕☕☕
Très bonne présentation. Les technos IA pour améliorer l’expérience visuelle tout en étant fidèle au rendu imaginé par l’artiste OK. Mais malheureusement je crains que nVidia pousse le bouchon trop loin et trop vite et que toutes ces technos rendent les développeurs fenians, qu’ils ne réfléchissent plus au rendu des éclairages et qu’une techno comme RTx Vibrance dénature complètement le jeu. L’IA c’est tout de même un peu craignos quand ça remplace tout et surtout le côté artistique. La rasterisation doit absolument rester une option et ne pas disparaître. D’autant plus que tout ceci est propriétaire…. À méditer… ou non.
Comment ça plus qu'un seul dinosaure ? 😅
Slt excelent boulot javoue je perd un peu meme si je connais un peu en hardware mais ses pour quand une carte dédier pour ray tracing serais genial d'allegée nos carte video un peu a la physX avec une 2 ieme carte Nvidia mon dernier test etais sur une 1660ti avec le physX activer seulement sur la 1060 en duo la seul perception fps plus stable mais pas tout les jeux utulise physX ca pourrais etre cool comme test a faire voir si vraiment sa fonctionne toujour moi ca fais deja 4 ou 5 ans javais fait ca et maitenant suis sur smd 6700 xt je peu pas combiner les 2 sinon je ferais encore surement dire ca ses deja fait combiner les 2 entre 2010 et 2012 si je trompe pas avant que nvidia block tout avec ses drivers amd et nvidia pouvais coexisté amd 4870 et gtx 9800 et juste pour physX avec un Phenom II X4 940
Merci pour cette vidéo ! et de nous rappeler que le dlss 3.5 marche sur toutes les RTX ! Et pour ces mods ou remix de Bloodlines, je prie pour aussi !!!
Merci pour l éclairage bon boulot
Ou l éclaircissements des réflexions de lumières 😂
Le même nom pour des choses différentes.
Ca change de la politique, la même chose pour des noms différents.
Enfin une explication claire nette et précise de tout ce bousin ! 😉
C'est quoi la barre/écran qui tourne en fond et son fichier ? j'étais hypnotisé par ca durant ta vidéo.
Excellente vidéo, explications très claires. Merci beaucoup !
merci pour l'explication, effectivement ca prete a confusion ....
Si le dlss 3.5 peu me permettre d'étirer un peu la durée de vie de ma 4090, c'est génial.
Ah ah, j'ai mis 5mn à piger que tu disais denoiser et pas dinosaure. J'aurais du lire la description
Ils avaient pas disparu il y a un paquet d'années, les denoiser ?
(pardon...)
Merci pour cette vidéo qui nous éclaire bien comme d'hab. Pour ton commentaire sur Fortnite et Call Of, ça paraît effectivement évident à des connaisseurs comme toi ou la majorité de tes abonnés, mais faut voir le nombre de noob qui pensent que "pour bien jouer à Fortnite il faut au moins 120fps" et qui n'ont aucune notion de ce que sont la latence, l'input lag,...
Pour ca qu'il faut le rappeler :)
😁
quand on ecoute d'une oreille on entend "dinosaure" au lieu de "denoiser" est c est plus rigolo :)
une nouvelle tech pas mal pour peu qu on puisse utiliser unrtx potable qui nique pas trop les perf
Super job, et super bronzage ;) merci
"C'est denoiser pas dinosaure !" J'ai eu peur, je pensais qu'il y allait avoir des dinosaures dans tous les jeux ! 🤣
😂😂😂
Explication et vidéo top👍👍
Heureusement que tu es là pour révéler l'enfumage marketing de Nvidia xD
Pense pas que ce soit de l'enfumage.. juste qu'Nvidia à l'impression que le grand public suit ca de très pret quand c'est pas le cas =/
Salut j’ai une question j’ai un pote qui veux utiliser amd Link play avec sa rtx 3060 laptop mais il peut pas comment faire ?
Pas sur que ce soit possible vu que ca passe par les drivers AMD
thanks VCG
Merci pour cette vidéo ! un gros Gg pour toute ces explications !
Perso HL² me hype... sans doute parce que je suis un vieux. A l'époque de la sortie de HL² j'avais même, avant sa sortie refait exprès une config booster aux PCIE ( Asus P5AD2 premium (première carte PCIE) + intel 560 + 2x512Mo DDR2 + ATI X800XT en tout env 3000€ ) pour découvrir qu'a l'instar de Doom 3 (qui ne pouvait tourner a fond correctement sur AUCUNE machine existante a sa sortie), même un PC très moyen faisait tourner le jeu sans problème tellement il était opti proprement 😅 malgré la révolution du moteur physique implanter aujourd'hui dans pratiquement tout les jeux.
👍
Good job ! 😉 👍
Bravo pour cette vidéo, tu es le seul qui explique enfin la confusion du DLSS, et le marketing honteux de l'appellation de cette techno !!! Oui, je vois des streameurs chercher le DLSS 3.5 sur le jeu Cyberpunk (entre autres), et quand je leur indique la confusion, c'est des "Ah ouais, t'es sûr, mais non ou tu racontes n'importe quoi !!!...😄", je les dirige alors vers ta vidéo 😉 ! Encore un grand merci à toi 🥰
Ah merci pour l'explication des dinosaures de RT, je comprends mieux mes textures qui clignotent sur CP77 avec RT + DLSS !
j'ai pas osé la faire bordel!!!! mais comment çà m'a démangé!!!!!!!!!!!!
Très bonne vulgarisation comme d'hab 👌
A la sortie du raytracing j'étais pas hyper enthousiaste mais je dois bien reconnaître que j'ai hâte de refaire cyberpunk a la sortie du dlc, avec le raytracing et ce fameux dlss 3.5 (en full rt j'ai des bug d'affichage dans certains endroit style les portes de garage, ça fait la même chose que dans the witcher sur le toit en paille que t'as montré dans cette vidéo, a voir ce que ça donnera avec le dlss 3.5).
Ça fait plaisir de voir nvidia progresser et faire avancer la machine dans le rendu RT, par contre effectivement les différentes appellations du dlss, qui devient un fourre tout de technos, prêtent bien à confusion...
Merci pour la vidéo 🙂
Je comprend les personnes qui ne veulent pas s'intéresser à la tech info, il y a tellement de truc :)
Pour cela que beaucoup de personnes achètent n'importe quoi ou pas compatible ou pas optimisé ...
C'est toujours l'embrouille marketing !
très bon sujet merci
Super nickel ! Merci
denver le dernier denoiser
Merci Bcp!
Merci pour toutes ces infos VCD. Petite mention pour le fond musical qui, rappel une certaine nostalgie. 😉
A leur décharge, la base de toutes les technos est la même : l'échantillonnage par Deep Learning. D'où le DLSS (Deep Learning Super Sampling). Le problème c'est que la même méthode n'est pas utilisée pour fournir les mêmes résultats. Et pour certains cas, Nvidia s'appuie sur des techno supplémentaires. C'est vrai que ça prête à confusion. Merci pour cette vidéo de clarification.
Bien sur tout est à base de ML mais à ce moment la ils auraient juste put appeler ca DLFG ou DLRR ca aurait évité la confusion :(
Sympa la petite musique de StarCraft en fond :)
Pouvez vous arrêter vous les UA-camr de véhiculer des fausse info s’il vous plaît. Nvidia n’a jamais dis que le DLSS3 c’était le FG. Vous avez tous interpréter ça de cette manière et mtn tlm le dit et font les « choqués » si vous lisiez un minimum le patch note vous verrez que le DLSS3 et bien la 3 eme génération du DLSS qui est compatible avec le FG mais en aucun cas elle concerne uniquement le
FG. Vos carte 2000/3000 tourne avec les amélioration et les correctif du dlss3. La confusion c’est vous les créateur de contenu qui l’avaient créé francophone ou anglophone.
Le seul qui semble être dans la confusion.. c'est toi. Tu penses vraiment que si il n'y avait pas eu le FG.. et donc juste une évolution du DLSS 2 on serait passé au DLSS 3 ? 🤣. Merci bien c'est Nvidia lui même dans ses présentations qui a bien indiqué que le DLSS 3 c'était la cumulation du SR/FG/Reflex, il n'y a pas d'évolution majeure du SR / DLSS2 avec le DLSS3.. Contrairement à toi j'ai assisté aux présentations tech d'Nvidia sur ces sujets au lancement je connais le sujet merci 😒
Mais bien sur la confusion n'est pas du tout entretenu par NVidia... C'est pas comme si Nvidia avait marketé le DLSS3 = FG = compatible uniquement avec la gen 40, donc allez acheter ses nouvelles cartes. Et là on revient en arrière avec le DLSS3.5 qu'ils annoncent TRES CLAIREMENT comme étant compatible avec toutes les cartes RTX. Donc non c'est pas la faute des créateurs de contenu et des journalistes mais de NVidia.
@@angrypapibeuns bah Nn justement clairement pas. Suffisez de lire les patch note c’est les UA-camr qui ont associé ça au FG
@@madmaskcena Branche ton cerveau la prochaine fois... : www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/
çà a l'air mal barré quand même là@@VC-Gaming
de la théorie a la pratique d ici quelques mois la mis en place de ses avancées sera plus représentatif , il est vrai que a cette instant c est principalement de la com attendons de voir si les devs parviennent a un résultat satisfaisant et si les résultats sont proche de l imaginaire comme dab , doc de vulgarisation très bien travailler , merci David
Exellente vidéo, tres didactique.
Ce bronzage 😍😍😍😍😍
🤣j'ai au moins passé une teinte de blanc plus sombre
Les joueurs n'imaginent pas la quantité de calculs que font leurs cartes.
Sauf que passer d'une étape à une autre amplifie les calculs de beaucoup (ex basique : la résolution c'est au carré. 2 fois plus en finesse, c'est 4 fois plus de pixels donc de calculs).
Ces cartes vidéo sont des monstres et on constate que la perfo brute plafonne sauf a "augmenter" la taille des processeurs graphiques et donc le prix.
Les mecs qui font du jeu veulent du beau et tirent sur les cartes dès qu'une meilleure sort pour vendre du rêve. En gros , ne rêvez pas , la carte qui épate les copains va couter une blinde (et à vos copains après).
Arrêtez de croire que vous avez les moyens, ne mettez pas les paramètres du jeu à fond.
Si les éditeurs de jeux veulent vous imposer du matos hors de prix à terme , renseignez vous avant d'acheter le jeu. Ne l'achetez pas si ils n'ont pas un mode dégradé satisfaisant, ils feront en sorte de pas vous punir. Un jeu , c'est pas que sa "gueule".
Une carte à 500-700 balles (+le PC qui suit) , c'est pas une bouse , ca doit tenir pas loin de 10 ans simplement car on ne double plus les perfos tous les 3 ans depuis bien longtemps à prix constant.
C'est terminé les gros progrès matériels à prix constant, les gars qui s'y connaissent vous le disent (pas moi).
Papa n'est pas la pour vous donner un jouet à 3000-4000 E tous les 5 ans car vous pleurez.
Mon pote a sorti 2000 E pour le PC top y'a 5-6 ans pour son drôle. Son "con" de fils de 22 ans chaume , reste dans sa chambre et veut juste un PC à 4000 E (j'imagine la 4090) maintenant.
Le vieux lui dit "Jamais ! Passe le permis , je te paie une bagnole.".
Après, si vous bossez , vous êtes pas tous pétés de tunes.
Voilà qui met les choses au clair. Merci.
Bonne review des fonctions RTX ! 👍
Toujours des renseignements de valeur. Merci...
Top merci pour ces explications !
Merci vcg je fait parti de ce qui ce sont fait avoir merci nvidia ^^ mais du coup si ont peut activer au moins le r.r que ont ont ce fou de garder une image actuel passable ont va pouvoir baisser le rtx d'un cran et gagner quelques FPS sans devoir le couper pour les vielles carte 🤔
Ca reste un bonus pour la qualité d'image donc oui dans ton exemple ca peut peut être aider on verra bien :)
VCG : les denoisers
Mes oreilles : les dinosaures
@@nicolassantop2536 t'inquiète j'ai mon C1 d'anglais en poche, je trouvais juste la prononciation sympa ^^
Toujours aussi quali' on donne de la force !
Merci de ton travail !
elle tombe a pic celle là! gg!
Pour fortnite cest une bonne choses surtout pour moi qui joue quand meme avec les graphisme et lumen on car le jeux est beau et je suis pas joueur pro
Tout dépends des objectifs :) perso sur ce type de jeux je préfère mettre toutes les chances de mon coté même si je ne suis pas un pro
@@VC-Gaming ouais je comprends mais jai du mal avec les graphisme pixelisé du mode comp/perf
Ah donc si on remplace le dll ca applique le RR aux jeux directement ?
Non
@@zet7914 donc pourquoi sur l'exemple de the witcher on voit la difference
@@jdekdskzksis6909 La différence se fait sur upscaling classique du DLSS, la version 3.5 est meilleure que la 3.1.1 en qualité visuelle même sans le RR.
Coucou .
Partage tu la pensée que grâce à tout les upscaler , au futur dans 20-30 ans les baisses de fps n'existeront plus ?
Tout les jeux seront fluides ..
J'ai ce petit espoir et je demandais ton avis.
Merci
Qu'est-ce qui empêche une 3090 de faire du Frame Generation?
Le fait de vouloir vendre des gen 40 ? On verra bien quand le FSR3 sortira si c'est un bridage purement marketing ou bien technique...Honnetement je pense qu'il s'agit des deux. NVidia pourrait l'activer sur la gen 30 et 20 mais il ne serait pas aussi performant que sur les gen 40.
Selon Nvidia les unités OFA des RTX 4000 sont beaucoup plus rapide et efficace que sur les RTX 3000 ou 2000, et comme ce sont elles qui effectuent les calculs pour le FG c'est ce qui coincerait. Est ce que ca serait moins rapide ou performant sur les 3000 et 2000 ou une image de moins bonne qualité ou juste une excuse pratique, personne ne sait. Jusqu'ici personne n 'a put démontrer que le FG made in Nvidia fonctionnerait sans encombres sur les anciennes générations donc jusqu'à ce qu'on ait preuve du contraire on ne peut que se reposer sur le discours officiel.