Salut BBG merci pour ta vidéo ! Concernant nos futurs jeux j'ai hâte de voir les "vraies" différences et pas des tests sur un jeu de 2020 qui est sorti sur Xbox one/PS4
Salut le geek. Très belle video. Le prix des 5000 a l'air bien mais j'ai des gros doute qu'on aura de si bonnes surprises chez nous. J'ai bien oeur que ca face comme les prix des x3d. ( En plut ca ce vend comme des p'tits pain amd et les fournisseurs auraient tort de se priver) Enfin restons positifs et regardons le verre a moitié plein en attendant les sorties. Bibi a tous.
Je ne suis pas vraiment du même avis sur l'IA. Pour le moment c'est une grosse bulle spéculative façon licorne, on le voit d'ailleurs à la capitalisation de nVidia qui est beaucoup trop grande par rapport au réel (ce qui est le cas de tous les mastodontes de l'IT mais là on frise le ridicule, surtout sur son augmentation). Je dis bulle spéculative car c'est de l'investissement avec de l'argent magique qui tombe facile sur n'importe quel projet qui met IA dans son powerpoint, mais personne ne s'est vraiment penché sur le rapport coût de développement/production VS prix de vente client. Car tout ça c'est beau mais en fonction du prix client. Et là ça bloque déjà, copilote, l'IA dans les produits Adobe, etc. la facture devient vite non seulement très salé mais elle ne va pas se stabiliser car l'IA a constamment besoin de plus de puissance, énergie, etc. c'est un cercle vicieux que les clients ne voudront pas éponger en terme d'achat/abonnement et je parle même pas de la planète. Et dans le monde familiale tout le monde rigole à utiliser Alexa pour lui demander la météo ou d'allumer la lumière mais quand on demandera au gens un abo de 20 balles par mois pour ça, il y a 90% de chance que la plupart laisse tomber.
On dirait les discours des gens dans les années 90 quand Internet 1.0 est arrivé. Ils en mettent partout, faut pas parler que de ChatGPT avec ceux qui demande de corriger un texte ou qui demande si la terre est plate… l’ia est partout et va être partout omniprésent dans absolument tout les objets du quotidien. Frigo, lave vaisselle, télé, voiture, feu rouge même dans la douche ! Rien ne va être épargné
@@argon8647 Bonjour. Je sais pas si tu utilises l'IA au travail, mais ceux qui l'utilisent déjà auront du mal à garder la même productivité en s'en passant. Sam Altman avouait qu'ils sont déjà déficitaires avec l'abonnement pro à 200$, signe que certains ont manifestement déjà trouvé à s'en servir de manière très intensive... Que ça ait besoin de toujours + d'énergie et de puissance, c'est l'histoire de l'humanité ! C'est juste signe qu'on en veut toujours + et que ça doit donc bien rendre service quelque part... Et Copilot paraîtra sans doute préhistorique dans 1 ou 2 ans ! Évidemment personne ne payera 20$ pour allumer la lumière, mais tu payeras bientôt pour en avoir dans tes prochains jeux (via ta carte graphique), et ton patron te payera un bel abonnement à 200€ s'il le faut si ça te fait économiser des jours à ton taf 🙂 Sur la capitalisation de NVIDIA je ne me prononce pas. Je constate juste que pour l'instant il semble bien seul...
Mark Cerny l'avait dit lors de la présentation de la PS5 Pro que l'on avait atteint presque le max en rasterisation donc l'évolution passera par l'IA...
Super vidéo :-) . Je sais pas si il faut s'inquieter ou se hyper pour le futur .en tous cas merci pour cette vidéo , au top comme a chaque fois :-) force et courage 😊
Yo Jean toujours au top ref. La série RTX 5000 reste un bon produit mais a quel prix ? à mon avis c'est trop coûteux et qui a besoin d'une gpu RTX 32 Gb DDR7 pour jouer lol. C'est comme un peu trop. Mais où te cache t'il RX9070XT hahaha. Nice débriefing de qualité
Ne pas oublié qu'une xx90 n'est pa sune carte de jeux, dans ce cas pk ne pas acheter les GTX/RTX Titan à l'époque pour jouer alors? Les cartes de jeux sont et restront les séries 50 à 80 et rien d'autre.
On avait des leak sur du +50% de la 4090 pour la 5090 en raster, la vérité semble être d'avantage autour de +30/35%, pas catastrophique mais le prix a sensiblement augmenté pour la carte et c'est pas ce MFG dont je suis convaincu qu'il ruinera la qualité de l'image, qui va tout arranger, Nvidia ne peut pas vanter des améliorations de perfs aussi importante qu'auparavant et sacrifie donc la qualité de l'image via les upscaler et le frame gen on aura donc du: 4K*200fps** *image upscale depuis la 1080p et avec frame gen, avec les artefacts qui vont avec **les 3/4 de vos frame sont interpolées avec les artefacts qui vont avec De plus en plus on est en train de bousiller la qualité d'image sans pouvoir le quantifier pour vendre des gains qui masquent tous les sacrifices fait pour en arriver là, ça devient carrément de l'arnaque à ce niveau
Pour des besoins de jeux en simracing VR. Je compte upgrade ma 3080ti pour une 5080 mais vaudra t elle les perfs d une 4090? Avec si peu de cuda cotes et shaders units j en doute. Ce n’est pas le gros boost de ram qui va expliquer la perfs ? Qu en penses tu? Le diss4 en VR sera peu utile 😢
Au moins tu auras du DP2.1...alors qu'avec la 4090..nada...Et pour la VR 4Kx4K, c'est un plus...Malheureusement toujours pas d'USB C (protocole DP) alors que c'est la seule prise qui a un futur, m^me les fabricants de Tv s'y mettent
le ray tracing reste encore une lubie, j'ai une 4090 je m'en sert quasiment jamais, d'autant que hardware unboxed a fait une bonne vidéo la dessus sur la qualité du rendu pur, et on ne ressort pas forcément gagnant. ça dépend des jeux mais le bruit que génère le ray tracing par moment est tellement fort qu'il est préférable de rester sur le rendu sans ray tracing, d'autant que certains jeu sont très fort dans le rendu sans ray tracing. Je considère que c'est encore un sacré boulet pour pas grand chose
@@fabiendonquichito9276 une 7900 xtx pour de la raster en 1440 p est loin d'être obsolète . Elle fait plus de 120 fps de moyenne sur quasiment tous les jeux sauf les pas optimisés et encore .
Salut le geek attention le dlss 4 fonctionnera bien sur les 4000 en terme de dlss super résolution ( l'upscaler est améliorée par rapport au dlss 3 en terme de qualité mais aussi de performance ). La où je te rejoint c'est au niveau du multiframgen , il ne pourra pas etre pris en charge par les rtx 4000 mais ils pourront toujours utiliser le frame gen standard . NVIDIA justifierait cela par des tensors cores améliorés qui accelerait encore plus les calculs en precision fp8 .
@@Ryan-nh4qpnon le dlss 4 fonctionne bien sur les 4000 c'est indiqué sur le site de NVIDIA . Il faut distinguer l'upscaler donc la super résolution du dlss 4 ( qui est meilleur et plus performant ) de la" génération de trame ". Autrement dit le multgen sera que sur la nouvelle gen.
En effet, toutes les nouveautés du DLSS 4 sont disponibles pour la génération 4000 (améliorations visuelles, moins de ghosting, efficacité de 40% en plus pour les fps, 30% en moins de conso vram, stabilité, etc.). Seul le MFG n'est pas disponible, ce qui ne me gène pas vraiment puisque j'utilise Lossless Scaling pour ça ! Et reflex2 qui est aussi une belle amélioration est également dispo pour les générations précédentes. Et il faut noter que via l'application nvidia, c'est rétro compatible, il y a des options d'overdrive pour remplacer le DLSS 3 par le 4. Franchement Nvidia a fait un gros effort pour contenter le plus monde, difficile de les pointer du doigt cette fois.
Merci pour cette vidéo J’utilise ma rtx4080 pour faire tourner mon iA en local sur la prochaine vidéo sur la rtx 5000 peux-tu faire une petite info plus complète sur là différence en calcul pure pour les LLM sur les carte vidéo Merci
On a atteint une limite physique et technique sur le « hardware ». Les constructeurs utilisent des « techniques » d’amélioration du type software pour se montrer innovant en terme de technologie. Je ne suis pas certain que NVIDIA soit plus en avance qu’AMD sur l’IA mais en tout cas NVIDIA est en avance sur les techniques de marketing. 😃
@@AA-Link Et encore si leur FSR IA est aussi bon que Nvidia, sinon la 9070xt ne sera même pas au niveau de la RTX 5060. La décision d'AMD de ne plus viser le haut de gamme fera du tort à AMD sur cette génération, ça va leur faire mal, ce sera leur pire move ever.
Merci encore pour le débrief !! Mon Dieu, que cela devient compliqué .. J'hésitais à me refaire une configuration cette année (la mienne a 10 ans ...). bref, "wait and see" encore quelques mois !!!!!
@@LeTech772 Il a sûrement une GTX 9XX, j'ai une GTX 1060 6GB et je vais upgrade sur cette gen, j'ai mangé que des pâtes pendant un peu plus d'un an pour m'offrir une RTX. 😂 C'est devenu quasi injouable en 1080p sur les derniers titres, à part en low + FSR performance, c'est une bouillie de pixel j'y vois rien sur les FPS.
IA géné obvious et prix corrects surtout par rapport aux prédictions il faudra compter 2500€ pour une 5090 tout de même et je trouve ton raisonnement bon en disant que c'est une carte pro marketée pour le grand public et qu'elle servira comme la 4090 de référence aux benchs... alors on lira tout le temps des gens qui diront c'est une carte pro et que c'est débile de l'acheter pour le grand public la VRAM de 32Go c'est trop pour une CG etc... Mais ce sera le Staple des benchs ! donc elle fera envie à tout e monde qui la verra tout le temps 1ere partout et citée de longue .... voila même avec ma 4090 acheté d'occaz presque neuve a 1400€ je me tate et me retiens pour février ^^.
C'est normal qu'Nvidia ne fasse plus de vrais différence entre cartes dite 'pro' et gamer ... oui avant il y a avait la gamme Quadro bien à part. Les quadro étaient uniquement pour les pro, pour les rendus en frame par frame et par zone de rendu, hors le monde des logiciels 3d a fortement évolué, les rendus dit progressif et bien souvent même temps réel. Sans oublier Unreal Engine 5 qui a révolutionné le secteur. En somme ce n'est pas Nvidia qui ne fait plus cette différence ou qui pousse à utiliser les cartes nvidia 'gamer' haut de gamme, c'est le secteur 3d 'pro' lui même. (faut comprendre que les quatro ont été confronté à de nouvelles techniques 3d pro, issue du monde du jeu vidéo et qu'elles ne savaient tout simplement pas gérer ... elle était out) Amd a été complètement stupide d'ailleurs d'abandonner ce secteur (pro/haut de gamme) ... Ce n'est pas du tout intelligent de tenter d'unifier un système d'upscale comme le ferait amd, surtout multi support. leurs fsr n'évoluera que de façon software, se retrouvant bloqué par les consoles par exemple, qui ont une durée d'exploitation assez large, de fait il se retrouveront distancié toujours plus par nvidia.
Des bonnes cartes encore pour les riches et les pigeons 😅 Faites comme moi et n'achetez plus que les de promos toutes les 3 gen en étant malin on joue toujours a tout Et je n'active jamais l'IA, la rasterisation y a que ça de vrai Un pouce de plus😊
Ce que je retiens, c'est que la 5090 n'arrive toujours pas à faire tourner cybperunk, voili voilou, 2500€ le gpu pour 25fps, 100€ le fps, voili voilou les pigeons
Les prix ça reste cher comme les 4060-70-80... La 5070=4090 lol pas en raster c'est sûr... AMD montre pas ses cartes ?! On verra en raster et rapports perf/prix. En tout cas les watts NVIDIA ça va chauffer...
On entend partout que la 5090 devient complètement overkill pour le gaming . Il me vient alors la reflexion du devenir de ces cartes dites "très haut de gamme" pour le grand public. Est ce que la prochaine génération aura au moins un processeur capable de l'exploiter pleinement ? Toujours dans l'offre grand public j'entends.
Il me paraît inutile de mettre ça pour jouer au vu du prix et de la consommation en watt surtout si c'est pour au final avoir du framegen afin de stabiliser a 60-120fps des jeux non optimisés.
Les conférences amd et nvidia parlaient aux entreprises, là nvidia a passé un seul message achetez nos cartes pour dev autour de l'ia pas cher, conséquence les pro, les chinois, tous les pays qui font de la recherche fondamentale vont se ruer dessus, les prix ne correspondent qu aux fe. Il faut s'attendre à des prix élevés en custums et des prix qui vont vite grimper, sachant que tout le stock de puce pro bw 2025 a été acheté par Microsoft pour leur gros projet de data centre nouvelle génération pour lia à 80 milliards de dollars et que le cloud gaming continue sa croissance. Le prix des fe est juste un prix d'appel dans une stratégie marketing comme les 30x0
Salut Jean on va avoir plusieurs problèmes avec ces cartes. 1: En pure rastérisation une 5090 c'est 20% de mieux qu'une 4090, une 5080 c'est de 5 a 10% de mieux qu'une 4080. Linus a eu le privilège de jouer à Cyberpunk sur 2 pc côte à côte, 5090 et 4090, sur le 4090 il était en Ultra a 120Fps sur le 5090 a 260Fps, problème, il n a pas eu le droit de modifier les réglages du jeu, donc on nous ment. De Plus la versions 5090 du au DLLS 4 MFG était moche, avec des traînés très visible sur les parties lumineuses, sa promet. 2: L'IA implanté dans ces cartes va poser un problème de sécurité, il y a déjà des leak qui en parlent, cette IA va pomper toutes vos données, et vous savez pas ce qu'ils en font, et surtout vous ne pourrez rien faire pour l'en empêcher. Je serai pas étonné qu'il y ait des actions contre Nvidia, car ici ils vous forcent la main, vu que sur le marcher il n'y aura plus de 4xxx. C'est une grosse blague.
Les tests sur Cyberpunk de Digital Foundry contredit ton point 1, ils sont même surpris par le boost en qualité sur le jeu en passant en DLSS 4 ainsi que la correction des gros défauts du DLSS3 comme le ghosting qui a quasiment disparu ! Le point 2 ne date pas d'hier et n'est pas spécifique à Nvidia ou aux GPUs.
@@Chris-bt7zn Le DLLS 4 sera présent sur les 4xxx, c'est le multi-frame generation qui le sera pas. Et digital fundry n'a pas pu faire de tests indépendants, vu que personne n'a accès aux cartes. Ils ne se basent que sur ce que tout le monde a vu, mais personne ne connaît les réglages effectués. Donc ce n'est que spéculations. Par contre certains ont déjà calculé la puissance brute avec les données techniques qui elles sont connue, résultat une 5090 sera entre 20 et 30% plus puissante sur certains jeux par rapport à la 4090 et la 5080 sera 5 a 10% plus performante qu'une 4080. De plus si le DLLS 4 et le multi-frame generation n'est pas implanté dans le jeu, ça sert à rien. Je suis beaucoup de chaine youtube en anglais car je suis bilingue, et je peux te dire que tous sont sceptique.
Bonjour. L'intérêt de "mélanger" la 5090 avec les autres gammes, c'est que ça permet une évolution + rapide au fil des ans. C'est en fait certainement cette carte qui est taillée pour les technos de 2026 ! J'ai l'impression que NVIDIA en gros boost "simplement" ses gammes, mais que c'est par la gamme 5090 que les vraies innovations vont arriver (par l'IA, qui a certainement besoin de pas mal de RAM). Et je pense que cette techno IA, si elle coûte effectivement encore très chère, à beaucoup + le potentiel de révolutionner TOUT les aspects du JV que le ray-tracing. Par exemple si on calculait le rapport coût / avantages du ray-tracing, il serait nettement moins bon que celui de l'IA à venir par cette 5090...
AMD n'a pas vu venir le dlss 4 multi AI frame generation donc ils ont supprimé les RX 9000 au dernier moment pour éviter le drama 😢😮😅 Ils vont devoir baisser leurs prix... ou modifier leur fsr4 ...
BONJOUR TONTON, WONG A DIT QUE ON AURA LA MEME PUISSANCE QUE LA 4090 MAIS UNIQUEMENT AVEC TOUTE LES TECHNO ENFIN IL ME SAMBLE QUE LE GRAPHE EST EN DLSS 3 ET PAS LE 4 , DONC AVEC LE 4 CA SERA LE CAS NON?
Non, dans les graphes, en tout petit, il est écrit DLSS 55 pour les 40 et 50, plague tales ne supporte que le DLSS3 donc pas de DLLS4 pour ce jeu, ce qui veut bien dire, DLSS4 pour les autres jeux.
Oui mais il faut prendre en considération que le boost spectaculaire de FPS est surtout dû au frame generation qui ne sera pas disponible sur la switch 2. Il y aura évidement un petit gain dû à l'upscaling mais faudra quand même surveiller les low fps car tous les cores ARM n'ont pas la même performance et on sera loin en terme de ips des cpu gamer d'aujourd'hui.
Le dlss sera utile quand et seulement quand il sera au pire identique a la rasterisation, et au mieux supérieure. La oui il y aura une vrai avancé. En tous cas les prix des 4090 rtx d’occase commence a me faire de l’oeil pour changer ma 3090, 1300e sa donne a reflechire, si elle finisse a 1000 ou 1100e je serais preneur je pense, j’ai eu ma 3090 evga a 300e y a bientôt 2ans, en la vendant 600 700e et en mettant 400e de ma poche sa me fait une 4090 a 700e la c’est impeccable.
Il est déjà bien souvent supérieur en mode qualité qu'en rastérisation en améliorant par exemple la stabilité ou le scintillement et pour ma part il est plus qu'utile.
@@Chris-bt7zn ah bon, sur qu’elle jeux? Alan wake 2? Non, horizon zero dawn remaster ou le forbiden? Non, sur got? Non, a plague tales alors peut être? Non, gow? Non plus et je peut continué longtemp comme ça, a l’oeil nu tu voie la différence dans les gros jeux comme ça, les ombrages,les ligne fine qui scintille, les mouvement qui font des artefact et j’en passe. Le dlss déjà pour fonctionné dans des condition acceptable il faut minimum 60fps de base donc sur tous les gros jeux toute les xx60 xx70 c’est no way sauf en 1080 1400p et encore sans rt. Sur un ecran 22 pouce peut être que la différence n’est pas perceptible, mais sur un ecran de 77 pouce tkt pas que le moindre artefact, déformation… sa ce vois. Et si tu avais écouté et regarder la conférence de nvidia, eux même pointe les défaut du dlss3 qui justement faisais c’est artefact, flou, déformation, scintillement… qui n’existe pas en natif bien évidement et des video qui le démontre visuellement tu en a a la pelle.
Ce qui me gêne avec le manque de concurrence NVIDIA / AMD sur le haut de gamme des cartes graphiques, c'est pas tant sur le prix que sur le côté innovation : ça me donne l'impression que AMD va "simplement" s'attacher à démocratiser les innovations que NVIDIA apportera sur le marché... C'est déjà très bien, mais un peu décevant 😢
Démocratiser? Quand j'ai acheté ma RTX 4070 TI, la 7900XT était au même prix ...pour démocratiser son ray tracing en retrait de 15% avec 15% de conso en plus? Bein ça n'a évidemment pas fonctionné sur moi lol, et je ne regrette rien. AMD ne "démocratise" rien à part le Gsync. Sincèrement.
@gedeon_teuzemany Je parlais de "démocratiser" en sens large : faire rentrer dans l'industrie JV en profondeur, en particulier les consoles et maintenant les consoles portables... Et même s'il était objectivement moins bon que NVIDIA sur le bas ou milieu de gamme (je juge pas, j'en sais rien), sa simple présence en tant que concurrent permet de démocratiser. Mais j'imagine qu'AMD doit aussi un peu faire quelques cartes intéressantes ? Sinon ils auraient mis la clé sous la porte...
Pour la qualité du DLSS 4 (pas que la frame generation x2,x3,x4), Digital Foundry a fait des essais sur Cyberpunk et c'est plutôt impressionnant (particulièrement au niveau des artefacts et ghostings). Et ça sera dispo sur toutes les cartes graphiques RTX de ce que j'ai compris😉
@@Titim13 Evidemment que le mfg est dispo uniquement sur les RTX 50 series... Mais le DLSS 4 ne l'est pas. Jète un oeil à la video de Digital Foundry si ce n'est pas déjà fait pour te faire une idée😉
Merci Jean, j attendais avec impatience ton analyse car chez tes concurrents c est pas ouf, il y a des chaines qui sont "spécialisées dans le hardware" et qui ont tout simplement dit "une rtx5070 supérieure à une rtx4090 pour un tier du prix"... Si on ne considère pas le support de DLSS4 sur les jeux, quelle carte serait à prendre pour gerer un upscalling à 4k à partir d´une résolution Quad et 60 fps? Les 12gb de la 5070 sont un indicape sans DLSS4?
Une rtx 4090 inférieure à une RTX 5070, c'est du pipo. Voilà. Après, tu gagnes 30% environ en comparaison directe entre une RTX 5000 et 4000 de même gamme (RTX 4070 vs RTX 5070 par exemple). Avec le DLSS4, oui, tu pourrais arriver à des FPS équivalent, mais, si pas de DLSS4 ou si le DLSS4 pose problème, on sera très loin des résultats d'une RTX 4090. 12go, même si longtemps j'ai défendu l'optimisation par les dev, je suis forcé aujourd'hui de conseiller des cartes avec 16Go. Donc, ici, une RTX 5070 TI minimum (ou alors une RX 9070 XT) ou alors des cartes de la gamme précédente avec 16Go de mémoire.
sachant que 95% de mon temps de jeux c'est en vr sur des jeux flat moddés jouables en vr je suis dégouté que quasiment tout soit basé sur le frame generation dlss qui ne marche pas en vr (pour le moment mais qui sait dans le futur nvidia pourrait peut etre faire en sorte de le faire fonctionner aussi en vr), donc je devrais me contenter de 30% de + de perf (raw) and peut être un meilleur dlss de base plus performant.... et de le vram bien meilleure cependant, je suis un peu déçu mais je la prendrai qd même cette rtx 5090, pas contre j'ai peur des câbles qui pourraient bruler, les câbles sont rated 600 watts, et la 575 watts le gpu, ça fait short la marge de sécurité. et mes custom models ils vont faire comment ? deux cables 600 watts + deux connecteurs pci express sur le gpu ? quel intérêt de prendre une custom si elle ne peut pas booster la fréquence gpu + que la FE ?
Ah non pas toi Jean ! Ne vous y trompez pas : le véritable bond technologique annoncé au CES par Nvidia, et qui impactera la majorité des utilisateurs sans compromis, réside dans l’abandon du modèle CNN au profit du modèle Transformer. Ce changement vous offrira littéralement des FPS gratuits, puisque même le mode "Performance" deviendra envisageable, et qui sait, peut être probablement proche du mode "Équilibré". A voir aussi si le mode équilibré s'approche du mode qualité.
Qui peut croire qu'une 5070 sera plus puissante qu'une 4090 😂😂 Comme le DLLS 4 sans MFG sera compatible 4xxx la 4090 avec DLLS 4 va exploser la 5070. Frame Chaser le dit dans sa video, une 4090 sera bien entre la 5080 et la 5090. Donc au final avec DLLS 4 et FG sans MFG, la 4090 sera battu que par la 5090. De plus Frame Chaser dit aussi que pour faire tourner une 5090 il faudra avoir une alimentation costaud, car elle consomme sortie de boîte sans debridage de la consommation via MSI par exemple 575w pic. Je suis même pas sûre qu'une 1000w suffit.
Perso je sais déjà que je vais acheter une RTX 50, j'aurais donc le Multi Frame Generation + Lossless Scaling, j'aurais 4 * 4 = 16 images fictives entre 2 images calculées, balèze. 😏 J'ai inventé le DLSS 5 les amis, je vais envoyer mon CV à Jensen Huang, ensemble on va racheter Lossless Scaling et privatiser le soft pour la sortie des RTX 60. 😎
Tu auras trop de latence, j'ai déja essayé DLSS FG + LS et oui, c'est impressionnant en terme de fluidité mais la réactivité, ouch ! Et c'est sans compter que les moniteurs actuels ne peuvent pas générer autant d'images par secondes donc ça ne servirait à rien. En tout cas les gens disaient que les moniteurs 240Hz ou plus ne servaient à rien, ça commence à devenir moins vrai avec ces technologies.
tu devrais attendre les tests et surtout un comparatif entre RTX5070ti et RX9070XT avant de faire un choix... il se pourrait bien que Nvidia révise sa grille tarifaire.
@@cariboumagique2234 exact les tests avant de se fixer par contre la rx 9070xt c est une déception d après les observateurs vu la conférence d AMD d hier
@@cariboumagique2234AMD compare sa RX9070XT comme étant équivalente à une 4070 (super ou ti, je ne sais plus). Ce n'est pas rassurant du tout. Ils vont probablement avoir une génération de retard.
Solidworks(SW) : En effet, les professionnels faites bien attention. Je ne savais pas, mais les cartes gamers ne sont pas prises en charge par beaucoup de soft pro CAO, comme SW. Il faut se tourner vers des modèles pro. Performances x20 sur SW par exemple. Qui sont autrement plus cher!
Je me suis gavé de pop-corn... Le DLSS4 j'en étais convaincu, mais AMD et le FSR4, là j'avoue, je me suis étouffé ! Allez, cher client (vache à lait), il faut changer de carte graphique tous les 2 ans max autrement vous êtes has-been. Voyons voir les modèles SUPER et ultra méga SUPER d'ici max un an. Et les consommations électriques MDR ! C'est beau l'écologie ! Du coup le prix de la PS5 PRO deviendrait presque anecdotique. Bref, merci Jean ! 🤘
J’ai l’impression que beaucoup de personnes ne l’acceptent pas mais pourtant la réalité est telle qu’un moment il va falloir accepter que l’intelligence artificielle sera omniprésente dans nos pc sinon faudra leur tourner le dos…
C'est justement le fond du problème parce qu'au niveau du prix perf ça le fait pas surtout quand c'est de la latence en plus atténuée via logiciel... Un système inconstant et qui permet surtout aux studios de JV de nous sortir des jeux non-optimisés et qui invite à passer sur du 4090 + dlss + reflex + framegen pour avoir du 4k presque 60fps... Marketing + actionnaires = tarifs pour l'élite et on base les gammes a partir de ça. D'où une dé corrélation totale des perfs par rapport aux prix donc je ne vois pas ça bien. Je ne dis pas que c'est pas ce qui va arriver, je dis juste que ça me déplaît très fortement...
C'est justement le fond du problème parce qu'au niveau du prix perf ça le fait pas surtout quand c'est de la latence en plus atténuée via logiciel... Un système inconstant et qui permet surtout aux studios de JV de nous sortir des jeux non-optimisés et qui invite à passer sur du 4090 + dlss + reflex + framegen pour avoir du 4k presque 60fps... Marketing + actionnaires = tarifs pour l'élite et on base les gammes a partir de ça. D'où une dé corrélation totale des perfs par rapport aux prix donc je ne vois pas ça bien. Je ne dis pas que c'est pas ce qui va arriver, je dis juste que ça me déplaît très fortement...
@@Titim13 T'as plus qu'à monter ta boite et concevoir des GPU. Parce que râler alors que les GPU n'ont jamais connu de telles croissances de perfs que sur les 2-3 dernières gens, ça n'a aucun sens.
Salut et merci ! Impatient de connaître les prix "Europe" de la 5070. Savoir quand une 5060 et ses perfs. Les perfs de la 9070 Xt ou non et son prix. Une 9060 ? Enfin, comme d'hab quoi... Dans tous les cas, j'espère que cela va faire baisser le prix des cv actuelles. Nvidia ou AMD.
@@Titim13 alors j'ai constaté cet après-midi une baisse de 22€ sur une saphire 7800xt. Chez les verts, rien. Ça n'en fini pas de monter. Les 4070 sont à plus de 650€. Donc aucun intérêt. J'espère une annonce amd sur la 9070 xt de préférence à 500€, voire moins ou à peine plus.
Ok l'IA l'IA l'IA. Mais qu'est-ce qu'il en est pour les jeux qui ne sont pas compatibles dlss? Et avoir 250 FPS OK. Mais pour faire quoi? J'espère que la gamme 70 va tenir ses promesses que j'ai un PC qui puisse jouer en VR. Et surtout, j'espère que AMD va grandement améliorer ses encodeurs vidéo dans les cartes
6:48 Autant admettre que vous vous êtes tous planté à écouter et diffuser des leaks comme des crétins. Si Nvidia augmente les prix c'est parcequ'il n'y a plus de concurence sur le haut de gamme, AMD a abandonné.
Bonjour Jean ! La vidéo que j'attendais. Complet et de qualité comme toujours. Je suis un peu dépité de voir que Nvidia profite de son quasi monopole sur le segment haut de gamme. J'attends malgré tout beaucoup d'AMD. Affaire à suivre
Un peu généreux sur le % d'augmentation non ? En mesurant vite fait le graph ya 20-25% sur far cry avec la 5070/4070 ce qui inclut les rt core de nouvel gen, ce qui voudrait dire encore moins de diff en raster si dans cette augmentation il faut retrancher justement la part de ces nouveau RT core ? Sinon 50$ de différence est trop peu entre la 9070xt et une 5070, malgré des différents de 100$ au début avec la 4070 cela na pas pas fait décoller la 7800xt / 4070 même si bien vendu. En tout c'est bon signe pour nous car NVIDIA est a même baissé un peu sur le prix milieu de gamme du coup AMD doit être encore plus agressif, si celle ci se trouve a 450$ ou moins ça serait pas mal du tout au final pour le consommateur, par défaut il ne mettront pas la 9070xt au dessus de 500$
Nvidia a réussi son coup. Sur la génération précédente on trouvait scandaleux le fait qu'ils nous vendent de la techno plutôt que de la puissance brute, ce qui faussait déjà les graphiques concernant les gains de puissance. Le tout en rendant le DLSS 3 non compatible avec les RTX 3000 Cette fois ci, ils font exactement la même chose et on applaudit. Mis à part la 5090, les prix sont plutôt pas mal cela dit.
Salut ! Ce qui est intéressant c'est que la capacité de la PS5pro est de 300 TOPS et peut faire fonctionner le PSSR. Sachant que les RX7900 sont capables bien plus de 300 TOPS, on peut donc s'attendre à ce que le FSR 4 fonctionne aussi sur ces GPU. J'aimerai bien qu'AMD communique sur les capacités TOPS de ses GPU RDNA 3 et RDN 4.
J'attends vraiment beaucoup de la conf de AMD (peut-être un peu trop) et pour répondre, j'ai pensé exactement la même chose que toi, AMD n'a pas voulu se dévoiler avant Nvidia, ceci étant, que vont-ils faire maintenant... wait and see mais j'avoue que Nvidia a quand même bien joué le game avec le peu de marge côté process qu'ils avaient, et même si en creusant, la révolution est somme toute très modeste.
Salut Jean, La plupart des améliorations du DLSS 4 fonctionne sur les RTX4000. Évidemment le plus important, le MFG (Multi Frame Gen) est seulement supporté sur RTX5000. Sinon le DLSS 4 MFG sera bien meilleur (heureusement :) que Lossless Scaling car le DLSS a accès aux infos du jeu (motion vector, ...) et comme tu l'as dit utilise du hardware dédié plus puissant. Je suis curieux de voir les vrais tests. Jensen nous a fait une Jensen comme d'hab : la 5070 équivalente à la 4090 😀Peut-être dans le meilleur cas possible avec DLSS 4 MFG (et encore pas certain que ce soit vs 4090 avec DLSS 3 FG). Dis Jensen, on en parle des 12Go de VRAM de la 5070 vs les 24Go de 4090 en 4K 🤣
jensen a vraiment bullshité à mort avec ses fakes benchmarks, limite de l'arnaque sans vergogne de sa part. tout ça est boosté aux fakes frames et dlss, le raw power est de 30% mieux apparemment, mais bon j'attendrai les reviews pour être fixé définitivement.
c'est un peux de la mauvaise foi non ? joue a une jeux avce le fg actif je sais pas dison bo6 mais en zombie (pour la latence ) tu y joue normal tu y vera jamais rien
@@ope-kn3mz C'est clair qu'il a un problème mais cela dit sur des vieilles configs (de vieux CPU), c'est un problème (saccades) qui peut être présent sur certains jeux comme Spiderman par exemple.
Nvidia qui a drop un nouveau model pour le super resolution, juste comme ça. Là où dlss 3 avait du mal avec la reconstruction d image en movement, le model transformer sera quasiment aussi bon en movement que dans des scènes statique , le gros point faible de dlss 3 étais les movements et ce problème empêchait les resolutions tel que 540p a être vraiment worth it . Avec le nouveau model ,on pourrait jouer en 540p et vraiment avoir l impression que l'on est en 1080p, merci Là consistance de dlss4
😭😭😭 moi qui espérait une introduction avec Jensen Huang nous disant « Salut bande de Naze… » 😘
@@Dindonmaster-fr moi aussi
Salut les pigeons! Alors voila comment je vais vous plumer ^^
et la salle en extase devant le gourou
là masterclass 😎
😉👍
Belle analyse comme d'hab.😉
Merci Jean Comme dab Bien Expliqué! Bien Résumé!
Salut BBG merci pour ta vidéo !
Concernant nos futurs jeux j'ai hâte de voir les "vraies" différences et pas des tests sur un jeu de 2020 qui est sorti sur Xbox one/PS4
Salut. Jean. J’attendais impatiemment cette vidéo. Pas déçu. Merci.
On verra les bench, mais je pense je vais garder ma 3080 encore deux ans pour le coup....
Vidéo très complète merci à toi !
Vivement les tests la fin du mois😊
Salut le geek. Très belle video. Le prix des 5000 a l'air bien mais j'ai des gros doute qu'on aura de si bonnes surprises chez nous. J'ai bien oeur que ca face comme les prix des x3d. ( En plut ca ce vend comme des p'tits pain amd et les fournisseurs auraient tort de se priver) Enfin restons positifs et regardons le verre a moitié plein en attendant les sorties. Bibi a tous.
Je ne suis pas vraiment du même avis sur l'IA. Pour le moment c'est une grosse bulle spéculative façon licorne, on le voit d'ailleurs à la capitalisation de nVidia qui est beaucoup trop grande par rapport au réel (ce qui est le cas de tous les mastodontes de l'IT mais là on frise le ridicule, surtout sur son augmentation). Je dis bulle spéculative car c'est de l'investissement avec de l'argent magique qui tombe facile sur n'importe quel projet qui met IA dans son powerpoint, mais personne ne s'est vraiment penché sur le rapport coût de développement/production VS prix de vente client. Car tout ça c'est beau mais en fonction du prix client. Et là ça bloque déjà, copilote, l'IA dans les produits Adobe, etc. la facture devient vite non seulement très salé mais elle ne va pas se stabiliser car l'IA a constamment besoin de plus de puissance, énergie, etc. c'est un cercle vicieux que les clients ne voudront pas éponger en terme d'achat/abonnement et je parle même pas de la planète. Et dans le monde familiale tout le monde rigole à utiliser Alexa pour lui demander la météo ou d'allumer la lumière mais quand on demandera au gens un abo de 20 balles par mois pour ça, il y a 90% de chance que la plupart laisse tomber.
On dirait les discours des gens dans les années 90 quand Internet 1.0 est arrivé. Ils en mettent partout, faut pas parler que de ChatGPT avec ceux qui demande de corriger un texte ou qui demande si la terre est plate… l’ia est partout et va être partout omniprésent dans absolument tout les objets du quotidien. Frigo, lave vaisselle, télé, voiture, feu rouge même dans la douche ! Rien ne va être épargné
@@argon8647 Bonjour. Je sais pas si tu utilises l'IA au travail, mais ceux qui l'utilisent déjà auront du mal à garder la même productivité en s'en passant. Sam Altman avouait qu'ils sont déjà déficitaires avec l'abonnement pro à 200$, signe que certains ont manifestement déjà trouvé à s'en servir de manière très intensive...
Que ça ait besoin de toujours + d'énergie et de puissance, c'est l'histoire de l'humanité ! C'est juste signe qu'on en veut toujours + et que ça doit donc bien rendre service quelque part...
Et Copilot paraîtra sans doute préhistorique dans 1 ou 2 ans !
Évidemment personne ne payera 20$ pour allumer la lumière, mais tu payeras bientôt pour en avoir dans tes prochains jeux (via ta carte graphique), et ton patron te payera un bel abonnement à 200€ s'il le faut si ça te fait économiser des jours à ton taf 🙂
Sur la capitalisation de NVIDIA je ne me prononce pas. Je constate juste que pour l'instant il semble bien seul...
Merci pour tes info que j'attendais patiemment.. 😃
Le dlss 4 reste la seule vraie marge de manœuvre pour la puissance des CG nvidia
Tout à fait
c'est du frame gen x2 x3 x4 comme losslessscaling
c'est de l'AFMF sur du DLSS 3.
Mark Cerny l'avait dit lors de la présentation de la PS5 Pro que l'on avait atteint presque le max en rasterisation donc l'évolution passera par l'IA...
Oui enfin sur pc, car c'est pas demain qu'on aura plus de 100 tflops sur console.
Il me semble que le dlss4 sera compatible sur la série 3000 et 4000
Super vidéo :-) . Je sais pas si il faut s'inquieter ou se hyper pour le futur .en tous cas merci pour cette vidéo , au top comme a chaque fois :-) force et courage 😊
Vraiment bravo pour votre effort affin de nous bien nnous expliquer le hardware et le software de ces cartes graphique s,
C est qui est top c est que le dlss 4 sera aussi dispo pour les 40. Voir le tableau sur la page Nvidia. Il y aura juste pas le mult
Oui, comme le DLSS3.5.
Débriefing de qualité comme d'hab merci 👍
Par les maîtres du référencement 🤟🤟
Pour ton référencement ❤
j'attendais ton recap avec impatience de cette conférence, merci bbg :)
Yo Jean toujours au top ref. La série RTX 5000 reste un bon produit mais a quel prix ? à mon avis c'est trop coûteux et qui a besoin d'une gpu RTX 32 Gb DDR7 pour jouer lol. C'est comme un peu trop. Mais où te cache t'il RX9070XT hahaha. Nice débriefing de qualité
Ne pas oublié qu'une xx90 n'est pa sune carte de jeux, dans ce cas pk ne pas acheter les GTX/RTX Titan à l'époque pour jouer alors? Les cartes de jeux sont et restront les séries 50 à 80 et rien d'autre.
On avait des leak sur du +50% de la 4090 pour la 5090 en raster, la vérité semble être d'avantage autour de +30/35%, pas catastrophique mais le prix a sensiblement augmenté pour la carte et c'est pas ce MFG dont je suis convaincu qu'il ruinera la qualité de l'image, qui va tout arranger, Nvidia ne peut pas vanter des améliorations de perfs aussi importante qu'auparavant et sacrifie donc la qualité de l'image via les upscaler et le frame gen on aura donc du:
4K*200fps**
*image upscale depuis la 1080p et avec frame gen, avec les artefacts qui vont avec
**les 3/4 de vos frame sont interpolées avec les artefacts qui vont avec
De plus en plus on est en train de bousiller la qualité d'image sans pouvoir le quantifier pour vendre des gains qui masquent tous les sacrifices fait pour en arriver là, ça devient carrément de l'arnaque à ce niveau
C'est cool quand tu ne parles pas de PS, tes vidéos sont beaucoup plus intéressantes 😂
Pour des besoins de jeux en simracing VR. Je compte upgrade ma 3080ti pour une 5080 mais vaudra t elle les perfs d une 4090? Avec si peu de cuda cotes et shaders units j en doute. Ce n’est pas le gros boost de ram qui va expliquer la perfs ? Qu en penses tu? Le diss4 en VR sera peu utile 😢
Au moins tu auras du DP2.1...alors qu'avec la 4090..nada...Et pour la VR 4Kx4K, c'est un plus...Malheureusement toujours pas d'USB C (protocole DP) alors que c'est la seule prise qui a un futur, m^me les fabricants de Tv s'y mettent
Est-ce qu’on peut dire qu’on jouera à la version IA des jeux avec le MFG 4x Mode ? 💀
Excellent résumé!
Merci
Ma 7900 xtx était déjà larguée pour le Ray Tracing a présent elle devient obsolète 😅
le ray tracing reste encore une lubie, j'ai une 4090 je m'en sert quasiment jamais, d'autant que hardware unboxed a fait une bonne vidéo la dessus sur la qualité du rendu pur, et on ne ressort pas forcément gagnant.
ça dépend des jeux mais le bruit que génère le ray tracing par moment est tellement fort qu'il est préférable de rester sur le rendu sans ray tracing, d'autant que certains jeu sont très fort dans le rendu sans ray tracing. Je considère que c'est encore un sacré boulet pour pas grand chose
@@fabiendonquichito9276 une 7900 xtx pour de la raster en 1440 p est loin d'être obsolète . Elle fait plus de 120 fps de moyenne sur quasiment tous les jeux sauf les pas optimisés et encore .
Attention, le DLSS4 ce n'est pas seulement le multi frame generation...
Salut le geek attention le dlss 4 fonctionnera bien sur les 4000 en terme de dlss super résolution ( l'upscaler est améliorée par rapport au dlss 3 en terme de qualité mais aussi de performance ). La où je te rejoint c'est au niveau du multiframgen , il ne pourra pas etre pris en charge par les rtx 4000 mais ils pourront toujours utiliser le frame gen standard . NVIDIA justifierait cela par des tensors cores améliorés qui accelerait encore plus les calculs en precision fp8 .
Non le dlss 4 ne fonctionnera pas sur les rtx 4000.
@@Ryan-nh4qpc'est même indiqué sur le site de nvidia.
@@Ryan-nh4qpnon le dlss 4 fonctionne bien sur les 4000 c'est indiqué sur le site de NVIDIA . Il faut distinguer l'upscaler donc la super résolution du dlss 4 ( qui est meilleur et plus performant ) de la" génération de trame ". Autrement dit le multgen sera que sur la nouvelle gen.
En effet, toutes les nouveautés du DLSS 4 sont disponibles pour la génération 4000 (améliorations visuelles, moins de ghosting, efficacité de 40% en plus pour les fps, 30% en moins de conso vram, stabilité, etc.). Seul le MFG n'est pas disponible, ce qui ne me gène pas vraiment puisque j'utilise Lossless Scaling pour ça ! Et reflex2 qui est aussi une belle amélioration est également dispo pour les générations précédentes. Et il faut noter que via l'application nvidia, c'est rétro compatible, il y a des options d'overdrive pour remplacer le DLSS 3 par le 4. Franchement Nvidia a fait un gros effort pour contenter le plus monde, difficile de les pointer du doigt cette fois.
Merci pour cette vidéo
J’utilise ma rtx4080 pour faire tourner mon iA en local sur la prochaine vidéo sur la rtx 5000 peux-tu faire une petite info plus complète sur là différence en calcul pure pour les LLM sur les carte vidéo
Merci
C'est plus des cartes graphiques c'est des cartes de reconstructions! (1 pixel créer deviens 8 de générés avec DLSS et FG xD)
Merci 👍
On a atteint une limite physique et technique sur le « hardware ». Les constructeurs utilisent des « techniques » d’amélioration du type software pour se montrer innovant en terme de technologie. Je ne suis pas certain que NVIDIA soit plus en avance qu’AMD sur l’IA mais en tout cas NVIDIA est en avance sur les techniques de marketing. 😃
"Je ne suis pas certain que NVIDIA soit plus en avance qu’AMD sur l’IA "
😄 C'est pas être incertain ça, c'est ne rien y connaitre.
Critique négative et gratuite sans aucune argumentation…
Salut le Geek, dans le dossier de presse d'AMD la 9070xt est face à la 4070ti, la 9070 est face à la 4070s.
Pas en face des 5000.
Mais le comparatif se fera face aux 5000 😉
@lebonlabruteetlegeek Oui mais dans ce cas, la 9070xt sera face à la 5070 et la 9070 face à la 5060..
@@AA-Link Et encore si leur FSR IA est aussi bon que Nvidia, sinon la 9070xt ne sera même pas au niveau de la RTX 5060.
La décision d'AMD de ne plus viser le haut de gamme fera du tort à AMD sur cette génération, ça va leur faire mal, ce sera leur pire move ever.
@@ke0zom204 ils ont la 7900 xtx dans le haut de gamme qui fera encore l'affaire sur ce secteur
Je vais prendre une 5080 pour du QHD 200FPS en ultra
Excellente vidéo
Merci encore pour le débrief !!
Mon Dieu, que cela devient compliqué .. J'hésitais à me refaire une configuration cette année (la mienne a 10 ans ...).
bref, "wait and see" encore quelques mois !!!!!
Yo TheFrenchy82 ah oui ta config date de 10 ans. Quel est ta carte vidéo
@@LeTech772 Il a sûrement une GTX 9XX, j'ai une GTX 1060 6GB et je vais upgrade sur cette gen, j'ai mangé que des pâtes pendant un peu plus d'un an pour m'offrir une RTX. 😂
C'est devenu quasi injouable en 1080p sur les derniers titres, à part en low + FSR performance, c'est une bouillie de pixel j'y vois rien sur les FPS.
@@ke0zom204 Perso je penserai a changer la gpu GTX 1060 6GB c'est passé date lol
@@LeTech772 Oui je sais, mais j'ai voulu rentabiliser la GTX 1060 un max.
@@LeTech772 Ne pas rire mais.. c'est une nvidia 1080 ! çà marche encore, mais si on veut jouer en 4K ou en 1440p, là.... ça coince !!
Je vais me faire un pc de feu cette année avec une 5090. C est sur
Allô Jean,
Concernant le nouveau cpu AMD 9, pourquoi selon toi, il aurrait pris une carte graphique NVIDIA?
Je dis ça car pour obtenir le maximum de FPS, même si la RX 7900 XTX dépote, la RTX 4090 reste la plus rapide. Après, c'est une pure supposition.
@lebonlabruteetlegeek Je comprend, merci pour la precision 😊
@@lebonlabruteetlegeek c'est pas une suposition il utilise juste la carte la plus rapide comme tout le monde :)
Maintenant plus qu'à attendre des jeux next-gen 😂
IA géné obvious et prix corrects surtout par rapport aux prédictions il faudra compter 2500€ pour une 5090 tout de même et je trouve ton raisonnement bon en disant que c'est une carte pro marketée pour le grand public et qu'elle servira comme la 4090 de référence aux benchs... alors on lira tout le temps des gens qui diront c'est une carte pro et que c'est débile de l'acheter pour le grand public la VRAM de 32Go c'est trop pour une CG etc... Mais ce sera le Staple des benchs ! donc elle fera envie à tout e monde qui la verra tout le temps 1ere partout et citée de longue .... voila même avec ma 4090 acheté d'occaz presque neuve a 1400€ je me tate et me retiens pour février ^^.
C'est normal qu'Nvidia ne fasse plus de vrais différence entre cartes dite 'pro' et gamer ... oui avant il y a avait la gamme Quadro bien à part.
Les quadro étaient uniquement pour les pro, pour les rendus en frame par frame et par zone de rendu, hors le monde des logiciels 3d a fortement évolué, les rendus dit progressif et bien souvent même temps réel. Sans oublier Unreal Engine 5 qui a révolutionné le secteur.
En somme ce n'est pas Nvidia qui ne fait plus cette différence ou qui pousse à utiliser les cartes nvidia 'gamer' haut de gamme, c'est le secteur 3d 'pro' lui même. (faut comprendre que les quatro ont été confronté à de nouvelles techniques 3d pro, issue du monde du jeu vidéo et qu'elles ne savaient tout simplement pas gérer ... elle était out)
Amd a été complètement stupide d'ailleurs d'abandonner ce secteur (pro/haut de gamme) ...
Ce n'est pas du tout intelligent de tenter d'unifier un système d'upscale comme le ferait amd, surtout multi support. leurs fsr n'évoluera que de façon software, se retrouvant bloqué par les consoles par exemple, qui ont une durée d'exploitation assez large, de fait il se retrouveront distancié toujours plus par nvidia.
Décevant est un euphémisme; c'est de loin le pire CES que j'aie jamais vécu.
Merci pour cette vidéo ;)
Des bonnes cartes encore pour les riches et les pigeons 😅
Faites comme moi et n'achetez plus que les de promos toutes les 3 gen en étant malin on joue toujours a tout
Et je n'active jamais l'IA, la rasterisation y a que ça de vrai
Un pouce de plus😊
Ce que je retiens, c'est que la 5090 n'arrive toujours pas à faire tourner cybperunk, voili voilou, 2500€ le gpu pour 25fps, 100€ le fps, voili voilou les pigeons
Les prix ça reste cher comme les 4060-70-80... La 5070=4090 lol pas en raster c'est sûr... AMD montre pas ses cartes ?! On verra en raster et rapports perf/prix. En tout cas les watts NVIDIA ça va chauffer...
On entend partout que la 5090 devient complètement overkill pour le gaming . Il me vient alors la reflexion du devenir de ces cartes dites "très haut de gamme" pour le grand public. Est ce que la prochaine génération aura au moins un processeur capable de l'exploiter pleinement ? Toujours dans l'offre grand public j'entends.
Je pense qu'un 9800x3d pour cette génération devrait le faire. Pour la prochaine génération, à voir.
Il me paraît inutile de mettre ça pour jouer au vu du prix et de la consommation en watt surtout si c'est pour au final avoir du framegen afin de stabiliser a 60-120fps des jeux non optimisés.
Pour les joueurs VR haute résolution en simracing, c'est utile.
C’est dommage pour le haut de gamme AMD…
Les conférences amd et nvidia parlaient aux entreprises, là nvidia a passé un seul message achetez nos cartes pour dev autour de l'ia pas cher, conséquence les pro, les chinois, tous les pays qui font de la recherche fondamentale vont se ruer dessus, les prix ne correspondent qu aux fe. Il faut s'attendre à des prix élevés en custums et des prix qui vont vite grimper, sachant que tout le stock de puce pro bw 2025 a été acheté par Microsoft pour leur gros projet de data centre nouvelle génération pour lia à 80 milliards de dollars et que le cloud gaming continue sa croissance. Le prix des fe est juste un prix d'appel dans une stratégie marketing comme les 30x0
Salut Jean on va avoir plusieurs problèmes avec ces cartes.
1: En pure rastérisation une 5090 c'est 20% de mieux qu'une 4090, une 5080 c'est de 5 a 10% de mieux qu'une 4080.
Linus a eu le privilège de jouer à Cyberpunk sur 2 pc côte à côte, 5090 et 4090, sur le 4090 il était en Ultra a 120Fps sur le 5090 a 260Fps, problème, il n a pas eu le droit de modifier les réglages du jeu, donc on nous ment. De Plus la versions 5090 du au DLLS 4 MFG était moche, avec des traînés très visible sur les parties lumineuses, sa promet.
2: L'IA implanté dans ces cartes va poser un problème de sécurité, il y a déjà des leak qui en parlent, cette IA va pomper toutes vos données, et vous savez pas ce qu'ils en font, et surtout vous ne pourrez rien faire pour l'en empêcher. Je serai pas étonné qu'il y ait des actions contre Nvidia, car ici ils vous forcent la main, vu que sur le marcher il n'y aura plus de 4xxx.
C'est une grosse blague.
Les tests sur Cyberpunk de Digital Foundry contredit ton point 1, ils sont même surpris par le boost en qualité sur le jeu en passant en DLSS 4 ainsi que la correction des gros défauts du DLSS3 comme le ghosting qui a quasiment disparu ! Le point 2 ne date pas d'hier et n'est pas spécifique à Nvidia ou aux GPUs.
@@Chris-bt7zn Le DLLS 4 sera présent sur les 4xxx, c'est le multi-frame generation qui le sera pas.
Et digital fundry n'a pas pu faire de tests indépendants, vu que personne n'a accès aux cartes. Ils ne se basent que sur ce que tout le monde a vu, mais personne ne connaît les réglages effectués. Donc ce n'est que spéculations.
Par contre certains ont déjà calculé la puissance brute avec les données techniques qui elles sont connue, résultat une 5090 sera entre 20 et 30% plus puissante sur certains jeux par rapport à la 4090 et la 5080 sera 5 a 10% plus performante qu'une 4080.
De plus si le DLLS 4 et le multi-frame generation n'est pas implanté dans le jeu, ça sert à rien. Je suis beaucoup de chaine youtube en anglais car je suis bilingue, et je peux te dire que tous sont sceptique.
Bonjour. L'intérêt de "mélanger" la 5090 avec les autres gammes, c'est que ça permet une évolution + rapide au fil des ans. C'est en fait certainement cette carte qui est taillée pour les technos de 2026 ! J'ai l'impression que NVIDIA en gros boost "simplement" ses gammes, mais que c'est par la gamme 5090 que les vraies innovations vont arriver (par l'IA, qui a certainement besoin de pas mal de RAM).
Et je pense que cette techno IA, si elle coûte effectivement encore très chère, à beaucoup + le potentiel de révolutionner TOUT les aspects du JV que le ray-tracing. Par exemple si on calculait le rapport coût / avantages du ray-tracing, il serait nettement moins bon que celui de l'IA à venir par cette 5090...
AMD n'a pas vu venir le dlss 4 multi AI frame generation donc ils ont supprimé les RX 9000 au dernier moment pour éviter le drama 😢😮😅 Ils vont devoir baisser leurs prix... ou modifier leur fsr4 ...
BONJOUR TONTON, WONG A DIT QUE ON AURA LA MEME PUISSANCE QUE LA 4090 MAIS UNIQUEMENT AVEC TOUTE LES TECHNO ENFIN IL ME SAMBLE QUE LE GRAPHE EST EN DLSS 3 ET PAS LE 4 , DONC AVEC LE 4 CA SERA LE CAS NON?
Non, dans les graphes, en tout petit, il est écrit DLSS 55 pour les 40 et 50, plague tales ne supporte que le DLSS3 donc pas de DLLS4 pour ce jeu, ce qui veut bien dire, DLSS4 pour les autres jeux.
Je crois en wong lol je parie un abonnement a ton compte que la 5070 équivaut a la 4090 en 1440p
Voilà pourquoi Nintendo n’a pas besoin de faire du 4k natif ,les logiciel d’upscaling de Nvidia se charge de l’mage,des Fps.
Je me pose la question si les non révélations de AMD ne sont pas corrélés avec la switch
Oui mais il faut prendre en considération que le boost spectaculaire de FPS est surtout dû au frame generation qui ne sera pas disponible sur la switch 2. Il y aura évidement un petit gain dû à l'upscaling mais faudra quand même surveiller les low fps car tous les cores ARM n'ont pas la même performance et on sera loin en terme de ips des cpu gamer d'aujourd'hui.
Hé bé... c'est plié, on a vraiment vendu son âme au diable. De plus en plus de frames, de moins en moins d'art.
L IA moi personnellement ca m'inquiète pas vous?
En partie, oui. Surtout pour les artistes, il faut l'avouer.
Alors ne regardez surtout pas Terminator, Skynet quand tu nous tiens😂
J'ai une alim 850 w classique de 2016.
Je peux y brancher la 5080 grâce à l'adaptateur 2×8pins vers le 12vhpwr???
Risque? Perte de fps?
Dépend de la conso du CPU. Ne pas dépasser les 60% de conso max (GPU + CPU) pour une optimisation des pertes alimentations.
Le dlss sera utile quand et seulement quand il sera au pire identique a la rasterisation, et au mieux supérieure.
La oui il y aura une vrai avancé.
En tous cas les prix des 4090 rtx d’occase commence a me faire de l’oeil pour changer ma 3090, 1300e sa donne a reflechire, si elle finisse a 1000 ou 1100e je serais preneur je pense, j’ai eu ma 3090 evga a 300e y a bientôt 2ans, en la vendant 600 700e et en mettant 400e de ma poche sa me fait une 4090 a 700e la c’est impeccable.
Pense à l'alimentation...
"seulement"...
Encore un qui croit qu'on pense tous comme lui.
Il est déjà bien souvent supérieur en mode qualité qu'en rastérisation en améliorant par exemple la stabilité ou le scintillement et pour ma part il est plus qu'utile.
@@Titim13 1200w je suis tranquille ma 3090 fait 500w en pique déjà c’est une evga.
@@Chris-bt7zn ah bon, sur qu’elle jeux?
Alan wake 2? Non, horizon zero dawn remaster ou le forbiden? Non, sur got? Non, a plague tales alors peut être? Non, gow? Non plus et je peut continué longtemp comme ça, a l’oeil nu tu voie la différence dans les gros jeux comme ça, les ombrages,les ligne fine qui scintille, les mouvement qui font des artefact et j’en passe. Le dlss déjà pour fonctionné dans des condition acceptable il faut minimum 60fps de base donc sur tous les gros jeux toute les xx60 xx70 c’est no way sauf en 1080 1400p et encore sans rt.
Sur un ecran 22 pouce peut être que la différence n’est pas perceptible, mais sur un ecran de 77 pouce tkt pas que le moindre artefact, déformation… sa ce vois.
Et si tu avais écouté et regarder la conférence de nvidia, eux même pointe les défaut du dlss3 qui justement faisais c’est artefact, flou, déformation, scintillement… qui n’existe pas en natif bien évidement et des video qui le démontre visuellement tu en a a la pelle.
Ce qui me gêne avec le manque de concurrence NVIDIA / AMD sur le haut de gamme des cartes graphiques, c'est pas tant sur le prix que sur le côté innovation : ça me donne l'impression que AMD va "simplement" s'attacher à démocratiser les innovations que NVIDIA apportera sur le marché... C'est déjà très bien, mais un peu décevant 😢
Démocratiser?
Quand j'ai acheté ma RTX 4070 TI, la 7900XT était au même prix ...pour démocratiser son ray tracing en retrait de 15% avec 15% de conso en plus?
Bein ça n'a évidemment pas fonctionné sur moi lol, et je ne regrette rien.
AMD ne "démocratise" rien à part le Gsync. Sincèrement.
@gedeon_teuzemany Je parlais de "démocratiser" en sens large : faire rentrer dans l'industrie JV en profondeur, en particulier les consoles et maintenant les consoles portables...
Et même s'il était objectivement moins bon que NVIDIA sur le bas ou milieu de gamme (je juge pas, j'en sais rien), sa simple présence en tant que concurrent permet de démocratiser.
Mais j'imagine qu'AMD doit aussi un peu faire quelques cartes intéressantes ? Sinon ils auraient mis la clé sous la porte...
@@gedeon_teuzemany oui et en raster elle était aussi 15 % plus perf la 7900 xt chose que l'on oublie
Pour la qualité du DLSS 4 (pas que la frame generation x2,x3,x4), Digital Foundry a fait des essais sur Cyberpunk et c'est plutôt impressionnant (particulièrement au niveau des artefacts et ghostings). Et ça sera dispo sur toutes les cartes graphiques RTX de ce que j'ai compris😉
Le mfg non spécifique rtx5000... Et latence à voir. Reflex2 !? Tests en réel.
@@Titim13 Evidemment que le mfg est dispo uniquement sur les RTX 50 series... Mais le DLSS 4 ne l'est pas. Jète un oeil à la video de Digital Foundry si ce n'est pas déjà fait pour te faire une idée😉
C'est ce que j'ai dit j'ai juste oublié la virgule" 0:04 le mfg non, "
J'étais prêt à sortir le larfeuille pour une rx9070xt, bah il faut encore attendre...
J'ai une 7900xt je me sers jamais du fsr ni du frame generation cest moche et de latence en plus 😅
Merci Jean, j attendais avec impatience ton analyse car chez tes concurrents c est pas ouf, il y a des chaines qui sont "spécialisées dans le hardware" et qui ont tout simplement dit "une rtx5070 supérieure à une rtx4090 pour un tier du prix"... Si on ne considère pas le support de DLSS4 sur les jeux, quelle carte serait à prendre pour gerer un upscalling à 4k à partir d´une résolution Quad et 60 fps? Les 12gb de la 5070 sont un indicape sans DLSS4?
Une rtx 4090 inférieure à une RTX 5070, c'est du pipo. Voilà. Après, tu gagnes 30% environ en comparaison directe entre une RTX 5000 et 4000 de même gamme (RTX 4070 vs RTX 5070 par exemple). Avec le DLSS4, oui, tu pourrais arriver à des FPS équivalent, mais, si pas de DLSS4 ou si le DLSS4 pose problème, on sera très loin des résultats d'une RTX 4090. 12go, même si longtemps j'ai défendu l'optimisation par les dev, je suis forcé aujourd'hui de conseiller des cartes avec 16Go. Donc, ici, une RTX 5070 TI minimum (ou alors une RX 9070 XT) ou alors des cartes de la gamme précédente avec 16Go de mémoire.
Réf ✌️
1:50 LE showman! ...avec sa veste en Ray Tracing temps réel avec DLSS 4 ! 😍
sachant que 95% de mon temps de jeux c'est en vr sur des jeux flat moddés jouables en vr je suis dégouté que quasiment tout soit basé sur le frame generation dlss qui ne marche pas en vr (pour le moment mais qui sait dans le futur nvidia pourrait peut etre faire en sorte de le faire fonctionner aussi en vr), donc je devrais me contenter de 30% de + de perf (raw) and peut être un meilleur dlss de base plus performant.... et de le vram bien meilleure cependant, je suis un peu déçu mais je la prendrai qd même cette rtx 5090, pas contre j'ai peur des câbles qui pourraient bruler, les câbles sont rated 600 watts, et la 575 watts le gpu, ça fait short la marge de sécurité. et mes custom models ils vont faire comment ? deux cables 600 watts + deux connecteurs pci express sur le gpu ? quel intérêt de prendre une custom si elle ne peut pas booster la fréquence gpu + que la FE ?
Ah non pas toi Jean ! Ne vous y trompez pas : le véritable bond technologique annoncé au CES par Nvidia, et qui impactera la majorité des utilisateurs sans compromis, réside dans l’abandon du modèle CNN au profit du modèle Transformer. Ce changement vous offrira littéralement des FPS gratuits, puisque même le mode "Performance" deviendra envisageable, et qui sait, peut être probablement proche du mode "Équilibré". A voir aussi si le mode équilibré s'approche du mode qualité.
Qui peut croire qu'une 5070 sera plus puissante qu'une 4090 😂😂
Comme le DLLS 4 sans MFG sera compatible 4xxx la 4090 avec DLLS 4 va exploser la 5070.
Frame Chaser le dit dans sa video, une 4090 sera bien entre la 5080 et la 5090.
Donc au final avec DLLS 4 et FG sans MFG, la 4090 sera battu que par la 5090.
De plus Frame Chaser dit aussi que pour faire tourner une 5090 il faudra avoir une alimentation costaud, car elle consomme sortie de boîte sans debridage de la consommation via MSI par exemple 575w pic. Je suis même pas sûre qu'une 1000w suffit.
Perso je sais déjà que je vais acheter une RTX 50, j'aurais donc le Multi Frame Generation + Lossless Scaling, j'aurais 4 * 4 = 16 images fictives entre 2 images calculées, balèze. 😏
J'ai inventé le DLSS 5 les amis, je vais envoyer mon CV à Jensen Huang, ensemble on va racheter Lossless Scaling et privatiser le soft pour la sortie des RTX 60. 😎
Tu auras trop de latence, j'ai déja essayé DLSS FG + LS et oui, c'est impressionnant en terme de fluidité mais la réactivité, ouch ! Et c'est sans compter que les moniteurs actuels ne peuvent pas générer autant d'images par secondes donc ça ne servirait à rien. En tout cas les gens disaient que les moniteurs 240Hz ou plus ne servaient à rien, ça commence à devenir moins vrai avec ces technologies.
Je vais hésitée entre la 5070 TI et la 5080 .. pour changer ma 3070
Ce sera un beau de performance ;) Après, pour la RTX 5080, il faudra penser à l'alim ;)
tu devrais attendre les tests et surtout un comparatif entre RTX5070ti et RX9070XT avant de faire un choix... il se pourrait bien que Nvidia révise sa grille tarifaire.
@@cariboumagique2234 exact les tests avant de se fixer par contre la rx 9070xt c est une déception d après les observateurs vu la conférence d AMD d hier
@@cariboumagique2234AMD compare sa RX9070XT comme étant équivalente à une 4070 (super ou ti, je ne sais plus). Ce n'est pas rassurant du tout. Ils vont probablement avoir une génération de retard.
Faudrait aussi voir ton cpu et donc ta carte mère quand tu sautes deux gen faut voir
Avec des cartes à ce prix là on ne peux même pas miner du btc.
Solidworks(SW) : En effet, les professionnels faites bien attention. Je ne savais pas, mais les cartes gamers ne sont pas prises en charge par beaucoup de soft pro CAO, comme SW.
Il faut se tourner vers des modèles pro. Performances x20 sur SW par exemple.
Qui sont autrement plus cher!
100e pouces 😅
Je me suis gavé de pop-corn... Le DLSS4 j'en étais convaincu, mais AMD et le FSR4, là j'avoue, je me suis étouffé ! Allez, cher client (vache à lait), il faut changer de carte graphique tous les 2 ans max autrement vous êtes has-been. Voyons voir les modèles SUPER et ultra méga SUPER d'ici max un an. Et les consommations électriques MDR ! C'est beau l'écologie ! Du coup le prix de la PS5 PRO deviendrait presque anecdotique. Bref, merci Jean ! 🤘
J’ai l’impression que beaucoup de personnes ne l’acceptent pas mais pourtant la réalité est telle qu’un moment il va falloir accepter que l’intelligence artificielle sera omniprésente dans nos pc sinon faudra leur tourner le dos…
C'est justement le fond du problème parce qu'au niveau du prix perf ça le fait pas surtout quand c'est de la latence en plus atténuée via logiciel... Un système inconstant et qui permet surtout aux studios de JV de nous sortir des jeux non-optimisés et qui invite à passer sur du 4090 + dlss + reflex + framegen pour avoir du 4k presque 60fps... Marketing + actionnaires = tarifs pour l'élite et on base les gammes a partir de ça. D'où une dé corrélation totale des perfs par rapport aux prix donc je ne vois pas ça bien. Je ne dis pas que c'est pas ce qui va arriver, je dis juste que ça me déplaît très fortement...
C'est justement le fond du problème parce qu'au niveau du prix perf ça le fait pas surtout quand c'est de la latence en plus atténuée via logiciel... Un système inconstant et qui permet surtout aux studios de JV de nous sortir des jeux non-optimisés et qui invite à passer sur du 4090 + dlss + reflex + framegen pour avoir du 4k presque 60fps... Marketing + actionnaires = tarifs pour l'élite et on base les gammes a partir de ça. D'où une dé corrélation totale des perfs par rapport aux prix donc je ne vois pas ça bien. Je ne dis pas que c'est pas ce qui va arriver, je dis juste que ça me déplaît très fortement...
@@Titim13 T'as plus qu'à monter ta boite et concevoir des GPU.
Parce que râler alors que les GPU n'ont jamais connu de telles croissances de perfs que sur les 2-3 dernières gens, ça n'a aucun sens.
@@gedeon_teuzemany enleve le RT et le DLSS et tes croissances de perfs sont vraiment bidons au final, surtout le rapport perf/prix
a croire que les leaks étaient orchestrés pour que les prix paraissent bas
C'est un peu ça 😅
Salut et merci ! Impatient de connaître les prix "Europe" de la 5070. Savoir quand une 5060 et ses perfs. Les perfs de la 9070 Xt ou non et son prix. Une 9060 ? Enfin, comme d'hab quoi... Dans tous les cas, j'espère que cela va faire baisser le prix des cv actuelles. Nvidia ou AMD.
C'est ce que l'on attends effectivement mais la baisse de prix oublie surtout en Europe...
650€ la founder
@@voox Merci. Pour la 5070 ? Référencée sur un site marchand ?
prix finaux surtout
@@Titim13 alors j'ai constaté cet après-midi une baisse de 22€ sur une saphire 7800xt. Chez les verts, rien. Ça n'en fini pas de monter. Les 4070 sont à plus de 650€. Donc aucun intérêt. J'espère une annonce amd sur la 9070 xt de préférence à 500€, voire moins ou à peine plus.
Au top le résumé je l'attendais 👌🙏
Vivement les vrai test sur la série des 50.
👍
Ok l'IA l'IA l'IA. Mais qu'est-ce qu'il en est pour les jeux qui ne sont pas compatibles dlss? Et avoir 250 FPS OK. Mais pour faire quoi? J'espère que la gamme 70 va tenir ses promesses que j'ai un PC qui puisse jouer en VR. Et surtout, j'espère que AMD va grandement améliorer ses encodeurs vidéo dans les cartes
6:48 Autant admettre que vous vous êtes tous planté à écouter et diffuser des leaks comme des crétins.
Si Nvidia augmente les prix c'est parcequ'il n'y a plus de concurence sur le haut de gamme, AMD a abandonné.
Bonjour Jean ! La vidéo que j'attendais. Complet et de qualité comme toujours. Je suis un peu dépité de voir que Nvidia profite de son quasi monopole sur le segment haut de gamme. J'attends malgré tout beaucoup d'AMD. Affaire à suivre
Oui
Mais le geek tu n'as pas parlé tu le FSR 4 n'était pas compatible avec la génération 7000 de chez AMD ni même les 6000
Ça va venir, attendons la conf de AMD.
👍👍👍👍👍👍👍👍👍
Un peu généreux sur le % d'augmentation non ? En mesurant vite fait le graph ya 20-25% sur far cry avec la 5070/4070 ce qui inclut les rt core de nouvel gen, ce qui voudrait dire encore moins de diff en raster si dans cette augmentation il faut retrancher justement la part de ces nouveau RT core ?
Sinon 50$ de différence est trop peu entre la 9070xt et une 5070, malgré des différents de 100$ au début avec la 4070 cela na pas pas fait décoller la 7800xt / 4070 même si bien vendu. En tout c'est bon signe pour nous car NVIDIA est a même baissé un peu sur le prix milieu de gamme du coup AMD doit être encore plus agressif, si celle ci se trouve a 450$ ou moins ça serait pas mal du tout au final pour le consommateur, par défaut il ne mettront pas la 9070xt au dessus de 500$
Nvidia a réussi son coup.
Sur la génération précédente on trouvait scandaleux le fait qu'ils nous vendent de la techno plutôt que de la puissance brute, ce qui faussait déjà les graphiques concernant les gains de puissance.
Le tout en rendant le DLSS 3 non compatible avec les RTX 3000
Cette fois ci, ils font exactement la même chose et on applaudit.
Mis à part la 5090, les prix sont plutôt pas mal cela dit.
Pour la 9070 sa a fitre au ces sur place sa a les performances d'une 4070 -4070 ti.....je mets le lien avec les slides enlever pdt la conférence
Bonjour, tu devrais aussi t’intéressé à la monté en puissance des casque vr,qui se sont très bien vendu grâce au prix du meta quest 3s.
👍
C'est bien ces nouvellesCG,,mais cela va t’il faire baisser les configurations PC actuelle.
Je crains que non en termes de prix.
Welcom l’ IA! France Travail à intérêt d ’agrandir ces locaux...ah ben non jsuis bête ce sera géré par l’IA!🎉
Salut !
Ce qui est intéressant c'est que la capacité de la PS5pro est de 300 TOPS et peut faire fonctionner le PSSR.
Sachant que les RX7900 sont capables bien plus de 300 TOPS, on peut donc s'attendre à ce que le FSR 4 fonctionne aussi sur ces GPU.
J'aimerai bien qu'AMD communique sur les capacités TOPS de ses GPU RDNA 3 et RDN 4.
J'attends vraiment beaucoup de la conf de AMD (peut-être un peu trop) et pour répondre, j'ai pensé exactement la même chose que toi, AMD n'a pas voulu se dévoiler avant Nvidia, ceci étant, que vont-ils faire maintenant... wait and see mais j'avoue que Nvidia a quand même bien joué le game avec le peu de marge côté process qu'ils avaient, et même si en creusant, la révolution est somme toute très modeste.
Lossless Scaling jusqu'a X4 😉
399
Salut Jean,
La plupart des améliorations du DLSS 4 fonctionne sur les RTX4000. Évidemment le plus important, le MFG (Multi Frame Gen) est seulement supporté sur RTX5000.
Sinon le DLSS 4 MFG sera bien meilleur (heureusement :) que Lossless Scaling car le DLSS a accès aux infos du jeu (motion vector, ...) et comme tu l'as dit utilise du hardware dédié plus puissant.
Je suis curieux de voir les vrais tests.
Jensen nous a fait une Jensen comme d'hab : la 5070 équivalente à la 4090 😀Peut-être dans le meilleur cas possible avec DLSS 4 MFG (et encore pas certain que ce soit vs 4090 avec DLSS 3 FG). Dis Jensen, on en parle des 12Go de VRAM de la 5070 vs les 24Go de 4090 en 4K 🤣
Peut-on dire que NVIDIA nous a mis une quenelle en nous démontrant que l'on avoir l'équivalent de la série pour 4000 pour 3 fois moins cher ?
Ont a rien compris
jensen a vraiment bullshité à mort avec ses fakes benchmarks, limite de l'arnaque sans vergogne de sa part. tout ça est boosté aux fakes frames et dlss, le raw power est de 30% mieux apparemment, mais bon j'attendrai les reviews pour être fixé définitivement.
18:12 pas grave c’est toujours pas au point le frame génération pour le moment encore (artefacts, saccades)
c'est un peux de la mauvaise foi non ? joue a une jeux avce le fg actif je sais pas dison bo6 mais en zombie (pour la latence ) tu y joue normal tu y vera jamais rien
et pour les sacade y en a juste pas saufe si ta carte sort moin de 60 fps de base sans fg
4080. Léger artefacts et saccade sur tout les jeux testé. J’utilise toujours le dlss3 mais sans le frame gen
@@V_l_N_C_E_N_T ta quoi comme cpu ? ram ? c'est pas normal j'ai pas se genre de chose avec le frame gen
@@ope-kn3mz C'est clair qu'il a un problème mais cela dit sur des vieilles configs (de vieux CPU), c'est un problème (saccades) qui peut être présent sur certains jeux comme Spiderman par exemple.
AMD est trop largué c’est pas du tout une bonne nouvelle
Nvidia qui a drop un nouveau model pour le super resolution, juste comme ça.
Là où dlss 3 avait du mal avec la reconstruction d image en movement, le model transformer sera quasiment aussi bon en movement que dans des scènes statique , le gros point faible de dlss 3 étais les movements et ce problème empêchait les resolutions tel que 540p a être vraiment worth it .
Avec le nouveau model ,on pourrait jouer en 540p et vraiment avoir l impression que l'on est en 1080p, merci Là consistance de dlss4
Salut. Pour la 5090 vs 4090 en RT sans DLSS, c’est +28% pour la 5090, pas 33.