Pour moi cette génération est vraiment pas terrible, 30% de transistor pour 30% de performance en plus et donc 30% de consommation en plus. Ce n'est pas ce que j'appelle une évolution mais plutôt une stagnation. Sans oublier le performances prix qui reste presque le même. Très bon résumé et je suis d'accord pour dire que David a également fait un test très poussé et compréhensible. Prend soin de toi Clément et de tes proches. ;)
@@paladiumcheat Ah bon ? Ils faudrait donc les laisser consommer de plus en plus ? On a déjà atteint 600 watts sur une CG et tu voudrais que cela ne soit pas critiquable ?
Pour ceux qui veulent en savoir plus sur cette carte au niveau technique, je recommande la dernière video de la chaine High Yield, en anglais. On y apprend pas mal de trucs, notamment au niveau de pourquoi c'est cher (le yield est censé être catastrophique), pourquoi les perfs sont nulles (c'est un GPU optimisé pour l'IA avec une mémoire très rapide, mais qui n'a pas besoin de beaucoup de puissance de calcul), et j'en passe.
11:21 "Ça n'a pas de sens de râler c'est juste une option" Stop avec cet argument de commercial... Le principe d'une option c'est d’être optionnelle, hors elle est imposée et absolument pas gratuite loin de là. Le coût de développement de cette techno se répercute sur le prix final du produit, techno avec utilisation optionnelle oui ok... Mais avec obligation de l'avoir et de la payer au prix fort. Conclusion: Si si, en tant que consommateur c'est complétement légitime de râler.
@@taurel2013 si tu ne veux pas financer la R&D du frame gen d'Nvidia car visiblement ça te dérange, prend une carte AMD, voir intel, chez intel pas de frame gen.
C'est une option obligatoire, sauf si tu veux revenir aux perfs de l'ancienne gén ! J'irais pas jusqu'à dire que c'est du cache misère mais c'est la solution qu'ils ont trouvé pour combler leur choix du N4P. Donc si vous ne pouvez pas faire tourner à 60fps natif ou si vous détestez le FG, cette génération n'a aucun intérêt
Tu m as tuer avec l écho sur voix de la vidéo y a 4 mois ! 😅 oui tout ça prévisible ! Et ça m a pas empêcher une sortie chaotique avec peu stock et une demande énorme . On est décidément dans la matrice ❤
@ grâce aux allocations partenaires 6 cartes + 2 Fe . Ce stock est ridicule face à la demande , et hors de question de jouer le jeu des scalpeurs en jouant sur inflation . En plus ça tombe en plein nouvel an chinois c est debile !
@ non pour une sortie c est très faible , et les re appros vont être faible c est déjà acté , a quoi ça sert de faire un lancement pareil ? A part énerver tout le monde !
Merci pour cette vidéo, cela me conforte dans l'idée d'attendre la gen 60XX voire 70XX. Vu le matos que j'ai et l'utilisation que j'en fais, je peux largement attendre.
Bin sans surprise c'est juste un refresh des RTX4000Super . Y'a juste 2 nouveaux software et ils ont mis à jours les autres soft , mais les même soft seront mis a jour ensuite sur RTX4000 (et à priori ils vont ce forcer à mettre a jours un peu les RTX3000... (oui juste un peu car faut pas trop en demander non plus , on est chez Nvidia c'est programmé pour devenir obsolète tout les 4 ans ...) . Bref les seul argument marketing qu'ils ont c'est "Nous avons améliorer certains software comme le DLSS (qui soit disant n'est pas réellement un software mais plutôt du "semi-hardware" ... Ce qui est totalement faux) , passage au PCIe 5.0 (sachant que c'est pas comme a l'époque du passage du PCIe 3.0 au PCIe 4.0 ou la il y avait une vraie différence car le PCIe 3.0 avait plus de 10 ans) , alors que le PCIe 4.0 fête tout juste ces 5 ans ... Donc faut pas s'attendre a des miracles et pour la GDDR7 pareil c'est la toute première génération, et on est loin des promesses tenu par SK-HYNIX ( abricant puce vram , ainsi que Samsung). Bref a cause des largeur de bus pas folichon le gain de perf de la vitesse de la bande passante n'est pas incroyable... (Alors que c'était censé être 3 fois plus performant que la GDDR6... Sauf qu'il suffit de voir les specs pour voir que l'ecart n'est pas incroyable) . Bref 2025 n'est pas un cran cru , on passe pas sur des vrais NEXT-GEN !! Pareil je dénonce NVIDIA en prevenant les gens depuis plus de 6 mois... (Car j'ai eu la chance d'avoir les fiches techniques Largement en avance , et on a bien vue que sur les fiches final (définitive) , il n'y à pas eu beaucoup de changements. La première génération en GDDR7 est prometteur mais qu'a partir des BUS de 380/384bits (sauf que cette largeur de bus maintenant est réservée aux GPU haut de gamme ...) , c'est triste car pendant des années AMD Radeon ce faisaient bacher car ils exploiter correctement la VRAM en y ajoutant des bus de 256 à 512Bits même sur du milieu de gamme , même parfois sur l'entrée de gamme ... Alors que de nos jours l'entrée de gamme c'est 128bits ... (Et le tres bas de gamme en 64 bits , même si il y en à pas eu depuis les RX6400/6500 , et des RTX4010 et autres modèles bas de gamme NVIDIA qui n'ont même pas été mis en vente en Europe (en tout cas pas en France) , pourtant la RTX4010 4 ou 8Gb est sortie en 2024 ... Honnêtement la c'est trop de douille pour aller acheter les yeux fermés !!! Et surtout il faut pas acheter Day-One , car pour info il y a très peu de stock de RTX5000 , même Radeon ont repoussé la sortie pour plusieurs raison dont la principale > faire plus de stock avant la sortie officelle (et ils en profitent pour optimiser les nouvelles puces RDNA4.0 au maximum avant qu'elles denarquent en mars 2025). Pour la quantité de VRAM même si 12 et 16Gb c'est suffisant pour la plupart des usage et jeux vidéo, quand on vois les tarifs c'est pas du tout justifier ... NVIDIA ont toujours été radin sur la VRAM, certe ils ont fait un effort sur les RTX4000/4000Super ... Mais la ils nous prennent clairement pour des pigeons. Même si avoir trop de vram par rapport a la taille du bus et autre , c'est du gaspillage, mais au moins cela permet de justifier les prix et c'est bien plus futur proof . Comme par exemples sur les RX7600XT 16Gb et la 4060Ti 16Gb faut savoir que c'est bridé par les 128 bits et qu'en réalité en les poussant au maximum elles utilisent pas plus de 12Gb ... Mais sur des gamme avec 256bits / 384 bits et 512 bits on peu donc facilement profiter des 16Gb sur 256bits , 20 à 24Gb sur 380/384bits , et 32 à 48Gb de VRAM sur 512 bits ... (D'ailleurs ils en font sur les gamme semo-PRO avec les Radeon Pro W7800 32Gb et en version 48Gb pareil pour la W7900 avec 48Gb et la W7700 avec 16Gb ai lieu de 12Gb , côté NVIDIA on a les Ada génération >> RTX6000 48Gb et RTX5880 48Gb (pas de variante avec 32Gb et très similaire aux Radeon Pro d'AMD). Honnêtement je suis bien plus hype par la sortie des puces RDNA4.0 d'AMD Radeon !!! Même si les rumeurs court sur le fait qu'elels vont coûter bien plus chere que prévu... J'espère que c'esr fake et que nous aurons des tarifs attractifs !!! La 5090 c'est une 4090Ti en réalité avec un peu plus de VRAM ... (Et qqes bricole en plus mais pas une différence incroyable) , d'ailleurs il y a eu la version de la 4090 unlock (avec donc les 21000 cuda core) , qu'ils ont venid a quantité limité. Et ils ne l'ont pas sorti en version Ti car elle aurait été a peine 10% moins perf que la 5090... Donc ils auraient pas pu vendre beaucoup de 5090 (sachant que dans tout les cas sur les gammes xx80 et xx90 c'est tres peu de vente , elles servent juste de vitrine pour NVIDIA et pour dire "Ouai c'est nous qu'on a la plus grosse nananereuuuh" ... Car pour info rien empêche AMD Radeon de sortir des cartes bien plus puissante que les RTX5080 et 5090 ... C'est juste que ça ce vend pas donc ils ne le font pas . C'est jusre logique et bien plus écologique. De plus AMD Radeon sont obsédé par la consommation, et leurs GPU qui sont de plus en plus puissant , consomment de moins en moins , et ce n'est pas pour rien qu'il font ça (je vous laisse découvrir les APU AMD/Radeon pour 2025 qui auront des puces iGP tellement incroyable qu'ils n'auront aucun concurrent dans ce domaine) , et surtout ils préparent le terrain pour les prochaines générations avec du "multi-GPU" (pour faire court 5 puce GPU en une seul puce , mais faut attendre que la conso soit bien maîtriser donc ca prend du temps mais ça fait 4 ans qu'AMD Radeon bosse sur ce projet , et quand ça va tomber elles vont faire mal , très très mal aux concurrents... NVIDIA ne ce rendent pas compte qu'AMD/Radeon misent sur le long terme ?! Sont ils a ce point prétentieux ?! J'ai hate de voir leurs tronche de NVIDIA quand les multi-GPU vont debarquer . Apres voila les choses peuvent evoluer et finalement ils vont nous pondre des trucs encore plus incroyable. Mais si AMD Radeon continu dans cette lancée et concrétise le projet , faut s'attendre a des masterclass!!! Sans oublier que niveau support/suivi logiciel sur RDNA y'a pas mieux que Radeon pour le moment . Même si NVIDIA ce force a essayer de faire pareil !! (Metrre a jours plusieurs générations c'est classique avec AMD , mais c'est rare avec NVIDIA pour faire très court) . 😁
Salut, Toujours sympa ces petites vidéos Clair que cette gen n'est si bien que ça, c'est une des plus faibles augmentations de perf entre gen. Le prix MSRP est moins cher mais pour combien de CG ? À priori, ça va être peau de chagrin ; les autres fabricants, quand on voit les prévisions, ça fait peur. Mais au final, même au prix MSRP, ça reste bien trop cher, c'est du délire. Il y a une baisse des prix, oui, mais ils les ont tellement gonflés auparavant que ça reste très élevé. +1 Le vrai plus, c'est la founder avec la réduction de la taille à 2 slots + le système de refroidissement ; les autres fabricants vont nous sortir des parpaings Les techno c'est bien, mais la R&D a toujours existé sauf que maintenant NVidia utilise ça pour normaliser des prix injustifiés bien trop élevés Et oui, le monde merveilleux du marketing... la 5070 avec des perf de 4090 soit disant lol Toujours pas de prix définitifs pour les 9070 et 9070 XT... Faut vraiment attendre et probablement pour un petit moment quand même
J'ai bien aimé l'intro lol ! Et oui certains l'avaient bien prédits (comme Jigfio et toi ) la 5080 en vrai pour quelqu'un qui a une carte datant de 4-5 ans pourquoi pas mais vu les tarifs et la non disponibilité ( beau foutage de gueule de la part de Nvidia ,encore une fois ) pour le moment je conseillerai plus d'attendre les carte d'AMD ,car avec un peu de chance elles vont proposer des choses intéressantes à des prix plus réalistes . Du moins il faut l'espérer parce que là ,AMD ont carrément un boulevard devant eux pour faire mal à Nvidia ,à condition que les 9070 soient de sérieuses concurrentes aux rtx 5070 et 5070 ti à un tarif contenu . Mais pour ça il faut être capable de poser ses boulles sur la table ,ce que AMD n'a pas fait pour RDNA 3 . Donc wait and see ..
Francherment cette "gen" 5000, c'est de la daube. 30% de transitor en plus, 30% de conso en plus, 20% de fps. c'est un simple refresh avec du software msfg. Je mettrais pas 1200€ pour upgrade ma 3080. J'ai plutot investi 7$ dans lossless scaling et fait l'upgrade de mon vieux ips 60hz vers un oled 120hz. le framegen 60fps -> 120fps sur de l'oled, cest un régal pour les yeux :D
@ 50% de perf en plus avec un gap de 2 gen, c'est pas "ouf", non. J'en ai vu passé des cartes dans mes pc depuis la tnt2 et jamais le gain de perf n'a été aussi faible pour un tarif aussi élevé... enfin chacun fait ce qu'il veut de son fric :D
Issou félicitation tu as tout vu des mois à l’avance 😅 Déjà sur les 4000 le gap était très moyen en dessous de la 4080 mais le rapport perf/prix est horrible. On a maintenant les x3D qui font pareil côté CPU . La bulle va finir par éclater
A peine 5-10% de performances en plus, car ils ont pas osé booster le nombre de cœurs/unités de calcul. Sans doute qu'ils faisaient face à des contraintes au niveau de la bande passante mémoire. C'est qu'il faut du débit mémoire pour alimenter toutes ces ALUs. Mais la solution de facilité était de ne pas toucher au système mémoire, ne pas augmenter la mémoire, sa bande passante, ne pas toucher aux caches, et j'en passe. Alors on fait avec ces contraintes et on n'a pas besoin de rajouter plein d'ALU ou d'augmenter le nombre de cœurs. NVIDIA se repose sur leurs lauriers. Un problème que je vois avec ces nouvelles cartes, c'est que le DLSS et les autres technos IA sont adossées à la carte, alors qu'elles sont en théorie indépendantes du hardware. Et en plus, c'est des technos propriétaires. Dans l'idéal, il faudrait des technologies standards, non-liées à une carte graphique. Standard, car on pourrait les comparer à l'identique entre deux cartes. Là, on sat pas quelle techno est la meilleure entre NVIDIA et AMD, celle qui donne les meilleures frames, le meilleur framerate, etc. A la place, on a beaucoup de promesses et d'implémentations différentes qui sont de véritables boites noires. L'idéal pour tromper le consommateur, ou du moins lui faire avaler des pilules dont il ne voudrait pas.
@@gaultierm811 Désolé pour la réponse tardive, mais je dois amender ma réponse : une bonne partie de la conso provient en réalité du bus mémoire de 512 bits, pas des unités de calcul proprement dit. Ils ont élargit le bus mémoire et remplacé la GDDR6 par de la GDDR7, la bande passante mémoire a augmenté, mais la conso aussi. Le but était d'augmenter les perfs en IA, pas en graphique. Et pour les ALUs, ils étaient un peu limité par la taille du GPU, qui est énorme et s'approche de la reticule size, la taille "maximale" que tu peux en tirer à partir des procédés de lithogravure moderne. Donc ils auraient pu faire une carte qui consomme moins : laisser le bus mémoire à 384 bits, largement suffisant pour du graphique, mais pas assez pour de l'IA, rajouter des ALU au lieu de booster les tensor core, faire quelques tweaks, rajouter de la VRAM, laisser de la GDDR6, peut-être d'autres trucs. La limite liée à la reticule size doit bien les limiter. Ils auraient peut-être du bosser sur une archi en chiplet, en séparant le GPU en plusieurs, avec des AI core d'un côté et des graphic chip de l'autre.
Bonne analyse et bravo pour les prévisions. J'avais moi-même pensé la même chose au simple vu des caractéristiques techniques. Et il n'y a pas eu de miracles, c'est le moins que l'on puisse dire. Maintenant on comprend pourquoi les performances de la 4080 Super n'avaient augmenté que de 2% environ par rapport à la simple 4080. Sinon elle aurait battue la 5080 et cette dernière aurait été encore plus ridicule aujourd'hui. Nvidia va salir durablement son image avec cette génération qu'on qualifiera très pudiquement de décevante. Vendre une 5080 avec les performances qu'aurait dû avoir une 5070 mais pour le prix d'une 5080, c'est gonflé quand même. Sans compter ses mensonges par omission sur les performances annoncées (comparatif rasterisation pure pour les anciennes cartes contre Frame Generation activé sur les nouvelles, c'est de la triche, un peu comme si c'était du dopage en fait). Le seul moyen de sauver cette 5080 c'est de baisser nettement son prix pour la ramener au niveau d'une 5070 TI. Et vu les marges généreuses de Nvidia - on parle ici et là de 50/60 % ! - et si c'est réellement le cas, cela ne devrait pas être impossible. Si les joueurs n'auront (presque) rien gagné en terme de performances au moins ils auront quand même gagné en rapport performances/prix. Je ne vois que ça pour la sauver. Voilà les conséquences du manque de concurrence et Nvidia en profite quitte à mépriser ses clients. Si Nvidia reste seul dans le haut de gamme, il est inutile d'attendre des miracles avec la future série 6000 qui risque d'être risible elle aussi (Frame Generation X16 ?)
Venant d'une 2080 je suis content d'avoir pu prendre une 5080 pour le prix dune 4080^^ Le gap est pas fou mais au moins les prix se sont pas envolé (je parle pas de la gamme 90 ) . Et avant tout était a faire dans la tech cest finnito les gros gap tout les deux ans .
Salut en effet peut d'evolution. J'aurais aimé plus de vram, tout comme tu dit cest justz pour un meilleur dlss. Si il aurais suivi la logique des 32go de 5090 on aurais des 5080 et ti avec 28go, des 5070 et ti 24go, des 5060 et ti 20go et les 5050 et ti 16go. La ce serais super cool et coérent.😊
00:53 Ah !! Il l avait dit !! Et on doit croire aveuglément à ses prévisions ! ( le genre de précision où c est 50/50, soit ils seront déçus des perf, soit non, c est quel niveau de divination ? ^^ ) Je me disais " tiens ça se voit qu il montrer qu il avait raison ( pour de mauvaises ou de bonnes raison ) et j aurai imaginé qu il repasse donc la vidéo où il parle ! Pas manqué ! Et tu te souviens le jour là ... ouai tu sais le jour tu sais que ... ouai bah ce jeudi là J AVAIS RAISON !!é
Il n'a aucun raisonnement logique, on ne peut pas te reprocher d'avoir eu une prévision avec des éléments tangibles et logiques. Tu peux être fier de toi au contraire.
perso j attend de voir les bench voir ce que valent c est carte je parle de test dans stable diffusion ollama et en cao les gpu cest pas que pour les jeux video bon sang
8 днів тому
s'il une seule et unique chose de vraiment décevant, c'est de tristement constater la chose factuelle que le marché du neuf est mort Seul l'occasion peut s'avérer vraiment intéressant. Hors les cartes les plus chères style 4090. Le problème n'est clairement pas les perfs, mais les prix, d'ou le fait que je persisite sur l'occasion. Je ne suis clairmeent pas sûr que la 5060 ti dispose du niveau de perf d'une 3080 ti, que l'on retrouve a 400 balles tout doucement. 13:03 Je t'arrête tout de suite sur le frame gen, pour une raison principalement. Tu l'a dit toi-même, les images sont générés artificiellement, faisant que certes, sur le papier, tu peut obtenir un nombre d'image par seconde plus proche du taux de rafraichissement de ton ecran. Sauf que, et on l'a remarque sur bon nombre de bench, la latence n'était pas plus basse en activant le frame gen. Soit ca restait au même niveau, soit légèrement plus haut. Du coup, cela rend totalement caduque cet argument de fluidité, car à quoi bon avoir le même niveau de latence que j'ai 180 ou 300 fps, en sachant que de par sa nature, le frame gen génère de la latence, que tu souligne par ailleurs. Toutefois, rendons à césar ce qui appartient à césar, le frame gen s'est immensément amélioré, mais pas encore suffisamment pour que je me dise de l'activer sur CS ou autre jeux.
Je voulais m’acheter une 4060 d’occasion et sur Leboncoin elles sont plus chères qu’en neuf j’ai payé la mienne neuve 269e avec la livraison en promo, en occasion c’est dur d’en trouver une à moins de 300e les vendeurs se font plaisir
J'attends plus les RX. Moi qui pensait qu'on allait pouvoir avoir au minimum du 120ips en path tracing sur Cyberpunk en 2k alors que c'est 60ips avec la RTX5090... Un peu déçu j'avoue.
J'ai toujours eu des cartes ATI (ma premiere, une Rage Pro, que j'ai toujours !), puis AMD jusqu'à ce que je passe d'une HD6850 à Nvidia avec une 560Ti 448 cores (une super carte bâtarde avec une puce de 570 bridée à 95%) et depuis je suis resté pour leurs consos maitrisées et les technos propriétaires). Mais je n'achèterais pas de 5000, en vrai y'a pas d'urgence. Mais si les perfs des AMD9000 se confirment avec des consos en baisse et que Nvidia ne s'améliore pas en rastérisation, je repasserais sans hésitation chez AMD ! La seule chose que je regretterai, ce sera l'upscaler DLSS... mais la concurrence travaille sur leurs équivalents
Les gens sont choqué de voir si peu de diff entre les gen sans savoir que ça a presque toujours été comme ça. Et que la Nvidia a pris le virage de L'IA et de la Framegen plutôt que du raster pur. Les gens ne vois que des fake FPS par dessus ça alors que chez AMD la pilule passe tranquille avec l'AFMF2 qui est aussi un frame gen. Perso la VRAM je ne vois pas le soucis , c'est aux jeux de faire de l'opti , je trouve ça dingue de dire a Nvidia de mettre de la VRAM alors que des jeux bien opti tournent sur des CG en 12Go ultra sans soucis. Aux 3000 les gens ce plaignait de l'inutilité de faire des carte avec trop de VRAM maintenant on va en manquer. C'est le seul discours que je ne rejoint pas.
Bon bah go acheter la RTX 5090 pour avoir un vrai gap générationnel de 30 %, j'ai plus qu'à attendre 3 ou 4 mois l'arrivée du stock et la stabilisation du prix en dessous de 2500 €.
Les gens qui se sont jeté comme des sauvages sur les 5080 vont se mordre les doigts quand les 5080Ti ou super seront là avec probablement plus de performance que les leurs 😅 comme quoi il vaut mieux apprendre à être patient au lieu de vouloir avoir la dernière nouveauté.
Personne a capté l'augmentation des performances en IA/Tensor qui a plus que doublé entre la 4080 et la 5080 krkrkrkrrkrkr On ne peut pas en vouloir au grand public puisque les options graphiques utilisant cette partie de la puce sont encore trop rares et toujours rattachées au reste des coeurs. On retombe un peu à l'époque de la RTX 2080 qui devait battre les cartes AMD tout en n'utilisant que les coeurs CUDA de sa puce pendant que les coeurs RT et les Tensor dormaient à côté.
Apparemment, j'ai vu une analyse de l'architecture de la 5090 sur la chaine High Yield, qui dit clairement que la puce a été concue pour l'IA. Elle a un sous-système mémoire très performant, mais des perfs de calcul pas vraiment augmentées en FP/INT scalaire/vec, alors que tout ce qui est IA/Tensor a bien augmenté. Et ces décisions d'en faire un chip purement IA expliquent tous les défauts des cartes : pourquoi elles chauffent, sont pas performantes, pourquoi c'est cher, etc.
Au contraire, les coeurs tensor ont été mis à jour afin de pouvoir maintenant supporter un niveau de précision FP/INT deux fois plus bas qu'auparavant et coup de chance, la plupart des calculs matriciels peuvent également tourner à un niveau de précision encore plus bas donc bim bam boum ça double la performance magiquement. Après oui Nvidia essaye de jouer sur deux tableaux en même temps en essayant de faire en sorte que les jeux vidéos se mettent à utiliser des fonctionnalités graphiques qui se servent de ces fameux coeurs tensor qu'Nvidia vend également à prix d'or sur le marché des infrastructures numériques. Sauf que comme en 2018, personne ne sait encore quoi faire des coeurs tensor à part débruiter du raytracing brut donc c'est pour ça qu'Nvidia va avoir besoin de faire très rapidement la publicité des nouveautés graphiques pour justifier ce coup de poker sur les coeurs tensor de ses nouvelles cartes.
rien du tout c'est cette génération qui viens de créer un break avec ce qui ce faisait. On viens de s'orienter sur des carte Software la ou les anciennes était des cartes hardware. Les 6000 seront un refresh des 5000 avec un peu plus de tout dedans.
La RTX5080 est une moitié de RTX5090 comme la RTX4070ti est la moitié d'une RTX4090.... Ainsi, Nvidia décale encore les prix sur les gammes à chaque génération (La RTX5080 succède en fait à la RTX4070ti par rapport à leur gamme respective) .
C'est toute la gamme Nvidia qui est décevante prix , perf dispo stock etc ....Nvidia ne pense qu'à une seule chose sa marge confortable à 60% et son bénéfice par action et fait tout pour atteindre son objectif au détriment de la qualité et surtout au détriment de ceux qu'ils l'ont fait connaitre la marque :les joueurs . Ils ne jurent que par l'IA et ses juteux profits qu'il y a la clef ( ils n'ont pas le monopole de cette stratégie à 2 balles AMD c'est pareil ) . Malheureusement tant qu'il y aura 0 concurrence en face ils continueront cette mascarade et nous feront le même cinéma à chaque sortie .
Moi j'suis team 4060 et CG à moins de 140W de conso max ....alors le délire des 5080/5090 ....ça me fait rire ... Par contre les histoires de prix abusifs me font moins rire , ça se repercute partout et la radinerie sur la VRAM idem. Merci.
Il vaut mieux acheter des actions Nvidia que des cartes graphiques vu comment elles s'arrachent toutes à la sortie peu importe le gap générationnel haha ... Je suis quand même déçu des performances globales en raster, j'ai une 7900 XTX et en natif elle n'a pas grand chose à envier à la 5080 c'est quand même scandaleux.
Aucune carte n'est intéressante en dehors de la 5090 La 5080 environ 8% de plus que la 4080 Super et toujours 16gb c'est trop la honte La 5070Ti pourrait être une bonne value si elle était un peu moins chère et qu'elle avait un modèle Founders pour éviter les raise de prix de la part des revendeurs (de toute façon même le prix MSRP est bien 150€ trop cher) La 5090 offre une bonne plus value elle a un vrai gain de perf mais son tarif est trop élevé pour ce qu'elle propose J'ai une 4080 Super et si j'upgrade ce sera la 5090 parce que j'ai pas de problèmes d'argent et que les 16gb sont limite en 4K sur certains jeux, mais ce sera pas en ayant l'impression d'avoir fait une bonne affaire et je serai pas en extase totale. Et je suis même pas certain de le faire parce que les problèmes de stuttering récurrents sur les derniers jeux commencent à m'éloigner du jeu PC pour retourner sur console petit à petit
Nvidia n'a qu'a allez se faire endoffer.. Je garde ma 3080 12go Prendre les consommateurs pour des vaches à lait ça suffit; les gens sont fous d'acheter des gpu aussi cher.
Hello ! Je doute fortement que 16 Go de Vram soit vraiment problématique d'ici 3-4 ans... Sauf à jouer systématiquement en 4K avec détails hauts sur tous les jeux AAA, mais dans ce cas, cela concerna 1 ou 2 % des joueurs !
@@Mazric85 certains jeux utilisent déjà 12/13 Go en 4k avec la 5080 (cyberpunk, star wars, alan wake) donc on devrait vite y arriver sur certains titres.
Ces nouvelles cartes sont justement faites pour jouer en 4K avec des détails hauts. ça concerne déjà plus que 1 ou 2% des joueurs, mais surtout une beaucoup plus grandes proportions des clients de ces cartes.
8 днів тому
@@hardwarearchive7406 Tu n'est pas sans savoir que certains jeux aiment bien occuper la VRAM, quand bien même cela ne soit spécifiquement nécéssaire afin d'avoir une expérience satisfaisante du jeu. Bien sûr, cela trouvera ses limite, mais je suis convaincu qu'en restant raisonnables sur les détails graphiques (maximum élevée, la 5080 saura vivre quelques années sans trop de soucis). Pareil avec ma 3060 ti, si j'arrive a jouer en 1440p, c'est parce que je régle mes jeux en moyen, voire élevée selon les jeux et ca marche très bien. Et tant que ca marche, pas de quoi s'affoler.
Surtout que en overclockant une RTX 4080 Custom on peut largement ce rapprocher des performances d’une 5080 donc en soit on obtient déjà une 4080Ti sans être Ti dans la boite quelques petits conseil de la part de Jigfio et c’est QFD Mdr
@@wannou5620 je peux déjà faire 10% sur une RTX 4000 en plus 15% pour les 5000 c'est pas ce jigfio a dit ni même NVIDIA en général c'est entre 8 et 10% maximum donc soit tu rêve avec ton turbo imaginaire soit tu espères que cela soit réellement réel après y'a les watercooling custom mais NVIDIA donné 15% en OC alors que 10% sa leurs fait chier même AMD déja Ahhhh ceux qui croient encore que NVIDIA ou AMD sont des mère Thérèsa ce qui n'est pas le cas en vrai
Cette carte est tellement nulle,c’est juste la 3 ieme carte la plus rapide à sa sortie… à part cela je penses que personne ne se rend compte que le rendu va connaître une révolution la rasterisation a de forte chance d’être remplacer par de la générations IA guidée par de la géométrie beaucoup plus simple… il est assez facile de créer par IA un feuillage ultra réaliste à partir d’un simple volume sans avoir à gérer des millions de face, ni des calculs de transluence, de scattering …. Il y a aussi le gaussian splating qui risque d’arriver dans le jeu vidéo
Je vais regarder ta vidéo mais j'espère que tu ne vas pas nous faire du nvidia c'est des méchants les technologies c'est nul vive la force brute parce que je pense qu'il faut un peu des deux et oui le gap allait pas être fou c'est sûr
J’ai la 4070 ti 12 go je joue en 21/9 je pense jouer dlss équilibre version dlss 4 c’est vraiment ouf la qualité sur cp2077, Alan wake 2 et Spiderman 2 ( dlss4). J’ai comparé sur l’ancienne version dlss on voit bien la différence. Je pense le Dlss 4 équilibré = dlss qualité ancienne version . Je vais garder max 2 ans cette carte
Bon je n'explique pas pourquoi mes réponses disparaissent Vraiment de la daube ce youtube Excellente vidéo en tout cas ! Et nous attendons ton retour sur ton discord 😉
Belle intro. Beau boulot. Merci. A bientot
Merci pour la vidéo.
VCG est incroyable. Et ta vidéo aussi. ^^
Pour moi cette génération est vraiment pas terrible, 30% de transistor pour 30% de performance en plus et donc 30% de consommation en plus.
Ce n'est pas ce que j'appelle une évolution mais plutôt une stagnation. Sans oublier le performances prix qui reste presque le même.
Très bon résumé et je suis d'accord pour dire que David a également fait un test très poussé et compréhensible.
Prend soin de toi Clément et de tes proches. ;)
Au bout d'un moment faut arrête de raller sur la consommation...
@@paladiumcheat Ah bon ? Ils faudrait donc les laisser consommer de plus en plus ? On a déjà atteint 600 watts sur une CG et tu voudrais que cela ne soit pas critiquable ?
Pour ceux qui veulent en savoir plus sur cette carte au niveau technique, je recommande la dernière video de la chaine High Yield, en anglais. On y apprend pas mal de trucs, notamment au niveau de pourquoi c'est cher (le yield est censé être catastrophique), pourquoi les perfs sont nulles (c'est un GPU optimisé pour l'IA avec une mémoire très rapide, mais qui n'a pas besoin de beaucoup de puissance de calcul), et j'en passe.
11:21 "Ça n'a pas de sens de râler c'est juste une option" Stop avec cet argument de commercial... Le principe d'une option c'est d’être optionnelle, hors elle est imposée et absolument pas gratuite loin de là.
Le coût de développement de cette techno se répercute sur le prix final du produit, techno avec utilisation optionnelle oui ok... Mais avec obligation de l'avoir et de la payer au prix fort.
Conclusion: Si si, en tant que consommateur c'est complétement légitime de râler.
@@taurel2013 si tu ne veux pas financer la R&D du frame gen d'Nvidia car visiblement ça te dérange, prend une carte AMD, voir intel, chez intel pas de frame gen.
@hardwarearchive7406 On est bien d'accord. En plus par la même occasion tu valides ce que je dis
@taurel2013 du coup tu râle bien pour rien
C'est une option obligatoire, sauf si tu veux revenir aux perfs de l'ancienne gén ! J'irais pas jusqu'à dire que c'est du cache misère mais c'est la solution qu'ils ont trouvé pour combler leur choix du N4P. Donc si vous ne pouvez pas faire tourner à 60fps natif ou si vous détestez le FG, cette génération n'a aucun intérêt
Il y a à eu une carte intermédiaire, la 4080s.
L'intro incroyable 😍 Et oui l'oracle tu l'avais prédit...
J’aime beaucoup la miniature de cette Magnifique vidéo 👍
Bonne video ! 😉👍
Tu m as tuer avec l écho sur voix de la vidéo y a 4 mois ! 😅 oui tout ça prévisible ! Et ça m a pas empêcher une sortie chaotique avec peu stock et une demande énorme . On est décidément dans la matrice ❤
Tu pique ma curiosité !
T'en a eu combien en boutique du coup, pour quel demande ?
@ grâce aux allocations partenaires 6 cartes + 2 Fe . Ce stock est ridicule face à la demande , et hors de question de jouer le jeu des scalpeurs en jouant sur inflation . En plus ça tombe en plein nouvel an chinois c est debile !
@Cortexjr ça fait pas énorme et encore je pense que tu as été mieux fournis que les autres
@ non pour une sortie c est très faible , et les re appros vont être faible c est déjà acté , a quoi ça sert de faire un lancement pareil ? A part énerver tout le monde !
Merci pour cette vidéo, cela me conforte dans l'idée d'attendre la gen 60XX voire 70XX.
Vu le matos que j'ai et l'utilisation que j'en fais, je peux largement attendre.
L'intro est énorme 👍
Bin sans surprise c'est juste un refresh des RTX4000Super . Y'a juste 2 nouveaux software et ils ont mis à jours les autres soft , mais les même soft seront mis a jour ensuite sur RTX4000 (et à priori ils vont ce forcer à mettre a jours un peu les RTX3000... (oui juste un peu car faut pas trop en demander non plus , on est chez Nvidia c'est programmé pour devenir obsolète tout les 4 ans ...) .
Bref les seul argument marketing qu'ils ont c'est "Nous avons améliorer certains software comme le DLSS (qui soit disant n'est pas réellement un software mais plutôt du "semi-hardware" ... Ce qui est totalement faux) , passage au PCIe 5.0 (sachant que c'est pas comme a l'époque du passage du PCIe 3.0 au PCIe 4.0 ou la il y avait une vraie différence car le PCIe 3.0 avait plus de 10 ans) , alors que le PCIe 4.0 fête tout juste ces 5 ans ... Donc faut pas s'attendre a des miracles et pour la GDDR7 pareil c'est la toute première génération, et on est loin des promesses tenu par SK-HYNIX ( abricant puce vram , ainsi que Samsung). Bref a cause des largeur de bus pas folichon le gain de perf de la vitesse de la bande passante n'est pas incroyable... (Alors que c'était censé être 3 fois plus performant que la GDDR6... Sauf qu'il suffit de voir les specs pour voir que l'ecart n'est pas incroyable) .
Bref 2025 n'est pas un cran cru , on passe pas sur des vrais NEXT-GEN !!
Pareil je dénonce NVIDIA en prevenant les gens depuis plus de 6 mois... (Car j'ai eu la chance d'avoir les fiches techniques Largement en avance , et on a bien vue que sur les fiches final (définitive) , il n'y à pas eu beaucoup de changements.
La première génération en GDDR7 est prometteur mais qu'a partir des BUS de 380/384bits (sauf que cette largeur de bus maintenant est réservée aux GPU haut de gamme ...) , c'est triste car pendant des années AMD Radeon ce faisaient bacher car ils exploiter correctement la VRAM en y ajoutant des bus de 256 à 512Bits même sur du milieu de gamme , même parfois sur l'entrée de gamme ... Alors que de nos jours l'entrée de gamme c'est 128bits ... (Et le tres bas de gamme en 64 bits , même si il y en à pas eu depuis les RX6400/6500 , et des RTX4010 et autres modèles bas de gamme NVIDIA qui n'ont même pas été mis en vente en Europe (en tout cas pas en France) , pourtant la RTX4010 4 ou 8Gb est sortie en 2024 ...
Honnêtement la c'est trop de douille pour aller acheter les yeux fermés !!! Et surtout il faut pas acheter Day-One , car pour info il y a très peu de stock de RTX5000 , même Radeon ont repoussé la sortie pour plusieurs raison dont la principale > faire plus de stock avant la sortie officelle (et ils en profitent pour optimiser les nouvelles puces RDNA4.0 au maximum avant qu'elles denarquent en mars 2025).
Pour la quantité de VRAM même si 12 et 16Gb c'est suffisant pour la plupart des usage et jeux vidéo, quand on vois les tarifs c'est pas du tout justifier ... NVIDIA ont toujours été radin sur la VRAM, certe ils ont fait un effort sur les RTX4000/4000Super ... Mais la ils nous prennent clairement pour des pigeons. Même si avoir trop de vram par rapport a la taille du bus et autre , c'est du gaspillage, mais au moins cela permet de justifier les prix et c'est bien plus futur proof .
Comme par exemples sur les RX7600XT 16Gb et la 4060Ti 16Gb faut savoir que c'est bridé par les 128 bits et qu'en réalité en les poussant au maximum elles utilisent pas plus de 12Gb ... Mais sur des gamme avec 256bits / 384 bits et 512 bits on peu donc facilement profiter des 16Gb sur 256bits , 20 à 24Gb sur 380/384bits , et 32 à 48Gb de VRAM sur 512 bits ...
(D'ailleurs ils en font sur les gamme semo-PRO avec les Radeon Pro W7800 32Gb et en version 48Gb pareil pour la W7900 avec 48Gb et la W7700 avec 16Gb ai lieu de 12Gb , côté NVIDIA on a les Ada génération >> RTX6000 48Gb et RTX5880 48Gb (pas de variante avec 32Gb et très similaire aux Radeon Pro d'AMD).
Honnêtement je suis bien plus hype par la sortie des puces RDNA4.0 d'AMD Radeon !!! Même si les rumeurs court sur le fait qu'elels vont coûter bien plus chere que prévu... J'espère que c'esr fake et que nous aurons des tarifs attractifs !!!
La 5090 c'est une 4090Ti en réalité avec un peu plus de VRAM ... (Et qqes bricole en plus mais pas une différence incroyable) , d'ailleurs il y a eu la version de la 4090 unlock (avec donc les 21000 cuda core) , qu'ils ont venid a quantité limité. Et ils ne l'ont pas sorti en version Ti car elle aurait été a peine 10% moins perf que la 5090... Donc ils auraient pas pu vendre beaucoup de 5090 (sachant que dans tout les cas sur les gammes xx80 et xx90 c'est tres peu de vente , elles servent juste de vitrine pour NVIDIA et pour dire "Ouai c'est nous qu'on a la plus grosse nananereuuuh" ... Car pour info rien empêche AMD Radeon de sortir des cartes bien plus puissante que les RTX5080 et 5090 ... C'est juste que ça ce vend pas donc ils ne le font pas . C'est jusre logique et bien plus écologique.
De plus AMD Radeon sont obsédé par la consommation, et leurs GPU qui sont de plus en plus puissant , consomment de moins en moins , et ce n'est pas pour rien qu'il font ça (je vous laisse découvrir les APU AMD/Radeon pour 2025 qui auront des puces iGP tellement incroyable qu'ils n'auront aucun concurrent dans ce domaine) , et surtout ils préparent le terrain pour les prochaines générations avec du "multi-GPU" (pour faire court 5 puce GPU en une seul puce , mais faut attendre que la conso soit bien maîtriser donc ca prend du temps mais ça fait 4 ans qu'AMD Radeon bosse sur ce projet , et quand ça va tomber elles vont faire mal , très très mal aux concurrents... NVIDIA ne ce rendent pas compte qu'AMD/Radeon misent sur le long terme ?! Sont ils a ce point prétentieux ?! J'ai hate de voir leurs tronche de NVIDIA quand les multi-GPU vont debarquer . Apres voila les choses peuvent evoluer et finalement ils vont nous pondre des trucs encore plus incroyable. Mais si AMD Radeon continu dans cette lancée et concrétise le projet , faut s'attendre a des masterclass!!! Sans oublier que niveau support/suivi logiciel sur RDNA y'a pas mieux que Radeon pour le moment . Même si NVIDIA ce force a essayer de faire pareil !! (Metrre a jours plusieurs générations c'est classique avec AMD , mais c'est rare avec NVIDIA pour faire très court) . 😁
C’est quoi ce pavé? 😂
Salut,
Toujours sympa ces petites vidéos
Clair que cette gen n'est si bien que ça, c'est une des plus faibles augmentations de perf entre gen.
Le prix MSRP est moins cher mais pour combien de CG ? À priori, ça va être peau de chagrin ; les autres fabricants, quand on voit les prévisions, ça fait peur.
Mais au final, même au prix MSRP, ça reste bien trop cher, c'est du délire. Il y a une baisse des prix, oui, mais ils les ont tellement gonflés auparavant que ça reste très élevé.
+1 Le vrai plus, c'est la founder avec la réduction de la taille à 2 slots + le système de refroidissement ; les autres fabricants vont nous sortir des parpaings
Les techno c'est bien, mais la R&D a toujours existé sauf que maintenant NVidia utilise ça pour normaliser des prix injustifiés bien trop élevés
Et oui, le monde merveilleux du marketing... la 5070 avec des perf de 4090 soit disant lol
Toujours pas de prix définitifs pour les 9070 et 9070 XT...
Faut vraiment attendre et probablement pour un petit moment quand même
On peut rappeler su en tre la 4080 et la 4090 il y avait un gouffre?
Et que la 4090 n etait meme pas une puce complete?
Super stylée l'intro
Ok honnête ta vidéo merci
Par contre GG pour le petit PC à l’ancienne avec le logo Windows 98 histoire de savoir comment toutes a commencer à l’époque où je n’étais même née 👍😎
J'ai bien aimé l'intro lol !
Et oui certains l'avaient bien prédits (comme Jigfio et toi ) la 5080 en vrai pour quelqu'un qui a une carte datant de 4-5 ans pourquoi pas mais vu les tarifs et la non disponibilité ( beau foutage de gueule de la part de Nvidia ,encore une fois ) pour le moment je conseillerai plus d'attendre les carte d'AMD ,car avec un peu de chance elles vont proposer des choses intéressantes à des prix plus réalistes .
Du moins il faut l'espérer parce que là ,AMD ont carrément un boulevard devant eux pour faire mal à Nvidia ,à condition que les 9070 soient de sérieuses concurrentes aux rtx 5070 et 5070 ti
à un tarif contenu . Mais pour ça il faut être capable de poser ses boulles sur la table ,ce que AMD n'a pas fait pour RDNA 3 .
Donc wait and see ..
C’est carte graphique RTX 5000 en fonders me font rappeler un peu les modèles de RTX 3070 et 3060Ti avec leurs doubles ventilateurs
Francherment cette "gen" 5000, c'est de la daube. 30% de transitor en plus, 30% de conso en plus, 20% de fps. c'est un simple refresh avec du software msfg. Je mettrais pas 1200€ pour upgrade ma 3080.
J'ai plutot investi 7$ dans lossless scaling et fait l'upgrade de mon vieux ips 60hz vers un oled 120hz. le framegen 60fps -> 120fps sur de l'oled, cest un régal pour les yeux :D
Je suis passé d'une 3090 à une 5080... euhhh... c'est un truc de ouf. Tu me fais rigoler.
@@giboune9352 Ouais rien que le gap 3090 à 4090 était fou
@ 50% de perf en plus avec un gap de 2 gen, c'est pas "ouf", non. J'en ai vu passé des cartes dans mes pc depuis la tnt2 et jamais le gain de perf n'a été aussi faible pour un tarif aussi élevé... enfin chacun fait ce qu'il veut de son fric :D
C'est 60% de rasterisation d'une 3080 à une 5080. En 1440p
@@theshuff je viens de faire pleins de benchmarks entre mon ancienne 3090 MSI Trio gaming et ma 5080 Asus TUF... +63%
Issou félicitation tu as tout vu des mois à l’avance 😅
Déjà sur les 4000 le gap était très moyen en dessous de la 4080 mais le rapport perf/prix est horrible. On a maintenant les x3D qui font pareil côté CPU . La bulle va finir par éclater
A peine 5-10% de performances en plus, car ils ont pas osé booster le nombre de cœurs/unités de calcul. Sans doute qu'ils faisaient face à des contraintes au niveau de la bande passante mémoire. C'est qu'il faut du débit mémoire pour alimenter toutes ces ALUs. Mais la solution de facilité était de ne pas toucher au système mémoire, ne pas augmenter la mémoire, sa bande passante, ne pas toucher aux caches, et j'en passe. Alors on fait avec ces contraintes et on n'a pas besoin de rajouter plein d'ALU ou d'augmenter le nombre de cœurs. NVIDIA se repose sur leurs lauriers.
Un problème que je vois avec ces nouvelles cartes, c'est que le DLSS et les autres technos IA sont adossées à la carte, alors qu'elles sont en théorie indépendantes du hardware. Et en plus, c'est des technos propriétaires. Dans l'idéal, il faudrait des technologies standards, non-liées à une carte graphique. Standard, car on pourrait les comparer à l'identique entre deux cartes. Là, on sat pas quelle techno est la meilleure entre NVIDIA et AMD, celle qui donne les meilleures frames, le meilleur framerate, etc. A la place, on a beaucoup de promesses et d'implémentations différentes qui sont de véritables boites noires. L'idéal pour tromper le consommateur, ou du moins lui faire avaler des pilules dont il ne voudrait pas.
La raison principale, c'est qu'il y aurait 100+W supplémentaire au compteur pour une carte qui consomme déjà beaucoup trop
@@gaultierm811 Désolé pour la réponse tardive, mais je dois amender ma réponse : une bonne partie de la conso provient en réalité du bus mémoire de 512 bits, pas des unités de calcul proprement dit. Ils ont élargit le bus mémoire et remplacé la GDDR6 par de la GDDR7, la bande passante mémoire a augmenté, mais la conso aussi. Le but était d'augmenter les perfs en IA, pas en graphique. Et pour les ALUs, ils étaient un peu limité par la taille du GPU, qui est énorme et s'approche de la reticule size, la taille "maximale" que tu peux en tirer à partir des procédés de lithogravure moderne.
Donc ils auraient pu faire une carte qui consomme moins : laisser le bus mémoire à 384 bits, largement suffisant pour du graphique, mais pas assez pour de l'IA, rajouter des ALU au lieu de booster les tensor core, faire quelques tweaks, rajouter de la VRAM, laisser de la GDDR6, peut-être d'autres trucs. La limite liée à la reticule size doit bien les limiter. Ils auraient peut-être du bosser sur une archi en chiplet, en séparant le GPU en plusieurs, avec des AI core d'un côté et des graphic chip de l'autre.
Bonne analyse et bravo pour les prévisions. J'avais moi-même pensé la même chose au simple vu des caractéristiques techniques. Et il n'y a pas eu de miracles, c'est le moins que l'on puisse dire.
Maintenant on comprend pourquoi les performances de la 4080 Super n'avaient augmenté que de 2% environ par rapport à la simple 4080. Sinon elle aurait battue la 5080 et cette dernière aurait été encore plus ridicule aujourd'hui.
Nvidia va salir durablement son image avec cette génération qu'on qualifiera très pudiquement de décevante. Vendre une 5080 avec les performances qu'aurait dû avoir une 5070 mais pour le prix d'une 5080, c'est gonflé quand même. Sans compter ses mensonges par omission sur les performances annoncées (comparatif rasterisation pure pour les anciennes cartes contre Frame Generation activé sur les nouvelles, c'est de la triche, un peu comme si c'était du dopage en fait).
Le seul moyen de sauver cette 5080 c'est de baisser nettement son prix pour la ramener au niveau d'une 5070 TI. Et vu les marges généreuses de Nvidia - on parle ici et là de 50/60 % ! - et si c'est réellement le cas, cela ne devrait pas être impossible. Si les joueurs n'auront (presque) rien gagné en terme de performances au moins ils auront quand même gagné en rapport performances/prix. Je ne vois que ça pour la sauver.
Voilà les conséquences du manque de concurrence et Nvidia en profite quitte à mépriser ses clients. Si Nvidia reste seul dans le haut de gamme, il est inutile d'attendre des miracles avec la future série 6000 qui risque d'être risible elle aussi (Frame Generation X16 ?)
Venant d'une 2080 je suis content d'avoir pu prendre une 5080 pour le prix dune 4080^^ Le gap est pas fou mais au moins les prix se sont pas envolé (je parle pas de la gamme 90 ) . Et avant tout était a faire dans la tech cest finnito les gros gap tout les deux ans .
Ma rx 6800 va encore tenir une gen entière
Au vu des specs entre les 4080 et 5080 c'était logique
Salut en effet peut d'evolution. J'aurais aimé plus de vram, tout comme tu dit cest justz pour un meilleur dlss. Si il aurais suivi la logique des 32go de 5090 on aurais des 5080 et ti avec 28go, des 5070 et ti 24go, des 5060 et ti 20go et les 5050 et ti 16go. La ce serais super cool et coérent.😊
@@esteve-r peut-être pas autant mais un peu plus 😅
00:53 Ah !! Il l avait dit !! Et on doit croire aveuglément à ses prévisions ! ( le genre de précision où c est 50/50, soit ils seront déçus des perf, soit non, c est quel niveau de divination ? ^^ )
Je me disais " tiens ça se voit qu il montrer qu il avait raison ( pour de mauvaises ou de bonnes raison ) et j aurai imaginé qu il repasse donc la vidéo où il parle ! Pas manqué !
Et tu te souviens le jour là ... ouai tu sais le jour tu sais que ... ouai bah ce jeudi là J AVAIS RAISON !!é
@@skorpion7319 c'était pas de la divination, je m'étais basé sur les caractéristiques techniques qui avaient fuité 🤷
@@skorpion7319 et surtout en quoi c'est un problème de revenir sur ce que l'on avait annoncé ?
C'est quoi qui te dérange avec ça ?
Il n'a aucun raisonnement logique, on ne peut pas te reprocher d'avoir eu une prévision avec des éléments tangibles et logiques. Tu peux être fier de toi au contraire.
perso j attend de voir les bench voir ce que valent c est carte je parle de test dans stable diffusion ollama et en cao les gpu cest pas que pour les jeux video bon sang
s'il une seule et unique chose de vraiment décevant, c'est de tristement constater la chose factuelle que le marché du neuf est mort
Seul l'occasion peut s'avérer vraiment intéressant. Hors les cartes les plus chères style 4090.
Le problème n'est clairement pas les perfs, mais les prix, d'ou le fait que je persisite sur l'occasion. Je ne suis clairmeent pas sûr que la 5060 ti dispose du niveau de perf d'une 3080 ti, que l'on retrouve a 400 balles tout doucement.
13:03 Je t'arrête tout de suite sur le frame gen, pour une raison principalement.
Tu l'a dit toi-même, les images sont générés artificiellement, faisant que certes, sur le papier, tu peut obtenir un nombre d'image par seconde plus proche du taux de rafraichissement de ton ecran.
Sauf que, et on l'a remarque sur bon nombre de bench, la latence n'était pas plus basse en activant le frame gen. Soit ca restait au même niveau, soit légèrement plus haut.
Du coup, cela rend totalement caduque cet argument de fluidité, car à quoi bon avoir le même niveau de latence que j'ai 180 ou 300 fps, en sachant que de par sa nature, le frame gen génère de la latence, que tu souligne par ailleurs.
Toutefois, rendons à césar ce qui appartient à césar, le frame gen s'est immensément amélioré, mais pas encore suffisamment pour que je me dise de l'activer sur CS ou autre jeux.
Je voulais m’acheter une 4060 d’occasion et sur Leboncoin elles sont plus chères qu’en neuf j’ai payé la mienne neuve 269e avec la livraison en promo, en occasion c’est dur d’en trouver une à moins de 300e les vendeurs se font plaisir
J'attends plus les RX.
Moi qui pensait qu'on allait pouvoir avoir au minimum du 120ips en path tracing sur Cyberpunk en 2k alors que c'est 60ips avec la RTX5090...
Un peu déçu j'avoue.
J'ai toujours eu des cartes ATI (ma premiere, une Rage Pro, que j'ai toujours !), puis AMD jusqu'à ce que je passe d'une HD6850 à Nvidia avec une 560Ti 448 cores (une super carte bâtarde avec une puce de 570 bridée à 95%) et depuis je suis resté pour leurs consos maitrisées et les technos propriétaires). Mais je n'achèterais pas de 5000, en vrai y'a pas d'urgence. Mais si les perfs des AMD9000 se confirment avec des consos en baisse et que Nvidia ne s'améliore pas en rastérisation, je repasserais sans hésitation chez AMD ! La seule chose que je regretterai, ce sera l'upscaler DLSS... mais la concurrence travaille sur leurs équivalents
Les gens sont choqué de voir si peu de diff entre les gen sans savoir que ça a presque toujours été comme ça. Et que la Nvidia a pris le virage de L'IA et de la Framegen plutôt que du raster pur. Les gens ne vois que des fake FPS par dessus ça alors que chez AMD la pilule passe tranquille avec l'AFMF2 qui est aussi un frame gen.
Perso la VRAM je ne vois pas le soucis , c'est aux jeux de faire de l'opti , je trouve ça dingue de dire a Nvidia de mettre de la VRAM alors que des jeux bien opti tournent sur des CG en 12Go ultra sans soucis. Aux 3000 les gens ce plaignait de l'inutilité de faire des carte avec trop de VRAM maintenant on va en manquer. C'est le seul discours que je ne rejoint pas.
Bon bah go acheter la RTX 5090 pour avoir un vrai gap générationnel de 30 %, j'ai plus qu'à attendre 3 ou 4 mois l'arrivée du stock et la stabilisation du prix en dessous de 2500 €.
Il y a 55% des joueurs sur steam qui joue avec des 3060 et on parle de 5080 lol qui a vraiment besoin de ça .
Les joueurs de Microsoft flight en VR
Ceux qui veulent jouer en 4K Path Tracing Ultra j'imagine, sinon la VR est extrêmement gourmande en rasterization.
Je suis supris qunil y ait des gens surpris 🤣.. tt les passionnés le savaient depuis le
Debut
Les gens qui se sont jeté comme des sauvages sur les 5080 vont se mordre les doigts quand les 5080Ti ou super seront là avec probablement plus de performance que les leurs 😅 comme quoi il vaut mieux apprendre à être patient au lieu de vouloir avoir la dernière nouveauté.
Personne a capté l'augmentation des performances en IA/Tensor qui a plus que doublé entre la 4080 et la 5080 krkrkrkrrkrkr
On ne peut pas en vouloir au grand public puisque les options graphiques utilisant cette partie de la puce sont encore trop rares et toujours rattachées au reste des coeurs.
On retombe un peu à l'époque de la RTX 2080 qui devait battre les cartes AMD tout en n'utilisant que les coeurs CUDA de sa puce pendant que les coeurs RT et les Tensor dormaient à côté.
Apparemment, j'ai vu une analyse de l'architecture de la 5090 sur la chaine High Yield, qui dit clairement que la puce a été concue pour l'IA. Elle a un sous-système mémoire très performant, mais des perfs de calcul pas vraiment augmentées en FP/INT scalaire/vec, alors que tout ce qui est IA/Tensor a bien augmenté. Et ces décisions d'en faire un chip purement IA expliquent tous les défauts des cartes : pourquoi elles chauffent, sont pas performantes, pourquoi c'est cher, etc.
Au contraire, les coeurs tensor ont été mis à jour afin de pouvoir maintenant supporter un niveau de précision FP/INT deux fois plus bas qu'auparavant et coup de chance, la plupart des calculs matriciels peuvent également tourner à un niveau de précision encore plus bas donc bim bam boum ça double la performance magiquement.
Après oui Nvidia essaye de jouer sur deux tableaux en même temps en essayant de faire en sorte que les jeux vidéos se mettent à utiliser des fonctionnalités graphiques qui se servent de ces fameux coeurs tensor qu'Nvidia vend également à prix d'or sur le marché des infrastructures numériques. Sauf que comme en 2018, personne ne sait encore quoi faire des coeurs tensor à part débruiter du raytracing brut donc c'est pour ça qu'Nvidia va avoir besoin de faire très rapidement la publicité des nouveautés graphiques pour justifier ce coup de poker sur les coeurs tensor de ses nouvelles cartes.
attendez les rtx 60 la on aura une vraie révolution
rien du tout c'est cette génération qui viens de créer un break avec ce qui ce faisait. On viens de s'orienter sur des carte Software la ou les anciennes était des cartes hardware. Les 6000 seront un refresh des 5000 avec un peu plus de tout dedans.
@@OdysséeDeLaTech tu verra un grosse évolution et a venir
La RTX5080 est une moitié de RTX5090 comme la RTX4070ti est la moitié d'une RTX4090....
Ainsi, Nvidia décale encore les prix sur les gammes à chaque génération (La RTX5080 succède en fait à la RTX4070ti par rapport à leur gamme respective) .
C'est toute la gamme Nvidia qui est décevante prix , perf dispo stock etc ....Nvidia ne pense qu'à une seule chose sa marge confortable à 60% et son bénéfice par action et fait tout pour atteindre son objectif au détriment de la qualité et surtout au détriment de ceux qu'ils l'ont fait connaitre la marque :les joueurs . Ils ne jurent que par l'IA et ses juteux profits qu'il y a la clef ( ils n'ont pas le monopole de cette stratégie à 2 balles AMD c'est pareil ) . Malheureusement tant qu'il y aura 0 concurrence en face ils continueront cette mascarade et nous feront le même cinéma à chaque sortie .
Elle s’adresse aux pigeons
Moi j'suis team 4060 et CG à moins de 140W de conso max ....alors le délire des 5080/5090 ....ça me fait rire ...
Par contre les histoires de prix abusifs me font moins rire , ça se repercute partout et la radinerie sur la VRAM idem.
Merci.
Il vaut mieux acheter des actions Nvidia que des cartes graphiques vu comment elles s'arrachent toutes à la sortie peu importe le gap générationnel haha ... Je suis quand même déçu des performances globales en raster, j'ai une 7900 XTX et en natif elle n'a pas grand chose à envier à la 5080 c'est quand même scandaleux.
J’ai un Magnifique écran 4K 144h donc sava pour la génération d’images
T'façon ils veulent pas de mon argent....impossible de trouver des cartes
La conso de cette génération est vraiment honteuse
Aucune carte n'est intéressante en dehors de la 5090
La 5080 environ 8% de plus que la 4080 Super et toujours 16gb c'est trop la honte
La 5070Ti pourrait être une bonne value si elle était un peu moins chère et qu'elle avait un modèle Founders pour éviter les raise de prix de la part des revendeurs (de toute façon même le prix MSRP est bien 150€ trop cher)
La 5090 offre une bonne plus value elle a un vrai gain de perf mais son tarif est trop élevé pour ce qu'elle propose
J'ai une 4080 Super et si j'upgrade ce sera la 5090 parce que j'ai pas de problèmes d'argent et que les 16gb sont limite en 4K sur certains jeux, mais ce sera pas en ayant l'impression d'avoir fait une bonne affaire et je serai pas en extase totale.
Et je suis même pas certain de le faire parce que les problèmes de stuttering récurrents sur les derniers jeux commencent à m'éloigner du jeu PC pour retourner sur console petit à petit
décevante mais tout le monde saute dessus mdrrrr entre 1200 et 2000 pour les 5080 sa part :)
Nvidia n'a qu'a allez se faire endoffer.. Je garde ma 3080 12go
Prendre les consommateurs pour des vaches à lait ça suffit; les gens sont fous d'acheter des gpu aussi cher.
non elle est bien juste 100 euros plus chère
Hello ! Je doute fortement que 16 Go de Vram soit vraiment problématique d'ici 3-4 ans... Sauf à jouer systématiquement en 4K avec détails hauts sur tous les jeux AAA, mais dans ce cas, cela concerna 1 ou 2 % des joueurs !
@@Mazric85 certains jeux utilisent déjà 12/13 Go en 4k avec la 5080 (cyberpunk, star wars, alan wake) donc on devrait vite y arriver sur certains titres.
Pour la Vr cela fait juste les 16 Go de Vram pour de gros simulateur de vol type DCS ou FS2020/2024.
Les jeux consomme de plus en ,je suis a 11 go sur 12sur black ops 6 en 3440x1440p en full ultra
Ces nouvelles cartes sont justement faites pour jouer en 4K avec des détails hauts. ça concerne déjà plus que 1 ou 2% des joueurs, mais surtout une beaucoup plus grandes proportions des clients de ces cartes.
@@hardwarearchive7406 Tu n'est pas sans savoir que certains jeux aiment bien occuper la VRAM, quand bien même cela ne soit spécifiquement nécéssaire afin d'avoir une expérience satisfaisante du jeu.
Bien sûr, cela trouvera ses limite, mais je suis convaincu qu'en restant raisonnables sur les détails graphiques (maximum élevée, la 5080 saura vivre quelques années sans trop de soucis).
Pareil avec ma 3060 ti, si j'arrive a jouer en 1440p, c'est parce que je régle mes jeux en moyen, voire élevée selon les jeux et ca marche très bien. Et tant que ca marche, pas de quoi s'affoler.
Surtout que en overclockant une RTX 4080 Custom on peut largement ce rapprocher des performances d’une 5080 donc en soit on obtient déjà une 4080Ti sans être Ti dans la boite quelques petits conseil de la part de Jigfio et c’est QFD Mdr
sauf que les 50 turbo dechire les 40 en oc
@wannou5620 de combien a combien parce que NVIDIA c'est pas AMD juste où cas où Mdr
@ 10 a 15 pourcents .
@@wannou5620 je peux déjà faire 10% sur une RTX 4000 en plus 15% pour les 5000 c'est pas ce jigfio a dit ni même NVIDIA en général c'est entre 8 et 10% maximum donc soit tu rêve avec ton turbo imaginaire soit tu espères que cela soit réellement réel après y'a les watercooling custom mais NVIDIA donné 15% en OC alors que 10% sa leurs fait chier même AMD déja Ahhhh ceux qui croient encore que NVIDIA ou AMD sont des mère Thérèsa ce qui n'est pas le cas en vrai
Issssooouuu :) Risitas5080
Ce qui est nul ce ne sont pas les cartes mais le foutage de gueule maketing
C est pas une nouvelle gen maisnun refresh avec le multi framegen en +
⚽👌
Référencement
Rtx 4090 avec dlss4 j suis au top !
Cette carte est tellement nulle,c’est juste la 3 ieme carte la plus rapide à sa sortie… à part cela je penses que personne ne se rend compte que le rendu va connaître une révolution la rasterisation a de forte chance d’être remplacer par de la générations IA guidée par de la géométrie beaucoup plus simple… il est assez facile de créer par IA un feuillage ultra réaliste à partir d’un simple volume sans avoir à gérer des millions de face, ni des calculs de transluence, de scattering …. Il y a aussi le gaussian splating qui risque d’arriver dans le jeu vidéo
Nvidia j'ai lâcher depuis les séries 1000
Je vais regarder ta vidéo mais j'espère que tu ne vas pas nous faire du nvidia c'est des méchants les technologies c'est nul vive la force brute parce que je pense qu'il faut un peu des deux et oui le gap allait pas être fou c'est sûr
@@lachainedesade8853 tu me diras ce que tu en pense quand tu auras fini 😉
Honnête ta vidéo tu es comme vcg tu aimes et tu connais le hardware ça change de certaines personnes merci pour ton travail
@lachainedesade8853 merci pour ton retour 😉
Comme d’habitude, excellente vidéo… je vais suivre ton conseil et garder ma 7900XT ! C’est vrai que le test de VCG était excellent!
Une bonne arnaque tout ça, de plus les prix des séries 4000 n'arrête pas de grimper, une 4090 a pris 1000 balles de plus en 6 mois lol...
je ne pense pas qu'il aura de rtx 5080 ti car il pas de carte amd en face.
J’ai la 4070 ti 12 go je joue en 21/9 je pense jouer dlss équilibre version dlss 4 c’est vraiment ouf la qualité sur cp2077, Alan wake 2 et Spiderman 2 ( dlss4). J’ai comparé sur l’ancienne version dlss on voit bien la différence. Je pense le Dlss 4 équilibré = dlss qualité ancienne version . Je vais garder max 2 ans cette carte
Bon je n'explique pas pourquoi mes réponses disparaissent
Vraiment de la daube ce youtube
Excellente vidéo en tout cas !
Et nous attendons ton retour sur ton discord 😉
@@Bbert-TX bizarre effectivement, le bot UA-cam ne doit pas t'aimer car il y a rien de problématique dans tes commentaires 🤷