Nvidia pour la 4060/ti et la 4070/super et 4070ti super au delà je conseille Amd pour la 7900xt contre la 4080 et la 7900xtx 😍 contre la 4090. Cette dernière cache bien son jeu mais rivalise avec la 4090 pour deux fois moins chère
C'est justement la carte à ne pas acheter désolé pour vous. Elle est hyper mal placée sur la grille tarifaire. Pas bcp plus puissante que la 7800xt mais bien plus chère et bcp moins puissante que la 7900xt qui a bien baissée et qui offre des perfs bien supérieures. Moi perso j'ai opté pour la 4070 y'a quelques mois et j'en suis très satisfait car joueur solo qui claque du ray tracing, path tracing en ultra avec le DLSS 3.5 tout passe sans dégradation d'image (ou très peu par rapport au FSR).
@@Steam-machine1999 et tu as bien raison vu la qualité du FSR et du FG qui dégradent nettement les images natives. Les cartes AMD sont en perfs bruts très bonnes donc pas besoin d'upscaling selon moi dans la plupart des jeux.
La 7900XTX en 4K, tant qu'on n'active pas le raytracing, elle se débrouille plus que correctement et je dirais même qu'une XTX pour du 1440p c'est totalement débile. Pour la 7900XT on peut en débattre mais acheter une XTX juste pour jouer en 1440p faut avoir de l'argent à gaspiller ou à la rigueur si on ne joue qu'à Alan Wake 2 qui est excessivement gourmand en ressources (et il y a sans doute d'autres jeux récents aussi gourmands mais ils ne doivent pas être si nombreux).
@@Kw4Mc je me demande bien quels tests tu as vu. Les AMD actuels sont des cartes spécialisées raster pour les joueurs multi compétitifs mais AMD a tendance à évoluer et nous verrons les séries 8 s'ils ils arrivent à gommer les imperfections des séries 7.
Les cartes NVidia ne consomment pas plus d’énergie que les cartes AMD comme tu as l'air de le dire vers 2:20. À mon avis c'est plutôt le contraire, Le mieux est l’ennemi du bien, il me semble que tu brasses une foule de généralités pour ne pas dire grand chose d'utile au final. On dirait une publicité.
C'est pa sle cas sur cette gen (RX7000 et RTX4000) mais ca a tjs été le cas depuis 2001 dsl et ayant tous les gpu existant de 2001 à 2020 sortie à ce jour je peut qu'en parlé. regard ela conso de la 3070 vs la 6800 normal, elel est identique pourtant la 3070 se prend 35% ^^. Ou encore la 6800XT avec ses 235/240w max vs 320/340 de la 3080 qui est elle aussi derrière de 10/12% ou encore la 6900XT et ses 253/255w vs 350 pour la 3080ti et 420/450 pour la 3090 derrière aussi. La 6950XT était la pire avec 293w (305 avec le PL au max) la ou la 3090ti était à 450 de base et 550 avec le PL au max. Si on remonte en arrière j'en ai d'autre, ma 1080ti EVGA FTW3 c'était 337w de base et 503 une fois oc (bien loin de ssoit disant 250w) et ma 980ti idem, 250 de base et 324 oc. A l'inverse mes 290X vapor-x était à 250w de base et une fois opti baisse à 184w, ma vega 56 c'était 1852w de base et 92 à 148w selon le jeu avec la hbm régler, idem pour la 64 avec bien sur plus de conso de base (220/230 baisser à 178/192). Nvidia s'est mi à tricher sur les conso dès la sortie des GTX700, ils ont baisser le power limite à -50 puis callé ca comme "0" dans le bios des cg et faiy croire qu'ils consommaient moin. Pk crois tu que du jour au lendemain on passe de -50/+50 à -0 et +100? Chez AMD jusque RDNA1 c'était encore -50 et +50, c'est à partir d'RDNA2 qu'ils ont bloqué l'oc (-10 à +15% maxi).
Seulement les 7900xt/xtx (surtout si on rajoute le path tracing) et encore faut voir sur quel jeu et l'optimisation de celui ci. On sait que certains jeux sont opti plus AMD et d'autres n'vidia.
Le 2K c'est le FHD pour ta gouverne (2048x1080 ramener à 1920x1080 vu que nous somme en 16/9è, comme la 4k, on dis UHD pour le smême raison vu que c'est pas du 4096x2160 mais du 3840x2160).
Nvidia pour la 4060/ti et la 4070/super et 4070ti super au delà je conseille Amd pour la 7900xt contre la 4080 et la 7900xtx 😍 contre la 4090. Cette dernière cache bien son jeu mais rivalise avec la 4090 pour deux fois moins chère
moi la 7900GRE EN QHD
Je l’ai elle est incroyable
C'est justement la carte à ne pas acheter désolé pour vous. Elle est hyper mal placée sur la grille tarifaire. Pas bcp plus puissante que la 7800xt mais bien plus chère et bcp moins puissante que la 7900xt qui a bien baissée et qui offre des perfs bien supérieures.
Moi perso j'ai opté pour la 4070 y'a quelques mois et j'en suis très satisfait car joueur solo qui claque du ray tracing, path tracing en ultra avec le DLSS 3.5 tout passe sans dégradation d'image (ou très peu par rapport au FSR).
@@ChristopheHomo tant mieux pour toi
@@ChristopheHomo j'utilise pas le fsr perso que les performances brut et perso elle me suffit largement
@@Steam-machine1999 et tu as bien raison vu la qualité du FSR et du FG qui dégradent nettement les images natives.
Les cartes AMD sont en perfs bruts très bonnes donc pas besoin d'upscaling selon moi dans la plupart des jeux.
La 7900XTX en 4K, tant qu'on n'active pas le raytracing, elle se débrouille plus que correctement et je dirais même qu'une XTX pour du 1440p c'est totalement débile. Pour la 7900XT on peut en débattre mais acheter une XTX juste pour jouer en 1440p faut avoir de l'argent à gaspiller ou à la rigueur si on ne joue qu'à Alan Wake 2 qui est excessivement gourmand en ressources (et il y a sans doute d'autres jeux récents aussi gourmands mais ils ne doivent pas être si nombreux).
Même la 6950xt plus que bon en 4k 🙂
Pas du tout débile la xtx en 1440p. Si tu vise juste 60 fps peut être, si tu vise mini 120 c'est déjà une toute histoire.
sur les jeux récents elle fait mieux que la 4080 super dans les tests que j'ai vu en 4k et est même plus proche de la 4090 que de la 4080 super
@@Kw4Mc je me demande bien quels tests tu as vu. Les AMD actuels sont des cartes spécialisées raster pour les joueurs multi compétitifs mais AMD a tendance à évoluer et nous verrons les séries 8 s'ils ils arrivent à gommer les imperfections des séries 7.
@@ChristopheHomo plein de tests de pleins de sources différentes (vraiment une dizaine donc je peux pas tout te citer)
Et le 4 pwr qui crame sur les 4080 et 4090?
Oor l'architecture tu me conseille la rtx 2060 8gb ou le rx5700 8gb
Les cartes NVidia ne consomment pas plus d’énergie que les cartes AMD comme tu as l'air de le dire vers 2:20.
À mon avis c'est plutôt le contraire,
Le mieux est l’ennemi du bien, il me semble que tu brasses une foule de généralités pour ne pas dire grand chose d'utile au final.
On dirait une publicité.
Normal qu'il brasse des généralités, c'est une vidéo faite par IA
En plus, il n'est pas à la page sur ses infos, notamment avec l'arrivée de l'Hypr-RX. C'est clairement une vidéo pro-Nvidia d'IA
Exact tu peux régler sur les cartes Amd et ça revient au même finalement
C'est pa sle cas sur cette gen (RX7000 et RTX4000) mais ca a tjs été le cas depuis 2001 dsl et ayant tous les gpu existant de 2001 à 2020 sortie à ce jour je peut qu'en parlé. regard ela conso de la 3070 vs la 6800 normal, elel est identique pourtant la 3070 se prend 35% ^^.
Ou encore la 6800XT avec ses 235/240w max vs 320/340 de la 3080 qui est elle aussi derrière de 10/12% ou encore la 6900XT et ses 253/255w vs 350 pour la 3080ti et 420/450 pour la 3090 derrière aussi.
La 6950XT était la pire avec 293w (305 avec le PL au max) la ou la 3090ti était à 450 de base et 550 avec le PL au max.
Si on remonte en arrière j'en ai d'autre, ma 1080ti EVGA FTW3 c'était 337w de base et 503 une fois oc (bien loin de ssoit disant 250w) et ma 980ti idem, 250 de base et 324 oc.
A l'inverse mes 290X vapor-x était à 250w de base et une fois opti baisse à 184w, ma vega 56 c'était 1852w de base et 92 à 148w selon le jeu avec la hbm régler, idem pour la 64 avec bien sur plus de conso de base (220/230 baisser à 178/192).
Nvidia s'est mi à tricher sur les conso dès la sortie des GTX700, ils ont baisser le power limite à -50 puis callé ca comme "0" dans le bios des cg et faiy croire qu'ils consommaient moin. Pk crois tu que du jour au lendemain on passe de -50/+50 à -0 et +100? Chez AMD jusque RDNA1 c'était encore -50 et +50, c'est à partir d'RDNA2 qu'ils ont bloqué l'oc (-10 à +15% maxi).
60fps en 2k avec ray tracing chez amd,quelle carte ?.
Seulement les 7900xt/xtx (surtout si on rajoute le path tracing) et encore faut voir sur quel jeu et l'optimisation de celui ci. On sait que certains jeux sont opti plus AMD et d'autres n'vidia.
Le 2K c'est le FHD pour ta gouverne (2048x1080 ramener à 1920x1080 vu que nous somme en 16/9è, comme la 4k, on dis UHD pour le smême raison vu que c'est pas du 4096x2160 mais du 3840x2160).