Salut les gars, quel plaisir de vous voir tous les 3 réunis dans ce TechActu. Carrément chaud pour inviter des game Designers ! !! Ce serait un sujet technique passionnant 🙏
Que se soit avec Paolo ou avec Pax c est bien mais la avec le trio réuni c est génial. Les interactions sont super. C est un super format ; en plus personne essaye de prendre plus la couverture de l autre ; franchement un sans faute . Un plaisir de voir une bande de potes passionné débattre sur l actu tech
Quel plaisir de vous retrouver tous les trois, vous êtes un condensé de good vibes, de débats interessants, et de passionés de la tech ! On voudrait que ça continue comme ça lors des prochains tech actus !
Pour la partie de Qualcomm qui voudrait racheter Intel, y a pas une loi antitrust je sais pas quoi qui existe en Amérique qui peut empêcher un rachat si cela mène a une réduction significative de la concurrence ?
C'est la Loi "Antithrust". Le gouvernement fédéral achetant les composants clé (CPU, micro-controleur) chez Intel pour l'armement, il va devoir suivre l'affaire de pret. Pour le reste des composants, c'est ponctuellement des livraisons de composants contrefait en provenance de la Chine, mais ceci est une autre histoire !
Non justement Qualcomm peuvent racheter Intel , ou encore Mediatek et j'en passe . Car tu confonds avec la loi "anti-duo-pôle" , ça c'était que lorsqu'il y avait AMD et Intel dans le game (car Motorola branche CPU à fait faillite à cause d'intel ou AMD début des années 2000 donc le trio à splitté et IBM ce sont lancé sur un marché uniquement professionnel) . Du coup Intel ont du faire pas mal d'argent sur le dos d'AMD quand AMD étaient au plus bas logiquement le gouvernement et la marque concurrente étaient obligés de versé de l'argent à AMD (dont des accords au passage histoire que ce soit plus bénéfique pour tout le monde) , ce fut le cas aussi avec Microsoft et MacOS , Microsoft ce faisait de l'argent sur le dos d'Apple quand ils ont dû injecter de l'argent dans l'entreprise d'Apple pour pas qu'Apple face faillite (c'était un petit peu avant les iPod , iPod qui ont su relancer la marque à la pomme puis les iPhone) . PS: Anecdotes > Microsoft ce font de la thune sur le dos d'Apple , sur le dos d'Android de Google et j'en passe , pareil Google ce font de la thune sur le dos de quasiment toute les marques qui proposent du Android mais ils font aussi de l'argent sur le dos d'Apple et de Microsoft mdr , et Apple un peu pareil mais c'est un peu plus récent font aussi de l'argent grâce à d'autres marques sans qu'on soit au courant . A moin de bien ce renseigner bien sûr. Alors que de nos jours côté CPU que ce soit en architecture classique X86/X64 ou ARM il y à bien plus de concurrence donc rien n'empêche Intel de ce vendre a un concurrent comme Qualcomm , Qualcomm qui ont très très envie de ce lancé dans l'informatique (PC/Pc portable) de manière générale. Sachant qu'en plus leurs dernières grosses puces ARM sont bien balèze. Oublions pas non plus que même Apple ce sont mis a faire des CPU ARM (et depuis 3 ou 4 ans sont en partenariat avec AMD Radeon sur les puces ARM , sachant qu'entre AMD Radeon et Apple c'est une grande histoire d'amour ils avaient déjà collab sur les GPU pendant 10 ou 15 ans (jusqu'en 2019 ou 2021 je sais plus mais les sources sont facile à trouver sur le net , d'ailleurs j'ai vue la page Apple avaient laché NVIDIA en 2008/2009 pour ce mettre en collab avec AMD Radeon) , bref de la concurrence il y en à même Samsung font des puces ARM (d'ailleurs eux aussi sont en collab avec AMD Radeon depuis 2 ans pour la partie iGP des puces ARM) . Mais bref si ils veulent racheter un groupes comme Intel c'est maintenant ou jamais car on est pas sur que l'architecture actuelle d'AMD et Intel perdure encore bien longtemps (mais bon là c'est spéculatif car on en sait rien peut-être qu'on sera en X64 encore 10 ans). Sachant que les 3 architecture ont plus de 30 ans (peut-être 25 ans pour ARM mais qui à su revenir qu'avec l'arrivée des smartphones/Tablettes , Intel ont fait l'erreur d'abandonner ARM fut une temps ...). Et je parle d'un temps que beaucoup d'entre vous n'ont pas connu 😂😅. PS: Et il me semble aussi qu'avec la Gen 9 des CPU Intel sur le matos d'Apple qui chier à mort et surchauffer à donf (du coup plein de Bad buzz et gros mécontentement d'Apple , qui ont logiquement abandonné Intel ou en tout cas la plupart des contrats sont arrivés à termes il y à qqes temps , enfin il me semble de souvenirs) . Donc non si on compte AMD , Intel , Qualcomm , Apple ils sont 4 (et encore j'ai peut-être oublié un ou deux fabricants US) . Donc si l'un des 4 fait faillite ce ne sera plus le problème des 3 autres . (J'ai oublié aussi Google ce sont aussi lancé dans la course aux CPU ARM depuis 2 ou 3 ans même si un peu avant c'était encore fait par Samsung sur les Pixel 7/7 pro par exemple). Mais par contre ouai ce que dit le mec encadré en rouge dans la vidéo (j'ai pas son nom) , il ne peut pas y avoir 1 seul acteur sur 1 seul segment sans concurrence c'est interdit . C'est pour cela qu'AMD eux par exemple ne peuvent pas racheter Intel . Mais des acteurs comme Qualcomm logiquement ils peuvent à condition de continuer sur la même architecture qu'intel et donc Qualcomm serait capable d'être sûr tout les terrains . Mais bon on a bien vue aussi la tentative de NVIDIA de racheter ARM , qui pour le coup était très problématique donc forcément impossible.
@@Pat69fr En anglais ou en français on dis pas : Antithrust ,il y a pas le #H !😮 Mais : Antitrust law en.m.wikipedia.org/wiki/United_States_antitrust_law Aplushhss
32:01 Pour être clair en gros, tu as la version majeur de Unity (Unity 1, 2, 3, 4, 5, 6 etc...) mais ces changements de version sont juste indicatif d'un changement de génération du moteur (Tout comme pour Unreal Engine 4, Unreal Engine 5...), par exemple j'ai découvert Unity en ~2014-2015, à l'époque c'était Unity 4 si je dis pas de bétise, c'était pas foufou d'ailleurs, puis il y a eu le passage a Unity 5 au alentour de 2016-2017, puis la on passe a Unity 6 en 2024. Mais les sous versions (les majs régulière du moteur sont nommés par rapport à l'année, par exemple tu vas avoir: 2022.1.5 (2022 pour l'année et 1.5 pour la version dans cette année là) Par exemple en ce moment je bosse avec la version 2023.3.41 (Version de l'année dernière donc) 32:44 Petite confusion ici de la part de Paolo, les .fbx, .obj, etc... et bcp d'autres formats sont déjà supportés par Unity 5, donc nul doute qu'ils le seront tjrs avec Unity 6, ce qu'il confond c'est avec la compatibilité des scripts dans les assets principalement ! Beaucoup de scripts et shaders qui auront été conçu pour Unity 5 risque de devoir être modifié, voir completement recrée, surtout du coté des shaders, en général entre les version majeurs il y a pas mal de parametres ou fonctions qui sont considérés comme "deprecated" (obselète) ! En général, il est préférable de rester sur l'ancienne version pendant encore ~1 an ou 2 histoire de laissé le temps à la commu de transitionner vers Unity 6. Les gens qui se sont jeté sur Unreal Engine 5 l'ont un peu regrétté d'ailleurs au départ, bcp de changement par rapport a Unreal Engine 4, les 2/3 des tutos YT, post sur les forums obselètes etc... Termine tes projets sur Unity 5 Paolo, et tu transitionneras sur le 6 tranquillement, c'est ce que j'ai l'intention de faire pour ma part. 1:06:32 1200W... il y a pas un monde ou c'est possible de refroidir 1200W avec les moyens actuels, meme une carte full watercoolé ! Sauf si la carte fait litérallement la taille d'un PC et quel contient 2 watercooolings 360mm ! C'est irréaliste et ça sent la grosse rumeur foireuse.
Bonsoir c super cool à trois continuer svp.trio bien équilibré franchement, le format est terrible.ont dirais une émission divertissement Tech. Y a bcp de potentiel PjP pax jig Paolo 🤓
Ah ils sont beaux comme des motos lustrées Jigfio … est ce possible de faire une vidéo sur les ventirads low profile et en push pull voir les caractéristiques perf températures et décibels afin d’avoir des connaissances pour faites un pc ITX Merki
Pourquoi acheter une rtx 4000 pour qu’ils nous pondent dans 5 moi avec une nouvelle technologie comme ils avaient fais ça avec leur dlss 3 qui marchera pas sur les anciens générations et de voir des jeux de merde sortir avec leur seul argument nouvelles technologies !
Y'aura pas une si grande différence sur les RTX5000 par rapport aux RTX4000Super . Donc si ta déjà une version Super des 4000 . Laisse Tombé l'idée d'acheter une 5000. (Sauf si ta une RTX4060/4060Ti éclaté 😂).
@@GuilB49: Normalement AMD Radeon ont prévu de revenir aux sources côté tarif donc ouai vaut mieux attendre de voir le prix des prochaines RX8000. Ou au pire acheter les derniers stock de RX7000 a la sortie des 8000 . Qui seront moins chère et tout comme les RX6000 profitent des même pilotes/suivi des maj (ajout et évolution du software par exemple). Qui rendent bien souvent les anciennes puces RDNA toujours intéressante . De plus ils peuvent ajouter l'AI Engine via une simple maj si je ne dis pas de bêtises donc bon patience . 😉
Les GPU déjà sortent pas tous les 5 mois mais tous les 2 ans chez nvidia. 2018 /RTX 2000 2020/RTX 3000 2022/RTX 4000 2024/RTX 5000 fin 2024 voir janvier 2025 au CES 2025-Lasvegas
Pour moi les cartes qui vont se plus se vendre, ca sera la 5070 et ses frères, ti, super. Les 5060 et ses frères ti, super. Le reste, ca sera pour les plus fortunés ou passionnés 😊
Question : Yooo Jig! Pense tu qu'il y aura un équivalent de l'AFMF 2.0 pour les CG NVIDIA qui permetrai aussi d'avoir un genre de DLSS 3.0 sur tout les jeux? Car DLSS 3.0 c'est très bien mais trop limité à certains jeux alors que la le AFMF 2.0 est activable sur 100% des jeux ce qui est incroyable en passant 😁. Et du coup est ce que on pourrait pas dire qu'en termes d'utilisation une 7900XTX foudroie une 4090 niveau FPS dans des jeux où le DLSS 3.0 n'est pas activable? À méditer 😁
@@samedyurt5683je parle du DlSS 3.0 qui est uniquement disponible pour les séries 4000 celui-là est trop peut présent sur beaucoup de titre mais certe celui universelle est présent sur beaucoup de jeux mais se fait manger par un AFMF 2.0
@@samedyurt5683 j'en passe mais des tarkov , star citizen , et beaucoup d'autres jeux ne sont pas compatibles pour le moment DlSS 3.0 alors que nativement AFMF 2.0 si pour le coup
concernant les licenciements de intel , il faudrait voir la répartition des postes licenciés pour savoir a quel point les fonctions de management ,de recherche et development et de support son impactées . Dans tous les cas ce n'est pas un bon signe pour les marchés car ce genre d'événement occasione en général la fuite des meilleurs éléments d'un groupe . tout au plus cela peut rassurer un potentiel acheteur désireux de se saisir des brevets et des contrats en maitrisant le cout futur de son achat .
J adore la question ou Amd est LARGEMENT SUPÉRIEUR,ptdr ,il.y a quelques fps de + avec une qualité degeulasse 😂😂😂😂 Le fsr en ultra c'est du dlss en low/moyen Donc la du coup dlss aura 50% de fps de + Les gars ,les fps c jolie pour keke kikou ,mais la qualité d image c le + important
Format a 3 plutôt réussi ca fuse , BCP de polémique stérile concernant les technos , que ce soit Nividia AMD Intel les meilleurs sont celles qui vous donne satisfactions, oui Nividia est devant en Qualité mais DLSS3 uniquement compatible RTX 4000 mais AMD est BCP plus ouvert d ailleurs bcp de GPU Nividia et Intel profite des Techs de AMD FSR et FG, ensuite avec AFMF2 ( dommage pour ma RX 5700XT) compatible uniquement RX 6000 et 7000 mais un FSR3.1 cumulable avec FG sur bcp de GPU Nividia Intel AMD et FSR3.1 uniquement sur les petit GPU , en fait avec votre GPU il faut trouver un équilibre en terme de rendu ,qualité ,FPS et réactivité pour avoir une image relativement propre sans tomber dans la paranoïa
Heille! Ya toujour eu le IA depuis un paquet d'années, les pc etc on toujours eu le ia, c'est la source même de l'ordinateur!!!! Ex: Age of empire, a toujours eu un IA ou appler avant le PC qui jouai contre nous!! Sérieux les boys, faite des recherche! C'est jsute plus puisant aujourd'hui.
Sans le dark mode sur les sites, j'ai de plus en plus de mal à regarder les infos et à avoir un fond blanc éclatant sous les yeux sans avoir très mal au crâne. Ca fait longtemps que je regarde les actus, très longtemps.. Mais ma vue me trahit petit à petit.. Un sondage pour voir si on est beaucoup ou une majorité ça serait peut-être pas mal? Sinon j'ai préféré la vidéo à 3, ça fait plus authentique avec des avis qui divergent, ça fait plus dynamique.
Merci 👍 Le tech actu à 3👌 PS : Je me souviens de l'époque où Intel avait un monopole sur le CPU pc. Une période de stagnation technologique et pas franchement d'un bon rapport prix/perf. AMD et Cyrix ont bien bousculés Intel à l'époque.
J'suis aller vérifier la fiche technique de la RTX5090 32Gb pour le moment ils disent 600W . Donc je ne sais pas d'ou sortent les fameux "1200" mais c'est certainement la conso d'une autre version certainement réservée uniquement aux professionnels donc encore plus chère mais pas pour le grand publique. Même si côté pro ils essaient aussi de consommer le moin possible donc cela n'a pas de sens pour l'instant. Et je je suis trompé sur la GDDR7 actuelle (enfin qui va arriver) selon la grosseurs du bus se serait plutôt environ 2 fois plus rapide que la GDDR6 et encore c'est pas si sûr. Nous verrons bien . J'ai confondu 1.7TFlops avec 1.780Gb/s mdr sur un bus de 512 bits . Ce qui est bizarre car sur le site de SK-Hynix ils disent 1.780Gb/s sur 382bits . Donc affaire à suivre. (Jusqu'à présent je crois que les plus balèze en grand publique montez jusqu'a 800Gb/s max mais à vérifier bien sûr) . Et pour le SLI ce n'est pas encore mentionné sur la fiche technique (normalement y'a ecrit "Compatible SLI > Oui ou Non). Même si je crois qu'il n'y a plus besoin d'ajouter de pont pour le SLI mais à vérifier car il me semble que cela ce fait de moins en moins . Mais effectivement si on y met 2 RTX5090 cela pourrait monté à 1200W max . De tout de façon le SLI et le Crossfire n'a jamais pu doublé les perf des jeux via 2 GPU . Même si de nos jours y'a des fonctionnalités spéciale qui peuvent améliorer le rendement mais ouai cela dépasse rarement les 40% de perf en plus. C'est pour cela que pour le grand public cela ne sert pas à grand chose . PS: Et la RTX5080 16Gb serait de 400W en TDP max avec un bus de 256bits et une vitesse de la bande passante (en GDDR7) de 896Gb/s . Ce qui est plutôt pas mal avec un bus aussi petit de 256bits et de "seulement 16Gb" , donc en gros ils ont doublé le bus sur la 5090 donc 512bits pour obtenir juste le double en bande passante (ce que je trouve pas ouf pour 32Gb même si cela parait logique, sauf que bien souvent l'informatique n'est pas logique mais c'est un autre débat) . 😂😅👍 Merci pour tout en tout cas !! 💯 Très bon tech actu même si ce serait cool de voir vos blazes sur vos cam en incruste , qui apparaissent de temps en temps pour les "nouveau comme moi" qui ne connait pas forcément vos noms sauf Jig bien sûr mdr.
J'ai une alim 650watt , c'est ma limite psychologique, toute CG qui m'impose de changer d'alim est mise de coté. Les 320/340watt de ma 3080 sont déjà scandaleux. On parle de gaming et de productions moyennes, on ne parle pas de sortir le prochain Jurassic Park / Avatard ou d'analyser l'horizon d'un trou noir !
Avec un bus de 512bits + autant de cuda core + de la GDDR7 presque 4 fois plus rapide que la GDDR6 c'est pas surprenant les 1200W ! (Reponse au titre) . Puis nous on le sait très bien pour atteindre les TDP Max y'a qu'en Stress Test sur benchmark qu'on peu atteindre le TDP Max . Donc elle peut aller jusqu'à 1200W mais à mon avis si tu depasse les 600W en usage basique/et même en gaming , ce serait déjà un exploit. Pour le moment sauf si vous êtes en 8K et encore , plus de 16Gb de VRAM c'est juste overkill pour rien (mais c'est bon pour le long terme et encore si tu changes pas de GPU tout les 3 ou 4 ans). Sans oublier que les 4090/5090 sont des cartes pro grand public. Les vrai GPU PRO sont largement plus chère que les 4090/5090 avec des GPU à plus de 5000e mdr . (D'ailleurs si AMD Radeon ne font plus de carte pro grand publique ce n'est pas pour rien , ils ont des GPU Pro avec memoire HBM bien plus véloce mais bien plus chère que les RTX4090/5090 , sauf que c'est réservé aux professionnels (même si en réalité on peu en acheter si vous voulez flambé plus de 4000/5000e pour rien 😂). Maintenant je mate : 🍿🍿 On peut mettre à jours les bios automatiquement sur les cartes Asus (via EZUpdate) mais ça plante une fois sur deux 😂. (EZUpdate qu'on ajoute sur windows bien sur , mais y'a aussi la version direct dans le bios , mais le plus fiable cela reste par USB) . IA , IA , IA , c'est un peu comme NVIDIA qui utilser par exemple le Ray-Tracing, Ray-Tracing, Ray-Tracing... Juste comme un argument marketing (histoire de dire en tout cas au tout début "Nous on fait un truc qu'AMD Radeon ne font pas encore mdr" , puis AMD Radeon qui sort des software "nous on fait des software même pour les GPU abandonné par NVIDIA 😂" . Y'a trop de drogue qui tourne en Californie ! 😂 Je suis d'accord avec ce que dit (je ne sais plus son nom) qu'avec la PS5 pro c'est possible qu'ils veuillent faire comme les PC sauf que Sony sont naze niveau optimisation d'OS (et logiciels (software) de manière globale , d'ailleurs si les smartphones Sony sont aussi mauvais c'est parce-qu'il sont ultra mal optimiser 😅😂)). Au top votre trio !! 💯👍 Pour le pilote AMD Software tu touche presque à rien (tu choisis juste mode Gaming / Hyper-RX ou autres) puis tu laisse le pilote calibré le GPU en rapport avec ton écran (exemple si ta un écran 32" 1440p 144Hz , le mode auto fera le taf et donc fera monté le GPU qu'a 144fps max ce qui est largement suffisant sur un écran en 144Hz). Y'a pas besoin de plus et le GPU ne turbinera pas à mort pour rien . Car on peut faire monté effectivement à plus de 200fps mais si le reste de la config ne suis pas dont l'écran bin ça sert plus a rien de nos jours . (Sans oublier de mettre la CM en mode gaming/perfomance , ainsi que la gestion d'alimentation en mode performance si vous voulez gratter un max de puissance sans trop vous salir les mains) . 💯😉 PS: Unity c'est de la daube à côté d'unreal engine 5 mdr . J'suis aller vérifier la fiche technique de la RTX5090 32Gb pour le moment ils disent 600W pas 1200W .
Salut le trios, alors d'après ce que j'ai compris (ce que Paolo disait) l'alim de 2200 watts avec les 2hpwr serai utilisé pour alimenter un "potentiellement "SLI" de 5090 même si c'est pour du pros. Que sa passe part un "bridge" ou direct par la carte mère sa change rien car faut bien les alimenter les 2 5090 (avec potentiellement du 600/700 watts sur une seul carte) donc sa ferais déjà 1200/1400watts uniquement pour les CG. En tout cas merci pour ce genre de contenue très instructif.#lestroiscomperes
Si j'et bien compris l'article que j'et lu, Intel à refusé le rachat par Qualcom!! Ils onts d'ailleurs annoncer qu'ils ne vendront pas! Peu importe l'offre de rachat c'est non! Ouf!😤
Alors, la RTX 4090 est clairement destinée aux gamers. Sinon, elle aurait plus de VRAM que la 3090. Pour l'IA, 24 Go de VRAM ne sont clairement pas suffisants. Il faut plutôt regarder les solutions professionnelles avec au moins 40 Go, voire jusqu'à 192 Go comme le B200. L'IA est bien capable de travailler en multi-GPU, mais d'après ce que je sais, le SLI ou NVLink n'est pas nécessaire. Cela ne sert que si des données se trouvent sur une autre carte graphique pour éviter les pertes de temps lors du transfert (pour rappel : DDR5 offre théoriquement 64 Go/s et la VRAM actuelle atteint environ 800 Go/s). Mais pour les jeux, cela reste inutile car les cartes sont déjà trop puissantes et il n'y a pas encore de jeux nécessitant plus de 24 Go de VRAM.
QUESTION: Bonjour Jig et bonjour l'invité surprise. Je possède une config dans ma maison secondaire Ryzen 5600g, MSI B550 Pro VDH, Crucial 32go ddr4 3200, Arès Gaming 650w, EVGA RTX 3060 XC 12go, boitier Mars Gaming MC300W. Est ce utile de changer de config sachant que avec mon écran AOC 3440x1440 ca tourne impec sauf que la CG tape les plus de 75°. Si oui, quel CG me conseillez vous pour avoir au moins les même perf, 60fps VSync tout au max ou au moins en high et ne pas dépasser les 70° ? Merci d'avance si tu décides d'y répondre. ❤
Coucou Très belle vidéo Par contre je revient juste sur ...90 Les versions ...90 était réservé en premier lieu pour les bi gpu chez Nvidia 😅😅 Je reviens sur le pont sli, j'ai toujours utilisé cette tech pour mes record 3dmark. Mes premières etait les gtx 580. Et dans l'absolue les dernières générations de sli, était pour le mariage de la mémoire, le gpu 1 pouvais pioché dans la memoire gpu 2 et vice versa Je regretté tellement que les dev, quand nvidia à annoncé le sli ouvert dans directx 12, qu'aucun dev n'est suivie par fainéantise 😭😭😭 Pour les perf, suivant les jeux. On était largement plus de 40%. Moi je prenait casi 80/90% avec une reglage oc au petit oignons Pour info le sli avait toujours été maintenue chez Nvidia, il était proposé par leur pilote. Le programme Nvidia permettait de copier " utilisiez " un profile déjà existant d'un jeux sur un autre jeux, de préférence le même développeurs. Mais certains petit réglage permettait effectivement d'optimiser un peut la portabilité.
Je trouve que vous faites une belle équipe, chacuns à son importance. Comme je le vois c'est, Paolo notre porte porte parole, Pax le technicien et jig le chef d'orchestre à la Louis fùnes 😁
Question: on a peu de teasing sur la nouvelle gen de gpu. Les autres années on coulaient sous les promesses improbables. Que faut il attendre d'une gen qui ne fait pas bcp de promesses? Est ce que ce sera qu'un refresh avec qqe tech marketing embarquées (dlss incompatible avec gen antérieures, ia partout, fpfsr et je ne sais quel acronyme a la con...)? Bisou et merci
5090, 1200 W de conso, 2x connecteurs d'alimentation, c'est une centrale nucléaire qu'il faudra pour alimenter tout cela, qui plus est pour du gaming, sérieux du grand n'importe quoi...
Bonjour, dans l'actu 13 pax parle du gap rtx 3000 vs rtx 4000 en performance par watt. On passe de samsung 8 nm pour les 3000 en tsmc 5 nm pour les 4000 ici nous avons un gain de 60% en gravure, avec une optimisation du gpu. Pour la prochaine generation s'il reste a 5nm, ou 4nm il n'y aurait pas ce même gap er si NVIDIA passe au 3nm, le prix va plus explosé.
Oui mais quel gain pour 600€ le CPU Amd -9800X3D et 2200/2400€ la RTX 5090Fe ou customs ? Le rapport qualité prix ? Les rumeurs du net annonce la RTX 5090 seulement a un +40% en flat pc et VR 😮 +40% pour 2200/2400€ la carte graphique Vs nos « RTX 4090 » !😮 Sérieux ?😮 Là je vais être comme Ging,je Kouine très fort (à raison ) et j’attends la RTX 6090 + amd 13800X3D fin 2026 pour faire fonctionner les nouveaux casques Vr 3.1 en simu avec un vrai GAP sur ces casques VR : Pimax Crystal Super (2025) Varjo XR-4 (déjà commercialisé) Un +40% ce n’est pas suffisant pour les simers . Surtout avec la sortie le 19/11/24 de Mfs 2024 qui demande de base pour un écran 4k une RTX 4080 + 64go de ram et un 7800X3D ou un 14900k 😮 Donc la RTX 5090 qu’elle consomme beaucoup ou peu (au passage en burn en simu la RTX 4090 consomme pas les 450 annoncés il y a 2 ans ),je passe mon tour avec ce futur GPU qui en auras pas assez dans le slip . En plus les prix vont être coton ! Cette RTX 5090 me fais penser à une RTX 3090. C’est à dire la carte qui sort pour faire fonctionner des casais VR actuels au taquet en option graphique en 2024: DCS WORLD Mfs 2020/2024 Il2 Bob Iracing Sur des casques Pimax Crystal/Light/Meta Quest pro /Varjo Aero . Mais dès 2025 avec les nouveaux casques 3.1 la cette configuration seras en PLS : Pimax Crystal super =3840x3840 par œil à calculer soit = 7680x3840 en 90 ou 120hz 😳😱😱 Et là déjà en 2025 la RTX 5090 ne pourras pas pousser nos simus au taquet 😵sur ces nouveaux casques . Et donc début 2027 ,2 ans à peine rebelotte il faudras changer : CPU+ GPU ,d’ici là la tam DDR6 seras peut être déjà la ! Donc perso je zappe la RTX 5090. Sur nos casques vr actuelles la RTX 4090 fais très bien le job : -Iracing multi \30 voitures en piste et jeux au taquet en option graphique : 120fps -120hz !😊 Que demander de plus avec mon Amd 7800X3D ? Aplushhss 😇👍🏻
Je vois pas pk tu aurais un plus gros gap de puissance entre les rtx 6090 et 5090 que les rtx 5090 et 4090 ça n’a jamais été des carte bon rapport qualité prix d’ailleurs c surtout si t’a pas vraiment de budget et que tu veux ce qu’il y a de mieux sur le moment. Si t’a déjà une rtx 4090 c’est normal que tu ne veuilles pas changer et au moin attendre les rtx 6090 pour changer y’a pas grand intérêt pour toi mais pour quelqu’un qui a le budget et qui achète une config entière par exemple partir sur une 5090 si elle est bien en 32 g 512 bits etc on peut pas dire que ça envoie pas du lourd même si le prix risque d’être aux alentour de 2500€ je suis d’accord
Booster par l’IA je suis pas étonné . Le marketing est partout mon mareyeur aussi! lui vend des moules bio . Ah bon la mer est bio .En vente chez Leclerc partout en France . 😂😂😂😂😂😂😂😂
perso, j'ai la msi b650 dans le boitier antec c5, pur bonheur pour brancher les cables. Le truc un peux chiant, c'est les cables d'alim qui sont trop long maintenant car, dans le C5, l'alim est positionné derriere le cpu. Genre des cables de 5cm pour le 24pin et l'alim cpu serait suffisant limite. Pour la carte graphique, j'ai réussi à la positionner a la verticale, devant les 3 ventilateurs verticaux du c5. Un rizer de bonne qualité ne donne aucune perte pour ma 6800xt) Aussi, la carte est maintenue en l'air avec un support accroché sur le haut du boitier disigné et imprimé par mes soins (j'en ai chié pour le créer).
pour Paolo qui dit qu'il plaint les gens qui passe 5 ans sur unity, en effet tu peut les plaindre, surtout quand y ont appris y'as quelque temps que unity voulais les facturer pour chaque téléchargement de leur jeux (même si c'est le même compte qui télécharge sont jeux pour la 10e fois) et bien sur applicable sur tout les produit même ceux déjà sortie. ^^ beaucoup de studio qui faisait des jeux sous unity depuis des année on dit "bye" et sont parti voir ailleurs... même certain studio qui avait déjà des années de dev sur un jeux...
Optimiser les fps optimiser les fps ! Que ça al la bouche mais optimisez ces putains de jeux code à la pisse surtout. Qu'il se fassent assister par l'IA qui pourra traduire leur jeux de merde écrit en python ou basic amstrad en c++/ Asm avec simd.
Super tech actu à trois ! Ambiance au top ! Les 1h20 sont passées aussi vite que les autres tech actu :) Et perso, je suis totalement pour un tech actu avec des professionnels du game design ;) Ça doit être super intéressant
Ta cru qu'ils sauveraint les dauphins ?? 😂😂 . Pour réussi à faire 60% de marge dès la première année de lancement... Y'a des trucs qu'on ne nous dit pas 😂
Pour le coup j’ai utilisé leur soft « AI suite 3 » et j’ai pu facilement mettre à jour mon bios de carte mère (une asus b550 ) ceci dit faut quand meme télécharger le bios au préalable sur leur site mais plus besoin de clé usb ça se fait directement sous Windows
Hello, jig, Pax, palo et la communauté Perso j’aimerais bien revoir Guillaume le petit à du faire ses nuits depuis 😊 Je m’inquiète nullement pour Intel ( la vermine ne meurt pas facilement xd ) euh plus sérieusement je doute que les usa ne leur donne pas un financement pour le reste on verra le haut de gamme de nvidia me fais nullement rêver contenu de leur consommation mais vu la finesse du Die et des performances de la précédente gen ça se comprend Bonne journée @+
Beaucoup mieux la vidéo à 3. J'adore
Yoooo à 3, du moins avec vous 3 ça passe bien, ça discute bien ! Bonne ambiance et bonne dynamique.
Oh le trio légendaire. J'ai eu la même réaction que lorsqu'il a eu la bande annonce du premier Avengers
il manque guillaume
Mon petit doigt me dit que c’est plus la grande entente avec Guillaume
@@ouestfolde-1599 sa disais déjà ça il y a 1 ans 🤣
@@7darkness241 non
Ce trio la c'est une pépite ,vous faites une chaine commune, vous mettez tous le monde K.o
Géniale a 3 continuer les gars !!!!!!🎉🎉🎉🎉🎉🎉🎉🎉🎉🎉🎉
Très chaud pour un Tech Talks sur le gamedesign
de ouf
Salut les gars, quel plaisir de vous voir tous les 3 réunis dans ce TechActu.
Carrément chaud pour inviter des game Designers ! !! Ce serait un sujet technique passionnant 🙏
" Un mène à la corruption, 2 divise, mais à 3 viens l'équilibre." ^^'
C'est les avenger ouuuuu ? top la vidéo, l'idée est vraiment bonne le J
Un tech actu de 5h30 pq pas ca nous ferait la semaine en attendant le suivant 😂
Franchement pas mal d'avoir plus de 2 intervenants, plus ya de fous, plus c'est fou.... Top top
Bravo les gars, très bien la vidéo a 3. Vous avez su très bien partager vos paroles, et le montage aussi bravo au monteur. Force a vous 🙏
Que se soit avec Paolo ou avec Pax c est bien mais la avec le trio réuni c est génial. Les interactions sont super. C est un super format ; en plus personne essaye de prendre plus la couverture de l autre ; franchement un sans faute . Un plaisir de voir une bande de potes passionné débattre sur l actu tech
Quel plaisir de vous retrouver tous les trois, vous êtes un condensé de good vibes, de débats interessants, et de passionés de la tech !
On voudrait que ça continue comme ça lors des prochains tech actus !
Je suis super content de voir une team qui redevient dynamique avec plusieurs intervenants. Ça m'avait manqué ❤❤❤
Incroyable le tech à 3 . A refaire d urgence
Pour la partie de Qualcomm qui voudrait racheter Intel, y a pas une loi antitrust je sais pas quoi qui existe en Amérique qui peut empêcher un rachat si cela mène a une réduction significative de la concurrence ?
Oui 👍🏻👍🏻
les deux boite sont américaine donc ça va juste consolider le marché, par contre ça va licencier à tour de bras chez intel.
C'est la Loi "Antithrust". Le gouvernement fédéral achetant les composants clé (CPU, micro-controleur) chez Intel pour l'armement, il va devoir suivre l'affaire de pret. Pour le reste des composants, c'est ponctuellement des livraisons de composants contrefait en provenance de la Chine, mais ceci est une autre histoire !
Non justement Qualcomm peuvent racheter Intel , ou encore Mediatek et j'en passe . Car tu confonds avec la loi "anti-duo-pôle" , ça c'était que lorsqu'il y avait AMD et Intel dans le game (car Motorola branche CPU à fait faillite à cause d'intel ou AMD début des années 2000 donc le trio à splitté et IBM ce sont lancé sur un marché uniquement professionnel) . Du coup Intel ont du faire pas mal d'argent sur le dos d'AMD quand AMD étaient au plus bas logiquement le gouvernement et la marque concurrente étaient obligés de versé de l'argent à AMD (dont des accords au passage histoire que ce soit plus bénéfique pour tout le monde) , ce fut le cas aussi avec Microsoft et MacOS , Microsoft ce faisait de l'argent sur le dos d'Apple quand ils ont dû injecter de l'argent dans l'entreprise d'Apple pour pas qu'Apple face faillite (c'était un petit peu avant les iPod , iPod qui ont su relancer la marque à la pomme puis les iPhone) .
PS: Anecdotes > Microsoft ce font de la thune sur le dos d'Apple , sur le dos d'Android de Google et j'en passe , pareil Google ce font de la thune sur le dos de quasiment toute les marques qui proposent du Android mais ils font aussi de l'argent sur le dos d'Apple et de Microsoft mdr , et Apple un peu pareil mais c'est un peu plus récent font aussi de l'argent grâce à d'autres marques sans qu'on soit au courant .
A moin de bien ce renseigner bien sûr.
Alors que de nos jours côté CPU que ce soit en architecture classique X86/X64 ou ARM il y à bien plus de concurrence donc rien n'empêche Intel de ce vendre a un concurrent comme Qualcomm , Qualcomm qui ont très très envie de ce lancé dans l'informatique (PC/Pc portable) de manière générale. Sachant qu'en plus leurs dernières grosses puces ARM sont bien balèze. Oublions pas non plus que même Apple ce sont mis a faire des CPU ARM (et depuis 3 ou 4 ans sont en partenariat avec AMD Radeon sur les puces ARM , sachant qu'entre AMD Radeon et Apple c'est une grande histoire d'amour ils avaient déjà collab sur les GPU pendant 10 ou 15 ans (jusqu'en 2019 ou 2021 je sais plus mais les sources sont facile à trouver sur le net , d'ailleurs j'ai vue la page Apple avaient laché NVIDIA en 2008/2009 pour ce mettre en collab avec AMD Radeon) , bref de la concurrence il y en à même Samsung font des puces ARM (d'ailleurs eux aussi sont en collab avec AMD Radeon depuis 2 ans pour la partie iGP des puces ARM) . Mais bref si ils veulent racheter un groupes comme Intel c'est maintenant ou jamais car on est pas sur que l'architecture actuelle d'AMD et Intel perdure encore bien longtemps (mais bon là c'est spéculatif car on en sait rien peut-être qu'on sera en X64 encore 10 ans). Sachant que les 3 architecture ont plus de 30 ans (peut-être 25 ans pour ARM mais qui à su revenir qu'avec l'arrivée des smartphones/Tablettes , Intel ont fait l'erreur d'abandonner ARM fut une temps ...). Et je parle d'un temps que beaucoup d'entre vous n'ont pas connu 😂😅.
PS: Et il me semble aussi qu'avec la Gen 9 des CPU Intel sur le matos d'Apple qui chier à mort et surchauffer à donf (du coup plein de Bad buzz et gros mécontentement d'Apple , qui ont logiquement abandonné Intel ou en tout cas la plupart des contrats sont arrivés à termes il y à qqes temps , enfin il me semble de souvenirs) .
Donc non si on compte AMD , Intel , Qualcomm , Apple ils sont 4 (et encore j'ai peut-être oublié un ou deux fabricants US) . Donc si l'un des 4 fait faillite ce ne sera plus le problème des 3 autres . (J'ai oublié aussi Google ce sont aussi lancé dans la course aux CPU ARM depuis 2 ou 3 ans même si un peu avant c'était encore fait par Samsung sur les Pixel 7/7 pro par exemple).
Mais par contre ouai ce que dit le mec encadré en rouge dans la vidéo (j'ai pas son nom) , il ne peut pas y avoir 1 seul acteur sur 1 seul segment sans concurrence c'est interdit . C'est pour cela qu'AMD eux par exemple ne peuvent pas racheter Intel . Mais des acteurs comme Qualcomm logiquement ils peuvent à condition de continuer sur la même architecture qu'intel et donc Qualcomm serait capable d'être sûr tout les terrains . Mais bon on a bien vue aussi la tentative de NVIDIA de racheter ARM , qui pour le coup était très problématique donc forcément impossible.
@@Pat69fr
En anglais ou en français on dis pas :
Antithrust ,il y a pas le #H !😮
Mais :
Antitrust law
en.m.wikipedia.org/wiki/United_States_antitrust_law
Aplushhss
Mais ! Il faut du TechActu à 3 en permanence je vous en supplie ! ❤
J'ai passé un très bon moment devant votre tech-actu!
à 33:30 ouaiii ce serait cool d avoir une interview avec des game designer dons tu parles !
Pour moi classe le tech actu a 3 et pour a 4 sa vas être drôle
32:01 Pour être clair en gros, tu as la version majeur de Unity (Unity 1, 2, 3, 4, 5, 6 etc...) mais ces changements de version sont juste indicatif d'un changement de génération du moteur (Tout comme pour Unreal Engine 4, Unreal Engine 5...), par exemple j'ai découvert Unity en ~2014-2015, à l'époque c'était Unity 4 si je dis pas de bétise, c'était pas foufou d'ailleurs, puis il y a eu le passage a Unity 5 au alentour de 2016-2017, puis la on passe a Unity 6 en 2024.
Mais les sous versions (les majs régulière du moteur sont nommés par rapport à l'année, par exemple tu vas avoir:
2022.1.5 (2022 pour l'année et 1.5 pour la version dans cette année là)
Par exemple en ce moment je bosse avec la version 2023.3.41 (Version de l'année dernière donc)
32:44 Petite confusion ici de la part de Paolo, les .fbx, .obj, etc... et bcp d'autres formats sont déjà supportés par Unity 5, donc nul doute qu'ils le seront tjrs avec Unity 6, ce qu'il confond c'est avec la compatibilité des scripts dans les assets principalement !
Beaucoup de scripts et shaders qui auront été conçu pour Unity 5 risque de devoir être modifié, voir completement recrée, surtout du coté des shaders, en général entre les version majeurs il y a pas mal de parametres ou fonctions qui sont considérés comme "deprecated" (obselète) !
En général, il est préférable de rester sur l'ancienne version pendant encore ~1 an ou 2 histoire de laissé le temps à la commu de transitionner vers Unity 6. Les gens qui se sont jeté sur Unreal Engine 5 l'ont un peu regrétté d'ailleurs au départ, bcp de changement par rapport a Unreal Engine 4, les 2/3 des tutos YT, post sur les forums obselètes etc...
Termine tes projets sur Unity 5 Paolo, et tu transitionneras sur le 6 tranquillement, c'est ce que j'ai l'intention de faire pour ma part.
1:06:32 1200W... il y a pas un monde ou c'est possible de refroidir 1200W avec les moyens actuels, meme une carte full watercoolé ! Sauf si la carte fait litérallement la taille d'un PC et quel contient 2 watercooolings 360mm ! C'est irréaliste et ça sent la grosse rumeur foireuse.
Oui effectivement, j avais voulu dire le mots script mais le mots m’est sortie de la tête 🤦♂️ dsl
Le monteur il est bon ✌️
U n seule mot "Génial" les mousquetaires
Bonsoir c super cool à trois continuer svp.trio bien équilibré franchement, le format est terrible.ont dirais une émission divertissement Tech. Y a bcp de potentiel PjP pax jig Paolo 🤓
Ah ils sont beaux comme des motos lustrées
Jigfio … est ce possible de faire une vidéo sur les ventirads low profile et en push pull voir les caractéristiques perf températures et décibels afin d’avoir des connaissances pour faites un pc ITX
Merki
J'adore vos débats ! Pleins d'humours et de sérieux ! Bonne continuations à vous trois 🍺🍺🍺
Pourquoi acheter une rtx 4000 pour qu’ils nous pondent dans 5 moi avec une nouvelle technologie comme ils avaient fais ça avec leur dlss 3 qui marchera pas sur les anciens générations et de voir des jeux de merde sortir avec leur seul argument nouvelles technologies !
acheter amd pt etre 🤨 si le rdna 4 envoie rapport qualité ray tracing perf donc! et le prix! moins chère que : l'encu lad nvidia
Y'aura pas une si grande différence sur les RTX5000 par rapport aux RTX4000Super . Donc si ta déjà une version Super des 4000 . Laisse Tombé l'idée d'acheter une 5000. (Sauf si ta une RTX4060/4060Ti éclaté 😂).
@@GuilB49: Normalement AMD Radeon ont prévu de revenir aux sources côté tarif donc ouai vaut mieux attendre de voir le prix des prochaines RX8000. Ou au pire acheter les derniers stock de RX7000 a la sortie des 8000 . Qui seront moins chère et tout comme les RX6000 profitent des même pilotes/suivi des maj (ajout et évolution du software par exemple). Qui rendent bien souvent les anciennes puces RDNA toujours intéressante . De plus ils peuvent ajouter l'AI Engine via une simple maj si je ne dis pas de bêtises donc bon patience . 😉
@@t1m-kint3k89 j’ai un rtx 3070 haha
Les GPU déjà sortent pas tous les 5 mois mais tous les 2 ans chez nvidia.
2018 /RTX 2000
2020/RTX 3000
2022/RTX 4000
2024/RTX 5000 fin 2024 voir janvier 2025 au CES 2025-Lasvegas
Excellent le script du début !
Très bon Trio ce fût un plaisir et merci au monteur aussi ! car à mon avis avec ces trois zozos ça n'a pas été une tasse de thé ! 😆
Pour moi les cartes qui vont se plus se vendre, ca sera la 5070 et ses frères, ti, super. Les 5060 et ses frères ti, super. Le reste, ca sera pour les plus fortunés ou passionnés 😊
C'était le meilleur tech-actu de la saison 🙂
Merci messieurs, très bonne soirée !
#Les3compères
Logique pour les écrans Sony, il vende leur jeux sur pc maintenant
let's go pour la vidéo de la semaine \o/ (oui ce com ne sert à rien d'autre que booster pour l'algo)
XD l'intro ! Merci pour la vidéo ! Votre bonne humeur fait du bien !
j'ai adoré le tech actu a 3
Super format, un peut long mais j'adore votre bonne humeur, ont passe un bon moment 👍
À 3 c'est cool 👍
#les3compères
ahahah trop bien Tech Actu passe au trios !! un point de vue en plus
Super le trio
Deepcool c'est une bonne marque surtout en ventirad boîtier
Question : Yooo Jig! Pense tu qu'il y aura un équivalent de l'AFMF 2.0 pour les CG NVIDIA qui permetrai aussi d'avoir un genre de DLSS 3.0 sur tout les jeux? Car DLSS 3.0 c'est très bien mais trop limité à certains jeux alors que la le AFMF 2.0 est activable sur 100% des jeux ce qui est incroyable en passant 😁.
Et du coup est ce que on pourrait pas dire qu'en termes d'utilisation une 7900XTX foudroie une 4090 niveau FPS dans des jeux où le DLSS 3.0 n'est pas activable? À méditer 😁
Loin de moi a l'idée de défendre Nvidia mais cite moi des jeux ou le dlss n'est pas activable?
@@samedyurt5683je parle du DlSS 3.0 qui est uniquement disponible pour les séries 4000 celui-là est trop peut présent sur beaucoup de titre mais certe celui universelle est présent sur beaucoup de jeux mais se fait manger par un AFMF 2.0
@@samedyurt5683 j'en passe mais des tarkov , star citizen , et beaucoup d'autres jeux ne sont pas compatibles pour le moment DlSS 3.0 alors que nativement AFMF 2.0 si pour le coup
sans sortir du contexte vidéo, c'est mieux à trois!
J’aime bien a 3 c’est plus dynamique👍
Yep , le trio parfait !!! impec 👌👍 #les3mousquetaires
13:50 1349€ le moniteur oui bien sur ☠️
Du délire total, tout ceci va s'écrouler
Vidéo de l’année excellent vous trois réuni !! Merci
concernant les licenciements de intel , il faudrait voir la répartition des postes licenciés pour savoir a quel point les fonctions de management ,de recherche et development et de support son impactées . Dans tous les cas ce n'est pas un bon signe pour les marchés car ce genre d'événement occasione en général la fuite des meilleurs éléments d'un groupe . tout au plus cela peut rassurer un potentiel acheteur désireux de se saisir des brevets et des contrats en maitrisant le cout futur de son achat .
Oui il faut voir :
Achat d’Intel avec les actifs
Achat d’Intel sans les actifs ?
Aplushhss 😇👍🏻👍🏻
Top les 3 mousquetaires 👍👍👍
Merci pour ce tech actu en trio !
vraiment top le format a trois
The best trio!!!
top a 3 et saluuuut les potes
On’as la tri-force R-B-V
Super à trois 👏
# Merci les 3!!!
Trio de légende
First
J adore la question ou Amd est LARGEMENT SUPÉRIEUR,ptdr ,il.y a quelques fps de + avec une qualité degeulasse 😂😂😂😂
Le fsr en ultra c'est du dlss en low/moyen
Donc la du coup dlss aura 50% de fps de +
Les gars ,les fps c jolie pour keke kikou ,mais la qualité d image c le + important
Format a 3 plutôt réussi ca fuse , BCP de polémique stérile concernant les technos , que ce soit Nividia AMD Intel les meilleurs sont celles qui vous donne satisfactions,
oui Nividia est devant en Qualité mais DLSS3 uniquement compatible RTX 4000 mais AMD est BCP plus ouvert d ailleurs bcp de GPU Nividia et Intel profite des Techs de AMD FSR et FG,
ensuite avec AFMF2 ( dommage pour ma RX 5700XT) compatible uniquement RX 6000 et 7000 mais un FSR3.1 cumulable avec FG sur bcp de GPU Nividia Intel AMD et FSR3.1 uniquement sur les petit GPU , en fait avec votre GPU il faut trouver un équilibre en terme de rendu ,qualité ,FPS et réactivité pour avoir une image relativement propre sans tomber dans la paranoïa
Heille! Ya toujour eu le IA depuis un paquet d'années, les pc etc on toujours eu le ia, c'est la source même de l'ordinateur!!!!
Ex: Age of empire, a toujours eu un IA ou appler avant le PC qui jouai contre nous!! Sérieux les boys, faite des recherche! C'est jsute plus puisant aujourd'hui.
Sans le dark mode sur les sites, j'ai de plus en plus de mal à regarder les infos et à avoir un fond blanc éclatant sous les yeux sans avoir très mal au crâne.
Ca fait longtemps que je regarde les actus, très longtemps.. Mais ma vue me trahit petit à petit.. Un sondage pour voir si on est beaucoup ou une majorité ça serait peut-être pas mal?
Sinon j'ai préféré la vidéo à 3, ça fait plus authentique avec des avis qui divergent, ça fait plus dynamique.
Merci 👍
Le tech actu à 3👌
PS : Je me souviens de l'époque où Intel avait un monopole sur le CPU pc. Une période de stagnation technologique et pas franchement d'un bon rapport prix/perf. AMD et Cyrix ont bien bousculés Intel à l'époque.
J'suis aller vérifier la fiche technique de la RTX5090 32Gb pour le moment ils disent 600W . Donc je ne sais pas d'ou sortent les fameux "1200" mais c'est certainement la conso d'une autre version certainement réservée uniquement aux professionnels donc encore plus chère mais pas pour le grand publique. Même si côté pro ils essaient aussi de consommer le moin possible donc cela n'a pas de sens pour l'instant.
Et je je suis trompé sur la GDDR7 actuelle (enfin qui va arriver) selon la grosseurs du bus se serait plutôt environ 2 fois plus rapide que la GDDR6 et encore c'est pas si sûr. Nous verrons bien . J'ai confondu 1.7TFlops avec 1.780Gb/s mdr sur un bus de 512 bits . Ce qui est bizarre car sur le site de SK-Hynix ils disent 1.780Gb/s sur 382bits . Donc affaire à suivre. (Jusqu'à présent je crois que les plus balèze en grand publique montez jusqu'a 800Gb/s max mais à vérifier bien sûr) . Et pour le SLI ce n'est pas encore mentionné sur la fiche technique (normalement y'a ecrit "Compatible SLI > Oui ou Non). Même si je crois qu'il n'y a plus besoin d'ajouter de pont pour le SLI mais à vérifier car il me semble que cela ce fait de moins en moins . Mais effectivement si on y met 2 RTX5090 cela pourrait monté à 1200W max .
De tout de façon le SLI et le Crossfire n'a jamais pu doublé les perf des jeux via 2 GPU . Même si de nos jours y'a des fonctionnalités spéciale qui peuvent améliorer le rendement mais ouai cela dépasse rarement les 40% de perf en plus. C'est pour cela que pour le grand public cela ne sert pas à grand chose .
PS: Et la RTX5080 16Gb serait de 400W en TDP max avec un bus de 256bits et une vitesse de la bande passante (en GDDR7) de 896Gb/s . Ce qui est plutôt pas mal avec un bus aussi petit de 256bits et de "seulement 16Gb" , donc en gros ils ont doublé le bus sur la 5090 donc 512bits pour obtenir juste le double en bande passante (ce que je trouve pas ouf pour 32Gb même si cela parait logique, sauf que bien souvent l'informatique n'est pas logique mais c'est un autre débat) . 😂😅👍
Merci pour tout en tout cas !! 💯
Très bon tech actu même si ce serait cool de voir vos blazes sur vos cam en incruste , qui apparaissent de temps en temps pour les "nouveau comme moi" qui ne connait pas forcément vos noms sauf Jig bien sûr mdr.
J'ai une alim 650watt , c'est ma limite psychologique, toute CG qui m'impose de changer d'alim est mise de coté. Les 320/340watt de ma 3080 sont déjà scandaleux. On parle de gaming et de productions moyennes, on ne parle pas de sortir le prochain Jurassic Park / Avatard ou d'analyser l'horizon d'un trou noir !
Avec un bus de 512bits + autant de cuda core + de la GDDR7 presque 4 fois plus rapide que la GDDR6 c'est pas surprenant les 1200W ! (Reponse au titre) . Puis nous on le sait très bien pour atteindre les TDP Max y'a qu'en Stress Test sur benchmark qu'on peu atteindre le TDP Max . Donc elle peut aller jusqu'à 1200W mais à mon avis si tu depasse les 600W en usage basique/et même en gaming , ce serait déjà un exploit. Pour le moment sauf si vous êtes en 8K et encore , plus de 16Gb de VRAM c'est juste overkill pour rien (mais c'est bon pour le long terme et encore si tu changes pas de GPU tout les 3 ou 4 ans).
Sans oublier que les 4090/5090 sont des cartes pro grand public. Les vrai GPU PRO sont largement plus chère que les 4090/5090 avec des GPU à plus de 5000e mdr . (D'ailleurs si AMD Radeon ne font plus de carte pro grand publique ce n'est pas pour rien , ils ont des GPU Pro avec memoire HBM bien plus véloce mais bien plus chère que les RTX4090/5090 , sauf que c'est réservé aux professionnels (même si en réalité on peu en acheter si vous voulez flambé plus de 4000/5000e pour rien 😂).
Maintenant je mate : 🍿🍿
On peut mettre à jours les bios automatiquement sur les cartes Asus (via EZUpdate) mais ça plante une fois sur deux 😂. (EZUpdate qu'on ajoute sur windows bien sur , mais y'a aussi la version direct dans le bios , mais le plus fiable cela reste par USB) .
IA , IA , IA , c'est un peu comme NVIDIA qui utilser par exemple le Ray-Tracing, Ray-Tracing, Ray-Tracing... Juste comme un argument marketing (histoire de dire en tout cas au tout début "Nous on fait un truc qu'AMD Radeon ne font pas encore mdr" , puis AMD Radeon qui sort des software "nous on fait des software même pour les GPU abandonné par NVIDIA 😂" .
Y'a trop de drogue qui tourne en Californie ! 😂
Je suis d'accord avec ce que dit (je ne sais plus son nom) qu'avec la PS5 pro c'est possible qu'ils veuillent faire comme les PC sauf que Sony sont naze niveau optimisation d'OS (et logiciels (software) de manière globale , d'ailleurs si les smartphones Sony sont aussi mauvais c'est parce-qu'il sont ultra mal optimiser 😅😂)).
Au top votre trio !! 💯👍
Pour le pilote AMD Software tu touche presque à rien (tu choisis juste mode Gaming / Hyper-RX ou autres) puis tu laisse le pilote calibré le GPU en rapport avec ton écran (exemple si ta un écran 32" 1440p 144Hz , le mode auto fera le taf et donc fera monté le GPU qu'a 144fps max ce qui est largement suffisant sur un écran en 144Hz). Y'a pas besoin de plus et le GPU ne turbinera pas à mort pour rien . Car on peut faire monté effectivement à plus de 200fps mais si le reste de la config ne suis pas dont l'écran bin ça sert plus a rien de nos jours . (Sans oublier de mettre la CM en mode gaming/perfomance , ainsi que la gestion d'alimentation en mode performance si vous voulez gratter un max de puissance sans trop vous salir les mains) . 💯😉
PS: Unity c'est de la daube à côté d'unreal engine 5 mdr . J'suis aller vérifier la fiche technique de la RTX5090 32Gb pour le moment ils disent 600W pas 1200W .
La 5090 elle va carry mon écran samsung odyssey neo G9 8K 240Hz
Yes pour les assets épic game , obj USD, avec logiciel maya ou autre logiciel zbrush, blender, marvelous yesssssss
Salut le trios, alors d'après ce que j'ai compris (ce que Paolo disait) l'alim de 2200 watts avec les 2hpwr serai utilisé pour alimenter un "potentiellement "SLI" de 5090 même si c'est pour du pros. Que sa passe part un "bridge" ou direct par la carte mère sa change rien car faut bien les alimenter les 2 5090 (avec potentiellement du 600/700 watts sur une seul carte) donc sa ferais déjà 1200/1400watts uniquement pour les CG. En tout cas merci pour ce genre de contenue très instructif.#lestroiscomperes
Si j'et bien compris l'article que j'et lu, Intel à refusé le rachat par Qualcom!!
Ils onts d'ailleurs annoncer qu'ils ne vendront pas!
Peu importe l'offre de rachat c'est non!
Ouf!😤
Alors, la RTX 4090 est clairement destinée aux gamers. Sinon, elle aurait plus de VRAM que la 3090.
Pour l'IA, 24 Go de VRAM ne sont clairement pas suffisants. Il faut plutôt regarder les solutions professionnelles avec au moins 40 Go, voire jusqu'à 192 Go comme le B200.
L'IA est bien capable de travailler en multi-GPU, mais d'après ce que je sais, le SLI ou NVLink n'est pas nécessaire. Cela ne sert que si des données se trouvent sur une autre carte graphique pour éviter les pertes de temps lors du transfert (pour rappel : DDR5 offre théoriquement 64 Go/s et la VRAM actuelle atteint environ 800 Go/s). Mais pour les jeux, cela reste inutile car les cartes sont déjà trop puissantes et il n'y a pas encore de jeux nécessitant plus de 24 Go de VRAM.
QUESTION: Bonjour Jig et bonjour l'invité surprise.
Je possède une config dans ma maison secondaire Ryzen 5600g, MSI B550 Pro VDH, Crucial 32go ddr4 3200, Arès Gaming 650w,
EVGA RTX 3060 XC 12go, boitier Mars Gaming MC300W.
Est ce utile de changer de config sachant que avec mon écran AOC 3440x1440 ca tourne impec sauf que la CG tape les plus de 75°.
Si oui, quel CG me conseillez vous pour avoir au moins les même perf,
60fps VSync tout au max ou au moins en high et ne pas dépasser les 70° ?
Merci d'avance si tu décides d'y répondre. ❤
Ma 3080 strix a déjà tiré 825w sur TSE vous parlez de quoi les gars xDDDD
Je voudrais qu'ibm fasse du grand public :
Apple vs intel vs amd vs Qualcomm vs mediateck vs ibm.
Ça serait la course à l'innovation
Coucou
Très belle vidéo
Par contre je revient juste sur ...90
Les versions ...90 était réservé en premier lieu pour les bi gpu chez Nvidia 😅😅
Je reviens sur le pont sli, j'ai toujours utilisé cette tech pour mes record 3dmark. Mes premières etait les gtx 580. Et dans l'absolue les dernières générations de sli, était pour le mariage de la mémoire, le gpu 1 pouvais pioché dans la memoire gpu 2 et vice versa
Je regretté tellement que les dev, quand nvidia à annoncé le sli ouvert dans directx 12, qu'aucun dev n'est suivie par fainéantise 😭😭😭
Pour les perf, suivant les jeux. On était largement plus de 40%. Moi je prenait casi 80/90% avec une reglage oc au petit oignons
Pour info le sli avait toujours été maintenue chez Nvidia, il était proposé par leur pilote. Le programme Nvidia permettait de copier " utilisiez " un profile déjà existant d'un jeux sur un autre jeux, de préférence le même développeurs. Mais certains petit réglage permettait effectivement d'optimiser un peut la portabilité.
Je trouve que vous faites une belle équipe, chacuns à son importance. Comme je le vois c'est, Paolo notre porte porte parole, Pax le technicien et jig le chef d'orchestre à la Louis fùnes 😁
Question: on a peu de teasing sur la nouvelle gen de gpu. Les autres années on coulaient sous les promesses improbables. Que faut il attendre d'une gen qui ne fait pas bcp de promesses? Est ce que ce sera qu'un refresh avec qqe tech marketing embarquées (dlss incompatible avec gen antérieures, ia partout, fpfsr et je ne sais quel acronyme a la con...)?
Bisou et merci
Du coup, elle sort quand et à quel prix la 5090 svp? Pour m’éviter la vidéo entière et les bla bla
Merci
Cool cette vidéo en triplettes. Obligé d'être toujours 3 maintenant 🤡
tu as un probleme avec les Vosgiens notre petit casque a pointe @jigfio
5090, 1200 W de conso, 2x connecteurs d'alimentation, c'est une centrale nucléaire qu'il faudra pour alimenter tout cela, qui plus est pour du gaming, sérieux du grand n'importe quoi...
Bonjour, dans l'actu 13 pax parle du gap rtx 3000 vs rtx 4000 en performance par watt. On passe de samsung 8 nm pour les 3000 en tsmc 5 nm pour les 4000 ici nous avons un gain de 60% en gravure, avec une optimisation du gpu. Pour la prochaine generation s'il reste a 5nm, ou 4nm il n'y aurait pas ce même gap er si NVIDIA passe au 3nm, le prix va plus explosé.
Armoury crate, je le trouve mieux que le logiciel de gigabyte. Si tu ne veut pas installé armoury, faut d'désactivé l'option dans le bios.
Moi j'attend Snapdragon elite déjà mon nubia rmp8 est plus puissant qu'une ps5 🤣 qu'un iphone15
9800x3d et 5090 qui arrivent peut être presque en même temps ça va faire mal
Oui mais quel gain pour 600€ le CPU Amd -9800X3D et 2200/2400€ la RTX 5090Fe ou customs ?
Le rapport qualité prix ?
Les rumeurs du net annonce la RTX 5090 seulement a un +40% en flat pc et VR 😮
+40% pour 2200/2400€ la carte graphique Vs nos « RTX 4090 » !😮
Sérieux ?😮
Là je vais être comme Ging,je Kouine très fort (à raison ) et j’attends la RTX 6090 + amd 13800X3D fin 2026 pour faire fonctionner les nouveaux casques Vr 3.1 en simu avec un vrai GAP sur ces casques VR :
Pimax Crystal Super (2025)
Varjo XR-4 (déjà commercialisé)
Un +40% ce n’est pas suffisant pour les simers .
Surtout avec la sortie le 19/11/24 de Mfs 2024 qui demande de base pour un écran 4k une RTX 4080 + 64go de ram et un 7800X3D ou un 14900k 😮
Donc la RTX 5090 qu’elle consomme beaucoup ou peu (au passage en burn en simu la RTX 4090 consomme pas les 450 annoncés il y a 2 ans ),je passe mon tour avec ce futur GPU qui en auras pas assez dans le slip .
En plus les prix vont être coton !
Cette RTX 5090 me fais penser à une RTX 3090.
C’est à dire la carte qui sort pour faire fonctionner des casais VR actuels au taquet en option graphique en 2024:
DCS WORLD
Mfs 2020/2024
Il2 Bob
Iracing
Sur des casques Pimax Crystal/Light/Meta Quest pro /Varjo Aero .
Mais dès 2025 avec les nouveaux casques 3.1 la cette configuration seras en PLS :
Pimax Crystal super =3840x3840 par œil à calculer soit = 7680x3840 en 90 ou 120hz 😳😱😱
Et là déjà en 2025 la RTX 5090 ne pourras pas pousser nos simus au taquet 😵sur ces nouveaux casques .
Et donc début 2027 ,2 ans à peine rebelotte il faudras changer :
CPU+ GPU ,d’ici là la tam DDR6 seras peut être déjà la !
Donc perso je zappe la RTX 5090.
Sur nos casques vr actuelles la RTX 4090 fais très bien le job :
-Iracing multi \30 voitures en piste et jeux au taquet en option graphique :
120fps -120hz !😊
Que demander de plus avec mon Amd 7800X3D ?
Aplushhss 😇👍🏻
Je vois pas pk tu aurais un plus gros gap de puissance entre les rtx 6090 et 5090 que les rtx 5090 et 4090 ça n’a jamais été des carte bon rapport qualité prix d’ailleurs c surtout si t’a pas vraiment de budget et que tu veux ce qu’il y a de mieux sur le moment.
Si t’a déjà une rtx 4090 c’est normal que tu ne veuilles pas changer et au moin attendre les rtx 6090 pour changer y’a pas grand intérêt pour toi mais pour quelqu’un qui a le budget et qui achète une config entière par exemple partir sur une 5090 si elle est bien en 32 g 512 bits etc on peut pas dire que ça envoie pas du lourd même si le prix risque d’être aux alentour de 2500€ je suis d’accord
jte mets un logo ps5 sur tes chocapic et jte vends la boite 50e...bon appetit , blaireaux 😂😂😂
Booster par l’IA je suis pas étonné . Le marketing est partout mon mareyeur aussi!
lui vend des moules bio . Ah bon la mer est bio .En vente chez Leclerc partout en France . 😂😂😂😂😂😂😂😂
SUPER une vidéo à 3 trop la classe ! Trop de la voir je regarde ça demain matin avec mon café . 🙂
PAX à côté de la plaque, bien bouffé par le marketing…
pour intel, ça me ferait bien plaisir de voir cette saloperie de x86 mourir. ARM et RISC -V sont bien mieux
perso, j'ai la msi b650 dans le boitier antec c5, pur bonheur pour brancher les cables. Le truc un peux chiant, c'est les cables d'alim qui sont trop long maintenant car, dans le C5, l'alim est positionné derriere le cpu. Genre des cables de 5cm pour le 24pin et l'alim cpu serait suffisant limite.
Pour la carte graphique, j'ai réussi à la positionner a la verticale, devant les 3 ventilateurs verticaux du c5. Un rizer de bonne qualité ne donne aucune perte pour ma 6800xt) Aussi, la carte est maintenue en l'air avec un support accroché sur le haut du boitier disigné et imprimé par mes soins (j'en ai chié pour le créer).
pour Paolo qui dit qu'il plaint les gens qui passe 5 ans sur unity, en effet tu peut les plaindre, surtout quand y ont appris y'as quelque temps que unity voulais les facturer pour chaque téléchargement de leur jeux (même si c'est le même compte qui télécharge sont jeux pour la 10e fois) et bien sur applicable sur tout les produit même ceux déjà sortie. ^^
beaucoup de studio qui faisait des jeux sous unity depuis des année on dit "bye" et sont parti voir ailleurs... même certain studio qui avait déjà des années de dev sur un jeux...
Optimiser les fps optimiser les fps !
Que ça al la bouche mais optimisez ces putains de jeux code à la pisse surtout.
Qu'il se fassent assister par l'IA qui pourra traduire leur jeux de merde écrit en python ou basic amstrad en c++/ Asm avec simd.
POUR PAX cervelle de petit poids , la "TITAN" a la base modéle intermediere entre gaming et pro
dès que je vois une nouvelle vidéo de JIG ou PAX je like directe, c'est toujours des contenus de qualité.
Super tech actu à trois ! Ambiance au top ! Les 1h20 sont passées aussi vite que les autres tech actu :) Et perso, je suis totalement pour un tech actu avec des professionnels du game design ;) Ça doit être super intéressant
Totalement anti écologique NVIDIA 😢
Pourquoi ?
Les 600w qui sont du pipo ?😮
Ta cru qu'ils sauveraint les dauphins ?? 😂😂 . Pour réussi à faire 60% de marge dès la première année de lancement... Y'a des trucs qu'on ne nous dit pas 😂
Pour le coup j’ai utilisé leur soft « AI suite 3 » et j’ai pu facilement mettre à jour mon bios de carte mère (une asus b550 ) ceci dit faut quand meme télécharger le bios au préalable sur leur site mais plus besoin de clé usb ça se fait directement sous Windows
Super le trio top et toujours très qualitatif et intéressant avec la pointe d’humour qu’il faut, merci à vous trois pour ce bon moment de tech actu. 🙂
Hello, jig, Pax, palo et la communauté
Perso j’aimerais bien revoir Guillaume le petit à du faire ses nuits depuis 😊
Je m’inquiète nullement pour Intel ( la vermine ne meurt pas facilement xd ) euh plus sérieusement je doute que les usa ne leur donne pas un financement pour le reste on verra le haut de gamme de nvidia me fais nullement rêver contenu de leur consommation mais vu la finesse du Die et des performances de la précédente gen ça se comprend
Bonne journée
@+