AMD n'a pas adopté cette technologie et c'est tant mieux. Je suis curieux de voir comment Nvidia va traiter le problème vu le si peu de considération que l'entreprise manifeste envers ses clients et ses partenaires. Très bonne vidéo 👍.
En regardant la vidéo jusqu'au bout, il est dit que Nvidia demande le retour des CG concernées (à ma connaissance et aux dernières nouvelles, cela concernait 9 cas au total). Et les personnes concernées verraient leur CG remplacée, de ce que j'ai pu lire sur Reddit. Par contre, je suis d'accord pour dire qu'AMD a bien fait de ne pas adopter cette norme pour l'alimentation de ses CG.
@@greymantle6949 Sauf que les gens présent sur redit c'est une sacré minorité , d'une déjà très petite minorité de gens capable de mettre 2000€ dans une seule carte graphique , et quand ces 4090 finissent dans des entreprises tu peux être sur que tu n'entendras jamais parler des soucis vu que sa repart direct au distributeur voir au fournisseur en cas de soucis donc la en gros tu as seulement la partie publique des gens qui ont acheté des 4090 et qui en plus partagent leur vie sur reddit soit une encore plus petite minorité
Mais sérieux, tu te dis la mêmes pour t 'on litre de carburant, d'huile de tournesol t'on kilo de pâtes ou de tomate t' on m² de flotte et même si tu le pays tu ne peux en jouir comme bon te semble, enfin tout ce qui est "vital" pour le bon fonctionnement d' un corps organique. Et la les mecs avec leur toutes petites ridicule coui**** vont dires aux grosses bi*** qu'il font de la m***** mais lol les gars vous avec rien comprit, là nous sommes dans la tech hardware donc au antipode de l'organique là ou le vivant est subsidiaire la ou la big data prévaux la ou 0.1% de + ou - te fait perdre ou gagniez, infecter ou pas, devant ou derrière... Ne soyez pas sot la Tech c 'est la tech avec des volumes des cou de R&D de productions exorbitant qui ce traduit par chère. L'avis d'un(anus) ou d'un groupe(>1anus+1) de personnes motiver par le biais de x ou y choses enfin choses ou carotte et quand ces gens ou ce groupes d' anus ce prennent la carotte dans le fondement et bien ils ce mettes à faires et dires n'importe quoi à n'importe qui en sommes à foutres le bordelle et je me demande au nom de quoi. Ah ces troles, au sans figuré mais aussi au sens propres enfin propre de gros dégueulasse. PEACE
Petite video totalement concrete, claire, et factuelle. Je me permettrai de rajouter ceci, nous avons x pins pour le 12V et x pins pour le 0V qui sont en fait en parralele d'un coté sur l'alim et de l'autre sur la carte graphique. Il vaut toujours mieux un gros cable unique d'alimentation via un connecteur que x cables plus petits. Soit, dans la theorie, avec moins de 1% de marge chaque pin va pouvoir passer sans soucis la puissnce et le courant. Mais cela c'est en effet la theorie. Il suffit qu'une pin voit sa resistance de contact legerement augmenter pour qu'automatiquement le courant sur les autres pins augmente vu que le courant sur cette pin va baisser, et par avalanche, de 1 pin qui varie, passe a deux par echauffement et apres c'est depassement de toutes les marges de securité, le connecteur fond car les connecteurs restants sont sollicités au dela de leur capacité... Ce connecteur est en effet une heresie qui pousse au crime les cartes... Ca fonctionne sur le papier, mais pas en realité ou c'st le feu assuré a court, moyen ou long terme... En tout cas merci pour cette explication claire et precise. Super video.
Vraiment bien joué d'avoir intégré toutes les sources des docs technique en plus des explications. Belle vidéo d'intérêt général. Bonne continuation et merci d'avoir mis les points sur les i.
Aussi la répartition de courant n'est jamais parfaite pour les 6 pins. J'ai vu des diagrammes sur Reddit où on voit un pin qui est arc-bouté et qui produit une résistance faible.
Gamersnexus a fait une vidéo sur ça. Apparemment on peut faire passer tout le courant sur seulement 2 pins sans surchauffe. Il a coupé les autres pour essayer de rcecréer le probleme. Au final le probleme vient du fait que l'utilisateur n'a pas inséré correctement (à fond) le cable ET qu'il est tiré d'un côté créant une connection faible sur un pin et donc resistance et surchauffe rapide.
Très bonnes explications ! Sachant que le courant électrique est un grand fainéant et passe au plus facile et sur l'extérieur du câble électrique. Donc les conducteurs étant plus petits, il y a chauffe anormale des câbles.
Donc en fait, Nvidia a poussé jusqu'à la limite sur tous les paramètres : la taille, la conso, le prix... et l'ampérage ! En tout cas, merci pour cette vidéo super détaillée. C'est vraiment la vidéo parfaite pour que les gens puissent tout comprendre. 😉
Excellente vidéo comme d'habitude. Le problème numéro 1 pour moi ce n'est pas le connecteur mais la consommation, on marche littéralement sur la tête et on va droit dans le mur, au delà de 300W ce devrait être tout simplement interdit, en tout cas pour le marché grand public..
Nos fours consomment plus de 800W, micro-ondes aussi, et je ne parle meme pas des machines à laver + seche linge ect. Je vois pas pourquoi on n'aurais pas le droit d'utiliser un pc avec 500 watt voir 800 watt de conso, sachant que les alims sont ultra sécurisées
@@Julien-hu4cc Parce que le four ou le micro-onde ont ne l'utilise pas 8 à 12h par jours dans certains cas le week-end ou bien 2 à 3h en continu chaque soir de la semaine peut être 🤔. Et puis à penser comme ça d'ici deux ans Nvidia nous sortira une carte consommant 800w de manière tout à fait normal et cela ne choquera pas ces super clients 🤡🤡
@@On-en-a-Gros Et de la même manière on utilise pas la capacité max de son GPU en permanence, sauf si on joue 8h par jour avec un OC énervé...mais qd on atteint ce point là on a d'autres problèmes dans la vie😁. Par ailleurs, le grand public n'en a rien a foutre des 3090/4090, c'est "overkill" et de toute façon hors de prix. Après sur le principe je ne suis pas fondamentalement en désaccord sur le fait que ça consomme trop - est ce que c'est bien nécessaire? est ce que la faute ne revient pas aussi à des questions d'optimisation de soft/jeux dans cette surenchère? Bref, on verra si la prochaine génération se vendra bien ou pas et si les constructeurs en tireront les conséquences.
le choix du connecteur n'est pas trop une erreur, l'erreur c'est le cable fourni par nvidia. Tout ceux qui ont des soucis sont ceux qui ont gardé celui d'origine si la marque de la carte ne l'a pas changé.
J'ai toujours penser que le connecteur pci-e "classique" avais eu une ou deux "maj" de ces spécifications depuis ces 10 dernières années, sur les alimentations, pour justement supporter les nouvelles carte graphique. Car vu le connecteur, sa ce voyais qu'il pouvais faire passer plus que 150w. En revanche, je suis toujours étonner du choix de ce nouveau connecteur, limite il aurais été logique de le mettre sur les petites carte graphiques pour soigner le design du pc, mais il apportais rien de plus. C'est même pire, c'est potentiellement plus "susceptible", vu qu'au début il y a de forte chance qu'on utilise un adaptateur pci-e, le temps que les fabricants d'alimentation le déploie.
Belle vidéo explicative, mais je pense aussi que comme déjà indiqué sur le net c'est aussi l'adaptateur Nvidia qui pose problème, les "fiches" de celui-ci ont deux fentes alors que ceux d'autres marques ont qu'une fente d'après ce que j'ai pu comprendre et voir, ce qui inséré serre ainsi moins les pins et peut prendre donc du jeu. A mon avis trop d'ampères pour cette connectique, mais aussi un problème de conception de l'adaptateur Nvidia, l'un + l'autre => donne un risque accru de mauvais contact, donc d’échauffement et de fonte.
Il faut aussi ajouter que le plastique utilisé pour les connecteurs est auto-extinguible c'est à dire qu'il contient des agents chimiques qui vont éteindre la flamme en cas d'apparition de celle-ci .
450 Watts de conso c'est du délire. Ça fait plus de 35 ampères en 12volts !!! L'argument foireux qui nous est présenté depuis des années : plus ça consomme et ça dégage la chaleur, plus c'est puissant. Sérieux ils arrivent très bien à faire des composants puissants à faible consommation sur les ordinateurs portables, quand est-ce qu'on nous proposera des composants peu gourmands en énergie ??? C'est sûr que sur ces composants à forte consommation les coûts de fabrication sont plus bas et les marges plus juteuses !
S’il vous plaît, ne me bully pas mais pourquoi ils ne peuvent pas rajouter un 24 pins supplementaire sur les alims pour pouvoir le brancher sur une carte graphique gourmande? Ça va diviser le nombre d’ampères par pins par deux ce sui fera 4 ampères par pins sur une limite de 9 a par pin.
vidéo hyper intéressante par contre l'image d'aperçu de celle-ci sur le fait que la rtx 4090 brule alors que le connecteur peut fondre et qu'aucune carte a ce jour n'a pris feu , pas terrible
@@Jean-baptiste_Colbert les cartes ne brulent pas , le cable d'alim fond . Il y a plein de cables d'autres marques qui fonctionnent parfaitement , les possesseurs ont une solution pérenne sans penser qu'ils ont jete 2000 euros par la fenêtre . Ils peuvent utiliser leur PC en attendant d'être dédommage par Nvidia .
Super explication, moi je suis passé chez AMD depuis quelque temps et au niveau prix performances je m'y retrouve largement, maintenant une connectique mal pensée pour un GPU à + de 2000, € ça craint !
@@pysordes Au niveau des couleurs, contrastes, lumières etc... c'est l'écran qui fait la différence au niveau perfs en jeux un GPU AMD ou NVIDIA de même catégorie y'a quasi aucune différence, vas voire les tests sur UA-cam !
🧠Top , très explicite et compréhensible de toute cette malheureuse décision codécidé avec le PCI SIG et NVIDIA. Je suis content de me contenter d'une NVIDIA 3080 Ti Mais assemblée par ASUS. Vu la tournure des évènement ses dernières années d'ici 5 à 10 ans quand je choisirai une nouvelle carte graphique, je prendrai une AMD ASUS car ses 2 marques de concert ne m'on jamais déçu.🖥
d autre testeur de matos on remarque les câbles des connecteurs, etait donner pour 150 volts pour ceux qui on cramé, alor que pour ceux qui n on pas crame, il avais des câble donner pour 300 volt ...
Comme j'ai déjà dis sur d'autre poste... A t-on la certitude que toute les broches sont commuté sur la carte ? Ça serait intéressant de mettre un ampèremètre sur chaque "12v" pour voir si la consommation est reparti. Sinon on pourrait se retrouver avec certains pin qui dépasse les 8,5A....
ça risque d'être en parallèle, pour répartir le courant, mais si l'un des plots devient un peu résistant, le courant qui passe moins va sur les autres (qui sont déjà au maximum). Ils pourraient les dorer, ça ne s'oxyde pas et ferait 'pro'. 🙂
@@Photoss73 comme dit dans la video. C'est exactement pour ça qu'il aurait du laisser une marge de sécurité Ensuite il va falloir être vigilant sur le connecteur côté alim. Et la marque du cable. Parce que si le connecteur de la 4090 supporte les 8,5A, qu'en est t-il du cable... Je pense qu'il aurait du le doubler....
@@mikemorel2069 pas forcement le doubler mais utiliser du rigide plutôt que du multi brin (souple) d'une ça aurais permis une meilleur résistance à la friction lors du câble management et aurais eu une meilleur tolérance sur la charge admissible, à titre d'exemple la cos de connexion fait 3mm pourquoi ne pas avoir utiliser du rigide en 1.5mm qui tolère une charge jusqu'à 1500W (câble utilisé pour de l'éclairage en maison) le problème serait réglé mais y a des normes en électricité en la basse tension comme le 12V c'est avec le multi brin que c'est raccordé et non du rigide, hors le multibrin est sensible à l'étirement et/ou friction, le problème dans le cas présent et le connecteur 12 pin et sous dimensionné vs le 8pins qui lui est surdimensionné.
@@Eondragon le fils rigide n'est pas une réponse d'ailleurs ce n'est pas le fils qui est à remettre en cause mais bien le connecteur. Ce n'est pas le fils qui ne supporte pas le courant. C'est le connecteur qui est limité à 8,3A par pin. Compte tenu de la longueur du cable. Les 8A passe largement dans un fils de 1mm2. Et si en courant continue on utilise du souple. C'est pas pour des raisons de norme... Mais ça serait long à expliquer...
C'est compliquer de ne pas courber le câble quand on voit la taille des CG. Une fois mise dans le boitier tu es obligé de plier le câblage bien avant les "3,5cm" préconisés...
Serait ce possible que la carte teste la resistance sur chacune des broches au démarrage et au cas ou les valeurs ne sont pas acceptables ne démarre pas (ou bien perfs bridées avec une LED rouge qui s'allume sur le PCB pour indiquer que quelque chose ne va pas) ?
Ah ben oui, les photos sont sans appel : les contacts sont trop fins. Etant donné le nombre d'Ampères qu'ils doivent encaisser, c'était attendu. Le plastique des connecteurs fond simplement parce que les contacts métalliques surchauffent par effet Joule. Et comme en plus il y en a moins que sur les cartes précédentes pour répartir l'intensité, ça fait plus d'Ampères par picot. C'est malin !
Beaucoup de ces connecteurs fondus sont trouvés sur les modèles des AIBs. Je suis curieux de savoir si c'est arrivé sur les FE sachant que le bios des FE peut se sortir à 600w sans flash ce qui n'est pas le cas de beaucoup de modèles des AIBs (attention je ne parle pas de ceux qui flashent un custom bios). Après il y a aussi la qualité de fabrication qui a mon avis n'est pas la même que sur les FE.
d'après toute les vidéo que j'ai vu aucun n'est arrivé aux FE cela est surement du au fait que les marque tiers donnent justement la mauvaise connectique qui est limité a 5 ampère après ce n'est qu'une supposition
Attention le connecteur pcie 8 broches c'est 6 broches pour l'alimentation et 2 sondes. Il reste toujours une marge de sécurité confortable contrairement au 12vhpwr. Il faut aussi rajouter les pins du 12vhpwr de nvidia sont en 2 partie comme cela [ ] alors que les pins des autres connecteur sont généralement en U fermé qui est bien plus résistant à la déformation et donc risque moins de créer de faux contacts avec les conséquence que l'on a vu.
faux c'est 3 broches d'alimentation (3x12V + 2xSense + 3xTerre) 6x12V c'est le 12vhpwr, mais tu as raison sur le fait de la marge de sécurité car ces 3 broches n'étaient censées voir que 150w/connecteur soit (150w/3pins)/12v=4.17A alors que le nouveau connecteur lui est censé voir ((600-75)/6)/12=7.29A par broche de +12V (75w viennent du port pcie je les ai déduits du 600w) on a un quasi doublement du courant dans un connecteur plus "serré" au bout et le problème du courant (A= ampères) c'est que si on le coince dans un "tuyau" trop petit ça chauffe puis brûle c'est le principe des fusibles ce sont des fils avec un diamètre et une resistance calculées qui brûlent quand le courant et trop grand coupant le circuit
Il y a les connecteurs mais aussi les câbles quelles sont leurs spécifications ? quand on regarde une vielle alim et les dernières sortis il y a une différence de AWG !!!
Etant donné la monstruosité de la RTX 4090 en terme de puissance, un très léger undervolting ne pourrait-il pas réduire ce risque ?? (Oui je sais, les gens vont me jeter des cailloux pour avoir prononcé les termes "undervolting" et "RTX 4090" dans la même phrase ...)
Non si tu mets moins que 12V sur ce connecteur, le convertisseur embarqué sur la carte va tirer encore plus de courant pour arriver à maintenir le Vcore de la puce, donc ce pauvre connecteur va chauffer encore plus.
Je ne suis pas connaisseur en électro. Mais quand je compare ca a nos méthodes dans l’industrie aero, en plus d’avoir complètement foiré leurs specs au niveau des marges de sécurité, Ils n’ont manifestement réalisé aucuns tests durcis pour la qualif du cable…. A ce niveau la c’est plus de l’incompétence mais du handicap.
Salut. Super vidéo. Comment faire pour t'envoyer une carte pour que tu regarde ce que l'on peux en faire... J'ai récupéré un carton de fake 550ti 6g lol et il y a tout les emplacements de puce graphique occupé... Merci à bientôt
Quand on voit qu’il faut 3 « anciens » connecteur pour faire passer 450W avec 24 broches, là on a 600W sur 12 broches, donc déjà là il y a un noeud. Perso, sur ma 4090, je ne vais pas tenter d’OC / pousser le power limit au dessus de 100%. Faudra un bundle avec la 4090 + camera thermique + extincteurs CO2 :)
le pire tu as plus de puissance moins de broche et au lieu de faire comme en elec si tu as moins de fils tu augmente la taille Nvidia eux l on reduit x( REIN NE VAS ! PERSO JE PENSE QU ILS ONT OUBLIER OU SOUS ESTIMÉ LES PIC DE PUISSARCES
comment ne pas plier le connecteur? la carte rentre a peine dans la majorité des boitier. Il faudrait plier seulement 35mm apres le connecteur, sauf que personne n'as la place pour faire ça. rien ne va . Ou alors il faut placer les connecteur sur le coté verticale droit de la carte c'est la ou il y a le plus de place mais comme le pcb ne va pas jusqu'à la bas, impossible
Je suis assez d'accord mais je pense qu'il y a un petit problème dans tes explication. Il semble d'après gamer nexus qui a sorti une video que certain adaptateur ne soit pas d'assez bonne qualité pour être utiliser sur les 3090 ensuite, ensuite je crois aussi que ce sont les adaptateurs qui ont des problème et non les connecteur entièrement compatible.
Merci pour cette vidéo informative, y'a-t-il du nouveau en 2023 concernant cette connectique ? J'ai une alim 1kW mais elle n'arrive pas avec des connecteurs PCI-E à 12 pin ... Les nouveaux modèles sont ils plus safe aujourd'hui, sont ils aussi directement délivrés avec le GPU ?
Bonne vidéo. Je ne comprends pas comment une solution comme ça peut être adoptée. Car malheureusement, le risque d'incendie est bien réel dans ce cas. Une intensité trop forte en courant continu, ça pardonne pas ...
Il n'y a aucun risque d'incendie, au maximum de fonte du connecteur. C'est un problème, et oui au niveau de la norme PCIe il va falloir une évolution, mais il faut vraiment arrêter d'exagérer les choses.
hmmm par contre toute mes recherche semble indiqué qu'un connecteur PCIE 6+2 n'a que 3fil 12V le "+2"(2GND) servant avant tous de détection pour la CG indiquant que l'alimentation peut bien délivré la puissance nécessaire non?
Salut Goodwin, merci pour cette vidéo très bien expliquée et instructive. J'ai une rtx3080 et 3 rallonges de câbles gainés de 8 pins chacun de marque Silvertone, pour l'esthétique. Ma question est est ce qu'il y a un risque de fonte de connecteur ou du cable sachant que ce sont des rallonges gainées ? Merci.
bonjour goodwin , j'aurais une question qui n'a rien a voir avec ta vidéo ou je pose ma question ! est- il possible de changer les connectiques de branchement d'un écran 19" avec un branchement vga par une carte controleur avec un port hdmi et/ou dv-i ? merci pour tes vidéos , elles sont au top ;)
ça n'en est pas une, car comme le dit dans la vidéo le câble peux encaisser jusqu'à 3 x l'ampérage envoyé donc ça reste dans la marge de puissance admissible.
Il me semble que le problème ne vient pas du connecteur mais de la manière dont il est adapté. En le pliant, on peut casser la soudure d'un des 4 câbles, ce qui reporte la puissance sur les autres câbles, les faisant chauffer..
si le connecteur permet 600W, soit 8.5A, et que la RTX ne consomme que 450W, on est à 6.25A par broche, on a qd meme une marge de 25%; donc, en théorie, ca devrait qd meme tenir. (meme si je trouve absurde d'avoir des connecteurs plus petits pour une puissance plus élevée)
ca n'existe pas un boitier qui permet 35mm en plus d'une 4090 qui est deja plus large qu'une 1080 par exemple, meme mon lian li dynamic XL je ne pourrais pas fermer le boitier et la majorité du marché sont des boitiers plus petits, je n'en ai pas trouvé une que l'on peut fermer hormis des modèles à 500+€ , je déteste les test benchs qui ne sont pas représentatifs d'un vrai PC fermé et apparemment nvidia aussi s'en servent >< largeur 1080ti FE 112mm + pcie8 très pliés 20mm = 132mm de large maintenant on regarde une 4090 FE c'est 137mm + 35mm sinon brule = 172mm elles prennent donc 4cm de plus ! en largeur et comme dit plus haut c'est 4cm qui n'existent pas dans 99% des boitiers, sur une rtx 3000 de 132mm j'ai environ 25mm de marge soit 157mm il me manquerait donc 1,5cm pour une 4090+adapteur, je ferais quoi un trou dans ma vitre ?
il y a pas seulement un probléme de cable, le cable étant reparti en 2 ou 3 connecteurs les alimentations ATX2 son pas conçu pour effectuer un equilibrage de charge sur chaque câble. Je pense qu'il manque aussi un software dans les alimentations moderne qui permet ce genre d'équilibrage et assurer une sécurité de coupure Nvidia est parti à la bourrin atx3.0 est censé résoudre le probléme normalement.
On est pas encore à 600 watts, mais Xiaomi propose déjà une charge rapide à 200 watts en USB-C ce qui permet de charger à 100% une batterie de 4000mah en seulement 8 minutes, après je ne suis pas sûr que cela soit très bon pour la longévité de la batterie, wait and see. Déjà mon Redmi Note 10 Pro avec sa charge en 33 watts se charge complètement en un peu plus d'une heure dix, ça me va très bien comme ça.
Heu... Il me semble que le connecteur GPU PCIe 8pins (6+2) comporte 3 fils positifs (+) et 5 fils négatifs (-) et non 4 pins positifs comme dit en début de vidéo (et câble tenu en main). Il n'y a que lorsqu'une carte graphique le demande explicitement que l'on utilise un connecteur 8 pins 12V type ATX avec 4 fils positifs et 4 fils négatifs (via adaptateur ou non). Mais sinon super vidéo ;-) Cdt,
solution trouvée =) ouvrir l'alim repérer le +12 et le - souder un câble de 2.5 mm carré rigide avec à l'extrémité une cosse femelle XT90 sur la carte graphique , repérer la rangée de +12v , les souder entre eux de même pour le - souder la cosse XT90 mâle et raccorder le tout😆😁😁😁😁😁 la section est bonne , la cosse peut encaisser 90 ampères,bref que du bonheur
Salut, super bien ta video. Mais je crois que tu as fait une petite erreure, et je suis probablement pas le seul a te le remonter. Mais je crois bien que sur le connecteur 8pin, il y a cinq masse et trois 12V, donc je crois qu'il faudrait divisé par 3 pour avoir la puissance max par pin. Enfin bon c'est du pinaillage, ta vidéo est super bien.
Et voilà la conclusion (plutôt concluante) sur cette histoire : ua-cam.com/video/ig2px7ofKhQ/v-deo.html
J’allais le commenter mais tu as été plus rapide! ^^
Oui, déjà vue
salut je voulais savoir je vais recevoir une 4070 ti on t il les meme probleme svp?
ha c'est bon j'ai eu la reponse a ma question en fin de video merci bcp
AMD n'a pas adopté cette technologie et c'est tant mieux. Je suis curieux de voir comment Nvidia va traiter le problème vu le si peu de considération que l'entreprise manifeste envers ses clients et ses partenaires. Très bonne vidéo 👍.
En regardant la vidéo jusqu'au bout, il est dit que Nvidia demande le retour des CG concernées (à ma connaissance et aux dernières nouvelles, cela concernait 9 cas au total). Et les personnes concernées verraient leur CG remplacée, de ce que j'ai pu lire sur Reddit.
Par contre, je suis d'accord pour dire qu'AMD a bien fait de ne pas adopter cette norme pour l'alimentation de ses CG.
@@greymantle6949 Sauf que les gens présent sur redit c'est une sacré minorité , d'une déjà très petite minorité de gens capable de mettre 2000€ dans une seule carte graphique , et quand ces 4090 finissent dans des entreprises tu peux être sur que tu n'entendras jamais parler des soucis vu que sa repart direct au distributeur voir au fournisseur en cas de soucis donc la en gros tu as seulement la partie publique des gens qui ont acheté des 4090 et qui en plus partagent leur vie sur reddit soit une encore plus petite minorité
Mais sérieux, tu te dis la mêmes pour t 'on litre de carburant, d'huile de tournesol t'on kilo de pâtes ou de tomate t' on m² de flotte et même si tu le pays tu ne peux en jouir comme bon te semble, enfin tout ce qui est "vital" pour le bon fonctionnement d' un corps organique. Et la les mecs avec leur toutes petites ridicule coui**** vont dires aux grosses bi*** qu'il font de la m***** mais lol les gars vous avec rien comprit, là nous sommes dans la tech hardware donc au antipode de l'organique là ou le vivant est subsidiaire la ou la big data prévaux la ou 0.1% de + ou - te fait perdre ou gagniez, infecter ou pas, devant ou derrière... Ne soyez pas sot la Tech c 'est la tech avec des volumes des cou de R&D de productions exorbitant qui ce traduit par chère. L'avis d'un(anus) ou d'un groupe(>1anus+1) de personnes motiver par le biais de x ou y choses enfin choses ou carotte et quand ces gens ou ce groupes d' anus ce prennent la carotte dans le fondement et bien ils ce mettes à faires et dires n'importe quoi à n'importe qui en sommes à foutres le bordelle et je me demande au nom de quoi. Ah ces troles, au sans figuré mais aussi au sens propres enfin propre de gros dégueulasse. PEACE
@@MrBisous34090 appart les riches
vue toute la censure qu'il y a de la part d'Nvidia quand on denonce les choses sur internet...
Vidéo d'utilité publique, merci pour cet exposé claire et édifiant.
Excellent.
Comme d’habitude, clair, net, précis, technique et documenté.
👍
Petite video totalement concrete, claire, et factuelle.
Je me permettrai de rajouter ceci, nous avons x pins pour le 12V et x pins pour le 0V qui sont en fait en parralele d'un coté sur l'alim et de l'autre sur la carte graphique. Il vaut toujours mieux un gros cable unique d'alimentation via un connecteur que x cables plus petits. Soit, dans la theorie, avec moins de 1% de marge chaque pin va pouvoir passer sans soucis la puissnce et le courant. Mais cela c'est en effet la theorie. Il suffit qu'une pin voit sa resistance de contact legerement augmenter pour qu'automatiquement le courant sur les autres pins augmente vu que le courant sur cette pin va baisser, et par avalanche, de 1 pin qui varie, passe a deux par echauffement et apres c'est depassement de toutes les marges de securité, le connecteur fond car les connecteurs restants sont sollicités au dela de leur capacité...
Ce connecteur est en effet une heresie qui pousse au crime les cartes... Ca fonctionne sur le papier, mais pas en realité ou c'st le feu assuré a court, moyen ou long terme...
En tout cas merci pour cette explication claire et precise. Super video.
Vraiment bien joué d'avoir intégré toutes les sources des docs technique en plus des explications.
Belle vidéo d'intérêt général.
Bonne continuation et merci d'avoir mis les points sur les i.
Super explications. Très claires, bonne articulation, je me suis abonné! 👍
Aussi la répartition de courant n'est jamais parfaite pour les 6 pins. J'ai vu des diagrammes sur Reddit où on voit un pin qui est arc-bouté et qui produit une résistance faible.
Gamersnexus a fait une vidéo sur ça. Apparemment on peut faire passer tout le courant sur seulement 2 pins sans surchauffe. Il a coupé les autres pour essayer de rcecréer le probleme.
Au final le probleme vient du fait que l'utilisateur n'a pas inséré correctement (à fond) le cable ET qu'il est tiré d'un côté créant une connection faible sur un pin et donc resistance et surchauffe rapide.
Ta vidéo tourne partout ! GG pour ton travail 👍
Très bonnes explications !
Sachant que le courant électrique est un grand fainéant et passe au plus facile et sur l'extérieur du câble électrique. Donc les conducteurs étant plus petits, il y a chauffe anormale des câbles.
Donc en fait, Nvidia a poussé jusqu'à la limite sur tous les paramètres : la taille, la conso, le prix... et l'ampérage ! En tout cas, merci pour cette vidéo super détaillée. C'est vraiment la vidéo parfaite pour que les gens puissent tout comprendre. 😉
tu explique grave bien les choses merci pour cette vidéo incroyable
il faudrait envoyé cette vidéo à nvidia ^^
Très bonne vidéo d'ailleurs, super bien expliqué 👍
Excellente vidéo, c'est de loin la plus claire traitant le sujet.
Merci de m'avoir élclairé sur le sujet.
Excellente vidéo comme d'habitude. Le problème numéro 1 pour moi ce n'est pas le connecteur mais la consommation, on marche littéralement sur la tête et on va droit dans le mur, au delà de 300W ce devrait être tout simplement interdit, en tout cas pour le marché grand public..
Nos fours consomment plus de 800W, micro-ondes aussi, et je ne parle meme pas des machines à laver + seche linge ect. Je vois pas pourquoi on n'aurais pas le droit d'utiliser un pc avec 500 watt voir 800 watt de conso, sachant que les alims sont ultra sécurisées
oui je suis d'accord avec vous
@@Julien-hu4cc Parce que le four ou le micro-onde ont ne l'utilise pas 8 à 12h par jours dans certains cas le week-end ou bien 2 à 3h en continu chaque soir de la semaine peut être 🤔. Et puis à penser comme ça d'ici deux ans Nvidia nous sortira une carte consommant 800w de manière tout à fait normal et cela ne choquera pas ces super clients 🤡🤡
@@On-en-a-Gros Et de la même manière on utilise pas la capacité max de son GPU en permanence, sauf si on joue 8h par jour avec un OC énervé...mais qd on atteint ce point là on a d'autres problèmes dans la vie😁. Par ailleurs, le grand public n'en a rien a foutre des 3090/4090, c'est "overkill" et de toute façon hors de prix.
Après sur le principe je ne suis pas fondamentalement en désaccord sur le fait que ça consomme trop - est ce que c'est bien nécessaire? est ce que la faute ne revient pas aussi à des questions d'optimisation de soft/jeux dans cette surenchère?
Bref, on verra si la prochaine génération se vendra bien ou pas et si les constructeurs en tireront les conséquences.
@@SirPsychoSexy1664 Exactement merci
Excellente video ! Avis technique parfait ! bien vu le ptit tour dans les fiches pdf de chez Molex👌
Très bonne analyse. Claire et précise au delà du brouhaha ambiant.
Merci
Très intéressant, merci pour le partage 👍
le choix du connecteur n'est pas trop une erreur, l'erreur c'est le cable fourni par nvidia. Tout ceux qui ont des soucis sont ceux qui ont gardé celui d'origine si la marque de la carte ne l'a pas changé.
😂
J'ai toujours penser que le connecteur pci-e "classique" avais eu une ou deux "maj" de ces spécifications depuis ces 10 dernières années, sur les alimentations, pour justement supporter les nouvelles carte graphique. Car vu le connecteur, sa ce voyais qu'il pouvais faire passer plus que 150w.
En revanche, je suis toujours étonner du choix de ce nouveau connecteur, limite il aurais été logique de le mettre sur les petites carte graphiques pour soigner le design du pc, mais il apportais rien de plus.
C'est même pire, c'est potentiellement plus "susceptible", vu qu'au début il y a de forte chance qu'on utilise un adaptateur pci-e, le temps que les fabricants d'alimentation le déploie.
Belle vidéo explicative, mais je pense aussi que comme déjà indiqué sur le net c'est aussi l'adaptateur Nvidia qui pose problème, les "fiches" de celui-ci ont deux fentes alors que ceux d'autres marques ont qu'une fente d'après ce que j'ai pu comprendre et voir, ce qui inséré serre ainsi moins les pins et peut prendre donc du jeu. A mon avis trop d'ampères pour cette connectique, mais aussi un problème de conception de l'adaptateur Nvidia, l'un + l'autre => donne un risque accru de mauvais contact, donc d’échauffement et de fonte.
Excellent vidéo comme d'habitude tu nous régal 💪😂
Encore une fois excellente vidéo 👍
bravo pour les recherches, c'est très bien expliqué
Il faut aussi ajouter que le plastique utilisé pour les connecteurs est auto-extinguible c'est à dire qu'il contient des agents chimiques qui vont éteindre la flamme en cas d'apparition de celle-ci .
Très bonne vidéo, je trouve juste qu'il manque une petite musique de fond.
Super vidéo merci pour tout ce travail
450 Watts de conso c'est du délire. Ça fait plus de 35 ampères en 12volts !!! L'argument foireux qui nous est présenté depuis des années : plus ça consomme et ça dégage la chaleur, plus c'est puissant. Sérieux ils arrivent très bien à faire des composants puissants à faible consommation sur les ordinateurs portables, quand est-ce qu'on nous proposera des composants peu gourmands en énergie ??? C'est sûr que sur ces composants à forte consommation les coûts de fabrication sont plus bas et les marges plus juteuses !
S’il vous plaît, ne me bully pas mais pourquoi ils ne peuvent pas rajouter un 24 pins supplementaire sur les alims pour pouvoir le brancher sur une carte graphique gourmande? Ça va diviser le nombre d’ampères par pins par deux ce sui fera 4 ampères par pins sur une limite de 9 a par pin.
vidéo hyper intéressante par contre l'image d'aperçu de celle-ci sur le fait que la rtx 4090 brule alors que le connecteur peut fondre et qu'aucune carte a ce jour n'a pris feu , pas terrible
Oui c'est comme les Tesla, elles ne prennent jamais feu.
@@Jean-baptiste_Colbert les cartes ne brulent pas , le cable d'alim fond . Il y a plein
de cables d'autres marques qui fonctionnent parfaitement , les possesseurs ont une solution pérenne sans penser qu'ils ont jete 2000 euros par la fenêtre . Ils peuvent utiliser leur PC en attendant d'être dédommage par Nvidia .
Il y aura certainement des 2x 12 pin dans les prochains models de RTX haut de gamme.
Une petite pensée pour les gars qui ont crâmé le livret A pour voir fondre le connecteur.
merci beaucoup d’avoir éclairer notre lanterne.
respect pour ton taf.
Si peu de personnes ont déjà la carte et déjà autant de problèmes rapportés, le taux de problèmes doit être énorme.
Surtout au prix qu'elle coûte, perso j'en ai acheté 10.
Super explication, moi je suis passé chez AMD depuis quelque temps et au niveau prix performances je m'y retrouve largement, maintenant une connectique mal pensée pour un GPU à + de 2000, € ça craint !
Et niveau graphismes? Ça donne quoi
@@pysordes SLT, je ne comprends pas ta question, que veux tu dire au niveau graphisme ?
@@xano3136 le rendu tout ça les couleurs, ça change d'une NVIDIA
@@pysordes Au niveau des couleurs, contrastes, lumières etc... c'est l'écran qui fait la différence au niveau perfs en jeux un GPU AMD ou NVIDIA de même catégorie y'a quasi aucune différence, vas voire les tests sur UA-cam !
@@xano3136 merci pour ton retour, donc en gros c'est la puissance brute qui compte et le reste est cosmétique ou lié à la surcouche logiciel du driver
*Décidément, c'est pas le prix qui fait la qualité !*
Merci pour ces infos importantes...
Tu me fais rêver avec toutes ses cartes graphiques derrière x)
🧠Top , très explicite et compréhensible de toute cette malheureuse décision codécidé avec le PCI SIG et NVIDIA.
Je suis content de me contenter d'une NVIDIA 3080 Ti Mais assemblée par ASUS.
Vu la tournure des évènement ses dernières années d'ici 5 à 10 ans quand je choisirai une nouvelle carte graphique,
je prendrai une AMD ASUS car ses 2 marques de concert ne m'on jamais déçu.🖥
d autre testeur de matos on remarque les câbles des connecteurs, etait donner pour 150 volts pour ceux qui on cramé, alor que pour ceux qui n on pas crame, il avais des câble donner pour 300 volt ...
Merci pour l'analyse et ces explications. 👍
A+✌️
Comme j'ai déjà dis sur d'autre poste... A t-on la certitude que toute les broches sont commuté sur la carte ? Ça serait intéressant de mettre un ampèremètre sur chaque "12v" pour voir si la consommation est reparti. Sinon on pourrait se retrouver avec certains pin qui dépasse les 8,5A....
ça risque d'être en parallèle, pour répartir le courant, mais si l'un des plots devient un peu résistant, le courant qui passe moins va sur les autres (qui sont déjà au maximum). Ils pourraient les dorer, ça ne s'oxyde pas et ferait 'pro'. 🙂
@@Photoss73 comme dit dans la video. C'est exactement pour ça qu'il aurait du laisser une marge de sécurité
Ensuite il va falloir être vigilant sur le connecteur côté alim. Et la marque du cable. Parce que si le connecteur de la 4090 supporte les 8,5A, qu'en est t-il du cable... Je pense qu'il aurait du le doubler....
@@mikemorel2069 pas forcement le doubler mais utiliser du rigide plutôt que du multi brin (souple) d'une ça aurais permis une meilleur résistance à la friction lors du câble management et aurais eu une meilleur tolérance sur la charge admissible, à titre d'exemple la cos de connexion fait 3mm pourquoi ne pas avoir utiliser du rigide en 1.5mm qui tolère une charge jusqu'à 1500W (câble utilisé pour de l'éclairage en maison) le problème serait réglé mais y a des normes en électricité en la basse tension comme le 12V c'est avec le multi brin que c'est raccordé et non du rigide, hors le multibrin est sensible à l'étirement et/ou friction, le problème dans le cas présent et le connecteur 12 pin et sous dimensionné vs le 8pins qui lui est surdimensionné.
@@Eondragon le fils rigide n'est pas une réponse d'ailleurs ce n'est pas le fils qui est à remettre en cause mais bien le connecteur. Ce n'est pas le fils qui ne supporte pas le courant. C'est le connecteur qui est limité à 8,3A par pin. Compte tenu de la longueur du cable. Les 8A passe largement dans un fils de 1mm2. Et si en courant continue on utilise du souple. C'est pas pour des raisons de norme... Mais ça serait long à expliquer...
C'est compliquer de ne pas courber le câble quand on voit la taille des CG. Une fois mise dans le boitier tu es obligé de plier le câblage bien avant les "3,5cm" préconisés...
Serait ce possible que la carte teste la resistance sur chacune des broches au démarrage et au cas ou les valeurs ne sont pas acceptables ne démarre pas (ou bien perfs bridées avec une LED rouge qui s'allume sur le PCB pour indiquer que quelque chose ne va pas) ?
Oui ces connecteurs sont clairement idiots. Les anciens ne gênent pas du tout en tailles. Bonne vidéo, tu as tout décortiqué
Ah ben oui, les photos sont sans appel : les contacts sont trop fins. Etant donné le nombre d'Ampères qu'ils doivent encaisser, c'était attendu.
Le plastique des connecteurs fond simplement parce que les contacts métalliques surchauffent par effet Joule. Et comme en plus il y en a moins que sur les cartes précédentes pour répartir l'intensité, ça fait plus d'Ampères par picot. C'est malin !
Beaucoup de ces connecteurs fondus sont trouvés sur les modèles des AIBs. Je suis curieux de savoir si c'est arrivé sur les FE sachant que le bios des FE peut se sortir à 600w sans flash ce qui n'est pas le cas de beaucoup de modèles des AIBs (attention je ne parle pas de ceux qui flashent un custom bios). Après il y a aussi la qualité de fabrication qui a mon avis n'est pas la même que sur les FE.
d'après toute les vidéo que j'ai vu aucun n'est arrivé aux FE cela est surement du au fait que les marque tiers donnent justement la mauvaise connectique qui est limité a 5 ampère
après ce n'est qu'une supposition
Du coup, en Juillet 2023, le problème de chauffage de connectique est réglé ?
Vidéo très détails j'adore!
Attention le connecteur pcie 8 broches c'est 6 broches pour l'alimentation et 2 sondes. Il reste toujours une marge de sécurité confortable contrairement au 12vhpwr. Il faut aussi rajouter les pins du 12vhpwr de nvidia sont en 2 partie comme cela [ ] alors que les pins des autres connecteur sont généralement en U fermé qui est bien plus résistant à la déformation et donc risque moins de créer de faux contacts avec les conséquence que l'on a vu.
faux c'est 3 broches d'alimentation (3x12V + 2xSense + 3xTerre) 6x12V c'est le 12vhpwr, mais tu as raison sur le fait de la marge de sécurité car ces 3 broches n'étaient censées voir que 150w/connecteur soit (150w/3pins)/12v=4.17A alors que le nouveau connecteur lui est censé voir ((600-75)/6)/12=7.29A par broche de +12V (75w viennent du port pcie je les ai déduits du 600w) on a un quasi doublement du courant dans un connecteur plus "serré" au bout et le problème du courant (A= ampères) c'est que si on le coince dans un "tuyau" trop petit ça chauffe puis brûle c'est le principe des fusibles ce sont des fils avec un diamètre et une resistance calculées qui brûlent quand le courant et trop grand coupant le circuit
grave interessant, merci de nous partager ça
Il y a les connecteurs mais aussi les câbles quelles sont leurs spécifications ? quand on regarde une vielle alim et les dernières sortis il y a une différence de AWG !!!
Je suis quand même surpris que le PCI SIG ait fait une telle erreur ...?
Etant donné la monstruosité de la RTX 4090 en terme de puissance, un très léger undervolting ne pourrait-il pas réduire ce risque ?? (Oui je sais, les gens vont me jeter des cailloux pour avoir prononcé les termes "undervolting" et "RTX 4090" dans la même phrase ...)
Non si tu mets moins que 12V sur ce connecteur, le convertisseur embarqué sur la carte va tirer encore plus de courant pour arriver à maintenir le Vcore de la puce, donc ce pauvre connecteur va chauffer encore plus.
Je ne suis pas connaisseur en électro. Mais quand je compare ca a nos méthodes dans l’industrie aero, en plus d’avoir complètement foiré leurs specs au niveau des marges de sécurité, Ils n’ont manifestement réalisé aucuns tests durcis pour la qualif du cable…. A ce niveau la c’est plus de l’incompétence mais du handicap.
Petite erreur, connecteur 8 pin(s) 3 - 12+ volts et 5 négatives
Pour résoudre le problème, c’est tout bête. Passer au 24V, ça divisera les intensités par 2 et problème résolu
Vidéo très très intéressante !
c'est pour savoir, est ce que la RTX 3090 founders edition est aussi impacter par ce problème ?
je suis pas concerné mais c'est clair comme de l'eau de roche. merci.
Excellente analyse! Par contre je parlerai plus de risque d'incendie plutôt que de chance 😉
Salut.
Super vidéo. Comment faire pour t'envoyer une carte pour que tu regarde ce que l'on peux en faire...
J'ai récupéré un carton de fake 550ti 6g lol et il y a tout les emplacements de puce graphique occupé...
Merci à bientôt
Quand on voit qu’il faut 3 « anciens » connecteur pour faire passer 450W avec 24 broches, là on a 600W sur 12 broches, donc déjà là il y a un noeud.
Perso, sur ma 4090, je ne vais pas tenter d’OC / pousser le power limit au dessus de 100%.
Faudra un bundle avec la 4090 + camera thermique + extincteurs CO2 :)
le pire tu as plus de puissance moins de broche et au lieu de faire comme en elec si tu as moins de fils tu augmente la taille Nvidia eux l on reduit x( REIN NE VAS !
PERSO JE PENSE QU ILS ONT OUBLIER OU SOUS ESTIMÉ LES PIC DE PUISSARCES
Désolé pour les majuscule a la fin j ' ai oublié de dévérouiller les Maj 😅😅
Excellent merci beaucoup 👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍
comment ne pas plier le connecteur? la carte rentre a peine dans la majorité des boitier. Il faudrait plier seulement 35mm apres le connecteur, sauf que personne n'as la place pour faire ça. rien ne va . Ou alors il faut placer les connecteur sur le coté verticale droit de la carte c'est la ou il y a le plus de place mais comme le pcb ne va pas jusqu'à la bas, impossible
Super video ! comme d'habitude
Absolument excellent !
Et on peut modifier le port pour mettre l'ancien connecteur ?
cette vidéo est un peut la suite de celle de jigfio
Est ce que les connecteurs sont livrer avec les cartes graphiques
Très didactique et clair/merci !
Je suis assez d'accord mais je pense qu'il y a un petit problème dans tes explication. Il semble d'après gamer nexus qui a sorti une video que certain adaptateur ne soit pas d'assez bonne qualité pour être utiliser sur les 3090 ensuite, ensuite je crois aussi que ce sont les adaptateurs qui ont des problème et non les connecteur entièrement compatible.
Merci pour cette vidéo informative, y'a-t-il du nouveau en 2023 concernant cette connectique ? J'ai une alim 1kW mais elle n'arrive pas avec des connecteurs PCI-E à 12 pin ... Les nouveaux modèles sont ils plus safe aujourd'hui, sont ils aussi directement délivrés avec le GPU ?
Bonne vidéo. Je ne comprends pas comment une solution comme ça peut être adoptée. Car malheureusement, le risque d'incendie est bien réel dans ce cas. Une intensité trop forte en courant continu, ça pardonne pas ...
Il n'y a aucun risque d'incendie, au maximum de fonte du connecteur. C'est un problème, et oui au niveau de la norme PCIe il va falloir une évolution, mais il faut vraiment arrêter d'exagérer les choses.
incendie sauf si le matériau est prévu pour (à part au chalumeau), il va se ramollir et fondre avant, là ça sera écran noir, carte pas alimentée. 🙂
FAUX !! J'ai des AMD hd6990 qui faisaient déjà 450w sans problème de surchauffe de connecteurs.
Sinon 👍super ton analyse
hmmm par contre toute mes recherche semble indiqué qu'un connecteur PCIE 6+2 n'a que 3fil 12V le "+2"(2GND) servant avant tous de détection pour la CG indiquant que l'alimentation peut bien délivré la puissance nécessaire non?
C’est vrai ;)
Superbe vidéo de vulgarisation 👍
Salut Goodwin, merci pour cette vidéo très bien expliquée et instructive. J'ai une rtx3080 et 3 rallonges de câbles gainés de 8 pins chacun de marque Silvertone, pour l'esthétique. Ma question est est ce qu'il y a un risque de fonte de connecteur ou du cable sachant que ce sont des rallonges gainées ?
Merci.
je jure que tu est le frère de Trouble Fait !
Merci pour cette explication très claire
bonjour goodwin , j'aurais une question qui n'a rien a voir avec ta vidéo ou je pose ma question ! est- il possible de changer les connectiques de branchement d'un écran 19" avec un branchement vga par une carte controleur avec un port hdmi et/ou dv-i ? merci pour tes vidéos , elles sont au top ;)
Avec la marge de sécurité du conectrir standard, il peuvent peut être consommer un peu + que la norme
Bonjour,
le 12V2×6 va t il vraiment résoudre le problème du 12V HPWR ?
Très bonne vidéo
Que pensez vous des câbles avec double connecteur ? n'est-ce pas une aberration électrique également ?
ça n'en est pas une, car comme le dit dans la vidéo le câble peux encaisser jusqu'à 3 x l'ampérage envoyé donc ça reste dans la marge de puissance admissible.
Bonjour, j'ai une RTX 3090 le cpu monte à 86° en mode jeu est-ce normal ? svp
Pas très clair sur les différentes normes appliquées sur le 12VHPWR
On s'y perds et incompréhensible
Il me semble que le problème ne vient pas du connecteur mais de la manière dont il est adapté. En le pliant, on peut casser la soudure d'un des 4 câbles, ce qui reporte la puissance sur les autres câbles, les faisant chauffer..
si le connecteur permet 600W, soit 8.5A, et que la RTX ne consomme que 450W, on est à 6.25A par broche, on a qd meme une marge de 25%; donc, en théorie, ca devrait qd meme tenir.
(meme si je trouve absurde d'avoir des connecteurs plus petits pour une puissance plus élevée)
ca n'existe pas un boitier qui permet 35mm en plus d'une 4090 qui est deja plus large qu'une 1080 par exemple, meme mon lian li dynamic XL je ne pourrais pas fermer le boitier et la majorité du marché sont des boitiers plus petits, je n'en ai pas trouvé une que l'on peut fermer hormis des modèles à 500+€ , je déteste les test benchs qui ne sont pas représentatifs d'un vrai PC fermé et apparemment nvidia aussi s'en servent >< largeur 1080ti FE 112mm + pcie8 très pliés 20mm = 132mm de large maintenant on regarde une 4090 FE c'est 137mm + 35mm sinon brule = 172mm elles prennent donc 4cm de plus ! en largeur et comme dit plus haut c'est 4cm qui n'existent pas dans 99% des boitiers, sur une rtx 3000 de 132mm j'ai environ 25mm de marge soit 157mm il me manquerait donc 1,5cm pour une 4090+adapteur, je ferais quoi un trou dans ma vitre ?
Merci pour l'analyse
il y a pas seulement un probléme de cable, le cable étant reparti en 2 ou 3 connecteurs les alimentations ATX2 son pas conçu pour effectuer un equilibrage de charge sur chaque câble. Je pense qu'il manque aussi un software dans les alimentations moderne qui permet ce genre d'équilibrage et assurer une sécurité de coupure Nvidia est parti à la bourrin atx3.0 est censé résoudre le probléme normalement.
M'ouai Ont verras dans quelle que temps quand la tempête médiatiques seras passé. Les gens !
trop bon le t shirt
IL se peut que l'alim. choisie ne limite pas le courant au delà d'un certain seuil....
C'est trop d'effort et temps pour comprends cette vidéo, comme je ne suis pas fluide, mais j'espère que je peux pratiquer et arrives un jour.
Une question pour quoi on change une equipe qui gagner.
Il sont fou pour quoi pas metre une prise usb pour passer 600w.
On est pas encore à 600 watts, mais Xiaomi propose déjà une charge rapide à 200 watts en USB-C ce qui permet de charger à 100% une batterie de 4000mah en seulement 8 minutes, après je ne suis pas sûr que cela soit très bon pour la longévité de la batterie, wait and see.
Déjà mon Redmi Note 10 Pro avec sa charge en 33 watts se charge complètement en un peu plus d'une heure dix, ça me va très bien comme ça.
Heu... Il me semble que le connecteur GPU PCIe 8pins (6+2) comporte 3 fils positifs (+) et 5 fils négatifs (-) et non 4 pins positifs comme dit en début de vidéo (et câble tenu en main).
Il n'y a que lorsqu'une carte graphique le demande explicitement que l'on utilise un connecteur 8 pins 12V type ATX avec 4 fils positifs et 4 fils négatifs (via adaptateur ou non).
Mais sinon super vidéo ;-)
Cdt,
solution trouvée =)
ouvrir l'alim
repérer le +12 et le -
souder un câble de 2.5 mm carré rigide avec à l'extrémité une cosse femelle XT90
sur la carte graphique , repérer la rangée de +12v , les souder entre eux
de même pour le -
souder la cosse XT90 mâle et raccorder le tout😆😁😁😁😁😁
la section est bonne , la cosse peut encaisser 90 ampères,bref que du bonheur
Oui, mais RIP la garantie haha
Mdr l'excès
Honêttement pour une vidéo 1er avril ça passe :)
Salut, super bien ta video.
Mais je crois que tu as fait une petite erreure, et je suis probablement pas le seul a te le remonter.
Mais je crois bien que sur le connecteur 8pin, il y a cinq masse et trois 12V, donc je crois qu'il faudrait divisé par 3 pour avoir la puissance max par pin. Enfin bon c'est du pinaillage, ta vidéo est super bien.