Nvidia vient juste de révolutionner l'I.A ?
Вставка
- Опубліковано 4 лют 2025
- Nvidia vient d'annoncer les GPU Blackwell GB200 avec 30x les performances en inference comparé à la génération précédente.
Formations: cours.cocadmin...
Newsletter: mailchi.mp/118...
Rejoignez le discord: / discord
Twitter: / cocadmin
Instagram: / cocadmin
Tiktok: / cocadmin
Quand une carte réseau a plus de ram que mon pc fixe 😢
Super vidéo, ca fait un bon résumé du GTC 😎 merci a toi.
Si je peux me permettre quelques petites corrections :
- tu parles de 6KW a dissiper d'où le watercooling. Mais si la carte consomme 6KW, toute la puissance n'est pas dissipée en chaleur, et heureusement, sinon il ne resterait plus rien pour les cpu/gpu eux même. 🙃
- Concernent le reseau, tu parles de 2 cartes reseaux alors que sur l'infographie il semble y en avoir 4. Mais je peux me tromper.
- Et dernier point, en FP4 sur 3 bit ça ne te fait que 8 combinaisons maximums. Donc plutot de 0 à 8 ou -4 à +4. Sachant que je pense que c'est un peu simplifier comme raisonnement car sur une de tes diapos on vois que les formats sont en virgule flotante. Donc avec gestion de la mantisse et de l'exposant. Ce qui change la plage. 👨✈️
Merci en tout cas pour ton travail !
du moment qu'ils fournissent aussi le réacteur nucléaire pour faire fonctionner tout cela...
On m'avait expliqué que ce qui était paradoxal en matière de technologie c'est que bien souvent ça progresse en terme de capacités mais en parallèle en terme de consommation énergétique ça devient souvent plus performant et optimisé.
On m'avait expliqué ça en terme de fabrication de cryptomonnaie, les vieux GPU n'étaient pas rentable en terme de capacités de calculs par rapport à l'énergie utilisée pour faire tourner cela.
Je ne sais pas si c'est vrai pour tout mais ça se ressent aussi sur les ampoules, par exemple la première ampoule 💡 jamais inventée est plus energievore qu'une ampoule moderne (genre une led).
Pour le prix...ils devraient le donner
@@FrozenZerg Exact
@@FrozenZergon gagne en efficacité mais ça me couvrira jamais les gain de performance. pour couvrir 30 % de performance supplémentaire, il faudrait 30% d'efficacité en plus, ce qui n'arrive jamais.
tu prend l'exemple d'une ampoule mais on fait en sorte de conserver le même éclairage.
mais si tu prendre l'exemple des carte graphique, c'est totalement différent, on les veux plus performante a chaque génération.
tu prend les carte graphique des année 2000 c’était a peine 150W/h, dans les année 2010 c’était 300 Watt/h, aujourd'hui c'est plus 600 Watt/h et c'est la même chose avec les processeur.
Malgré qu'on gagne en performance/Watt a chaque génération, les PC consomme de plus en plus. C'est l'effet rebond, c'est nous, consommateur qui somme responsable de cela parce qu'on en demande plus.
@@acoustikr34 Paradoxe de Braess en théorie des jeux. Rajouter une voie sur la route augmente le nombre de vehicules, et n'a aucune incidence sur le trafic. Pour la conso/puissance des GPUs c'est pareil.
une vidéo de cocadmin c'est mieux que noël
vrm c'est une bénédiction
❤ c'est un miracle que cette vidéo a faite sans musique autrement dit une vidéo professionnelle que je pourrais la voir 2 ou 3 fois dans un mois . Merci beaucoup et j'espère que tu ne mettras jamais la musique dans tes vidéos 😊
T'a quoi contre la musique? C'est quoi cette mentalité de vieux aigri?
Il y bien un "habillage" sonore avec des bruitages, mais pas de musique ,qui peuvent parfois polluer certaines vidéos (je parles pour l'ensemble des "tutubeurs").
ça fait du bien pour l'écoute.Merci.
@cocadmin, t'avais vu ces calculateurs spéciaux utilisés à une époque pour simuler la logique des architectures de nouveaux processeurs ou gpu ? C'était courant y a une vingtaine d'année. J'me souviens plus si c'étaient des FPGA ou pas, mais c'était de la grosse bécane, possiblement vectorielle. J'étais tombé sur un article de magazine qui parlait de ça y a 20 piges, impossible de trouver la même info sur le net, c'était dans un labo, l'engin avait son propre système de refroidissement, on aurait presque cru voir un Cray mais c'était plutôt taillé comme un frigo chelou, l'engin était énorme et simulait un processeur entier, pour valider l'architecture afin qu'il n'y ait pas de bug hardware une fois transposée sur le silicium.
Salut! J'étais dans le SAP center lors de la keynote de Jensen à GTC et c'était vraiment très technique la partie GPUs pour des infras... et bien heureusement que t'es là pour faciliter la compréhension et vulgariser les concepts. C'est certain que ta vidéo reste technique et qu'il faut un minimum de background tech en GPU et IA pour bien comprendre mais je trouve que tu apportes une belle valeur ajoutée en vulgarisant autant que possible. GG mec!!
Tsais C’est ce pote passionné que l’on aime côtoyer
belle couleur l'image de la vidéo le vert tout ça j'aime beaucoup
Merci, j'attendais justement une vulgarisation venant de toi
Je connaissais pas la chaine,super travail de montage etc ,sa change des youtubeur qui font defiler leur ecran fenetre par fenetre pour en foutre le moins possible !
Je m abonne
vidéo de qualité autant dans la forme que dans le fond, bravo !!
Stylé la vidéo (explications, montage, ambiance, tout)!👌
Une chose à garder en tête, c'est notre capacité à modeler nos outils à l'aide de la génération d'outils précédentes. Avec un marteau on forge des couteaux, des pinces, des poinçons, etc, puis un meilleur marteau, et de meilleurs couteaux, pinces, poinçons... Depuis l'avènement de l'informatique, l'électronique s'est pris une accélération fulgurante par itération à chaque décennie. Aujourd'hui vous vous doutez bien qu'on fait calculer les nouveaux circuits avec des algo entraînés par IA, pas d'secret, et des performances qui atomisent la génération précédente de GPU à chaque fois... J'vous dis pas le nombre de matheux qui doivent bosser chez eux...
Merci pour tes vidéos qui permettent de bien comprendre le sujet
donc ils n'ont rien révolutionné ? il ne font que mettre a grande echelle ce qu'on sait depuis le debut ?
en gros oui, enlever les bottleneck qui empechaient d'aller a cette echelle, donc les changements sont surtout au niveau de l'infra
Maintenant imaginons ils arrivent à faire le même mais en 3 nanomètres c’est dingue
@@Rg38276 ils viennent de passer a un cycle de 1an au lieu de 2ans par generation donc surement pour l'année prochaine !
Merci 😊 j ai pas compris grand chose mais j adore tes videos
Lol, c'est littéralement l'histoire des semi-conducteurs
Incroyable la vidéo, c’était hyper interessant et passionnant
ce qui est bien c'est que ca coute pas cher
et que j'ai la place de le mettre dans mon setup le datacenter
Vidéo débreif des annonces au top, merci !
une vidéo hyper détaillée tu régale!❄
Merci pour les explications ! j'espère que tu continueras avec les 5000
Trop bien expliquer . Merci beaucoup 👍✔️
Très bonne vidéo, très intéressant, je veux bien celle sur les RTX5000 😅
Toute la puissance pouvant être développée est juste incroyable mais niveau consomation c'est énorme aussi. Je ne sais pas trop quoi en penser même si c'est une avancée, cela reste extrêmement coûteux en énergie. Merci pour votre travail !
Excellente vulgarisation, merci beaucoup 😉 !
J'imagine la puissance quand il vont passer en 3 nanomètres puis en 2. Est-ce que tout ça est pour le bien commun ou . . . ? Et comment vont ils approvisionner l'ensemble en énergie est aussi une grande question qui mériterait bien une vidéo (car tu sais les faire intéressantes et accessibles au plus grand nombre)
Cet homme mérite amplement son like ! 👍
c'est trop cool son enthousiasme pour le sound design. on voit que c'est un petit kiff 🤣🤣
ahah, j'me suis fait la même réflexion en matant la conf d'Nvidia, simple, efficace, ça devient même une petite musique, ça joue encore plus sur la hype du truc.
svp big boss c'etait à quelle date la conference a eu lieu ?
Genial. Toujours intéressante tes videos. Merci cocadmin
salut, une vidéo haute qualité, respect, the king.
2:38 Les transistors ne sont pas forcement plus petits quand on passe de 4nm a 3nm etc, c'est principalement la densité qui augmente. Bon je chipote un peu parce qu'en fait la video est excellente.
En Flops/$ est-ce que c’est mieux que la génération d’avant ?
Ou bien l’avantage c’est essentiellement qu’on peut faire tenir des modèles qui tenaient pas en mémoire avant ?
le prix annoncé par puce est similaire a la generation precedente mais comme la ils te refourgue leur cpu en plus et leur switch etc la facture monte plus vite. Mais meme le prix double ca vaut quand meme le coup si t'es perf 4x.
Merci pour les images (et le son)💞
Pouce UP 👍
WOOW, c'est fou ! trop passionnante comme vidéo, c'est des fou NVidia ^^
le nom que je donne aux goat en classe
Oui c'est très bien tout ça, mais est ce que ce DATA center sera capable de solutionner ma parte de cheveux ?! JE NE CROIS PAS !
super intéressant 👍, çà donne bien l'idée du domaine de Nvidia dans l'infra de l'IA. est ce qu'ils ont aussi parlé des accès au storage/data ? y a bottleneck si tu passe du 800Gb infiniband à un acces Cloud ?
Encore une vidéo bien cool, attention à la taille des texte, sur portable c’est compliqué à lire :)
Et encore, attend la prochaine génération avec des semi conducteurs de 2-3 nanometres.
Et la ReRam.
Tu devrais faire une vidéo en nous présentant tes extensions chrome :)
On va pouvoir bientôt traversé le temps 😆 La télépathie ça existe, je regardais justement une de tes anciennes vidéo.
16:59 ils ont encore "un NAS" caché dans leur manche 😁
Ah chui pas le seul a avoir tilté dessus
@@KahroSynetic🙂🤫
Le design du GPU est déja beaucoup trop stylé
T’es le meilleur continue 🎉❤
stp tu peut fais une video pour nous montrer comment utilise les apk de programation
Une centrale électrique pour alimenter ce data Center ?
Ça serait intéressant une analyse de la prochaine rtx 5090. Je compte me le procurer.
hate de voir un port de doom sur ces cartes
J'ai eu l'occasion avec des potes de tester une carte Kalray (concurrent plus ou moins direct de AMD et NVIDIA). J'ai été impressionné par la rapidité et la puissance de calcul de la carte. Je me suis même demandé si ce n'était pas un prank de mes potes, mais pas du tout. C'est un truc de ouf
Il me l'ont fait essayé avec un casque VR . J'ai halluciné. Alors que moi il m'en faut pour m'impressionner.
Super vidéo mister !
Très intéressant. D'où vient votre support de laptop svp ? ;-)
C’est un stand portable moche en plastique premier prix d’Amazon :)
@@cocadmin merci !
En vrai simple curiosité, genre demain j'arrive à m'en procurer pour X raison, y a til moyen de câler ça dans un Windows et faire tourner des jeux dessus ?
mdr imagine le gestionnaires des taches avec des dizanes de cpu et centaines de gpu (après je crois que de coté logiciel donc windows c un seul gpu)
yaura surement pas de driver pour, et meme si tu arrive a en bidouller un, plein de fonctionalité ne donne pas de gain de perf pour les jeux 3d (fp4, clustering, 192g de ram etc) Donc t'aura possiblement des moin bonne perf qu'avec une rtx :)
Ya Linus qui a fait un teste avec la A100 si jamais ca t interesse (résultats plutot decevants) ua-cam.com/video/zBAxiQi2nPc/v-deo.htmlsi=-60Upawj3nT6Jsve
Décidément il semble que le réchauffement du climat est bien oublié , cette surconsommation électrique nous amène droit dans le mur
infomaniak va avoir du taf 😂😂
Merci 👌👍
rouuu, çà devient monstrueux ! Vingt diou....avec ce big bazar de boost ...ils vont finir par atteindre l'AGI ??? ^^
les dernières IA peuvent tenir la dragée en conversation avec son avec un humain.....mon job de téléconseiller n'existera plus dans 5 ans ...l'IA sera bien efficace que moi 😅 et pourtant j'suis pas mauvais 🤨
j'ai pas encore tout regardé mais groq annonce 300 tokens/s (llama-2 70B) et le GB200 116 .... bon pour nvidia on ne connait pas le llm utilisé pour annoncer les chiffres.... du coup vrai révolution ?
yep va y avoir une guéuerre entre entre le LPU et Nvidia !
Pensée à tout les techniciens qui vont devoir remplacer les cartes dans les data center de OpenAI 😅
Amélioration on peut dire 👌
Révolution ! C'est un peut exagéré non
Sinon merci pour cette superbe explication ❤
Mon cerveau est en surchauffe mais super vidéo, merci ! 😊
jaime trop ta presentation
est les effet
Hâte de voir les impact sur les ia
Encore une super vidéo, merci
Ce sont des grands malades les ingénieurs de chez Nvidia 😂 Ils sont trop fort 😎
Merci pour toutes ces infos!
Ils ont plié le game là c'est complètement hallucinant MDR
T'as abusé des j-cut là x)
Nan mais ça fait plaisr de voir la forme aussi soignée
ca permet de faire avancer la video 2sec plus vite a chaque jcut ;)
je suis un dev web front end et les animations de se site on été fais par des genies
Incroyable la vidéo !!
Du coup ils vont aider à avancer sur la fusion nucléaire pour leurs futurs GPU ? mdr
ce serai bien que tu parles et donc compare les puces groq aux monstres Nvidia. Je pense que la GB200 vont souffrir de la comparaison ;)
Faut avoir la centrale nucléaire à côté avec des datas centers de cette taille
ben, curieusement, de moins en moins... c'est ça le truc de ouf :)
@@OktoPutsch ca c'est par ce que dans le calcul de fonctionnement ont n'intègre pas la consommation électrique induite à la fabrication à mon avis
@@maquisardoccitan9043 bah, c'est normal, tu prends pas en compte l'énergie grise (fabrication) pour une exploitation. Toi il te faut tes 2600 calories pour vivre chaque jour une fois achevé, pourtant il en a fallut des millions auparavant pour te "fabriquer" comme adulte.
Merci pour la vidéo ! Malgré mon intérêt pour le domaine, j'avoue avoir la flemme de regarder une conférence de 2h...ce résumé est donc bienvenu 😁
J'ai vu que Grog se spécialisait dans des puces spéciales inférence, est-ce que ça ne serait pas plus économique d'associer moins de gpu avec des puces du genre LPU mais spécialisées en video par exemple ?
Les cartes Groq sont bien pour génerer du contenu par contre, tu ne peux pas les utiliser pour entrainer ton modele
non car leur solution est plus générique et leur permet de faire du LLM et d'autres modèles avec un degré de performance équivalent à des circuits spécifiques. La souplesse est un gros avantage sur un marché en perpetuel changement.
'fin, vous vous doutez bien que pour en être là où ils sont c'est qu'ce sont pas des branlos en maths et qu'ils ont déjà fait leur étude comparative pour calculer leur feuille de route stratégique
en gros c essentiellement de la surenchere ? pas de methode archi ingenieuses pour avoir un boost de capacité ??
Après ils ne peuvent pas révolutionner leurs architecture chaque année 'on plus, ils optimise, enlève/limite les embouteillage ect...
Il vont surtout révolutionner le prix des cartes avec celle là 😅
Ca me parait pas super malin de juste combiner plein de trucs en 1 monstre.
As-tu entendu parler d'une autre révolution beaucoup plus dingue que celle de Nvidia, et qui a été créé par des chercheurs français ? Il s'agit de Mistral qui ont fabriqué une puce dingue beaucoup plus performante que les GPU.
Même méthode que pour les processeurs M2 Ultra avec 2 puces rattachées par une sorte de pont.
très bien expliqué merci
Je ne comprends pas le sujet …
Nvidia est répertorié comme une entreprise qui crée l’IA pour la science, et il n’y a pas d’équivalent aujourd’hui sur le marché
En tant qu'admin sys, j'avoue que niveau hardware cloud & dataCenter je suis un peu largué donc:
bravo pour cette vulgarisation, çà devient bien plus assimilable comme info.
Par contre l'investissement qu'il faut pour cette architecture parfaite by Nvidia 🤣
le CEO a mentioner 10milliard pour cette generation. Je pense pour décourager les startup qui démarre dans ce domaine
Conclusion : avec le pognon qu'ils vont se faire dans l'IA, les GPU pour gamers ça va devenir tout au plus une sidequest.
ca commence déja, l'ia vient de dépasser leur revenue gaming au dernier quarter
merci pour ton analyse
À 11:14 il parle de chiffrement homomorphe (FHE) ?
non juste chiffrement du traffic interne
incroyable cette analyse
Merci beaucoup !
A savoir que les process N4 N3.... ne riment plus à rien de nos jours...
il faudrais plutôt s'intéresser la densité qu'on peux retirer de certaines architectures en fonction du process
et je ne sais pas pourquoi ils sont resté sur le process N4P mais je pense que c'est par rapport au fait que c'est un process haute performance ce que n'est pas forcément le process N3
en effet ce qu'utilise Apple ce n'est pas des processus haute performance mais plutôt des process à consommation réduite (ce qui ne veux pas dire que les puces ne sont pas très bonnes mais juste Apple cherche l'efficacité plutôt que les perfs brutes à tout prix en Watts consommés)
Bref c'est pas du tout comparable et ça mériterais plus de recherches de ta part....
Merci pour la vid ! super interessant !
Le marketing de Nvidia est insane
Je crois bien que l'ascension en bourse de Nvidia n'est pas prêt de s'arrêter x)
oui et non, on est dans une grosse bulle technologique actuellement, ça finira par exploser pour toutes les actions techno, ça peut être demain comme dans 5 ans ... Quand ça petera ça sera le moment de racheter, notamment du nvidia
Et de SuperMicro ;)
@@mljjn j'ai du ARM Holding acheté à 50, j'attends que l'action soit à 150 avant de revendre, j'espère que la bulle va pas péter d'ici là ... Puis une fois que bulle petera, je rachete tout
Gorq ship vient de leur mettre une vitesse je crois
Les sounds effect m'ont convaincu, c'est ou pour acheter un POD ???
Add to cart
@@cocadmin 🤣🤣🤣
Merci pour les infos
Sujet intéressant, par contre, pas de nouveauté au final si ce n'est mettre plus de puce dans le bouzin 😂 Ce qui sommes toute n'est pas nouveau. 😊
"Un NAS caché" ;) 16:57
l'appellation GPU semble inappropriée, IA Processing Unit ? Tensor Core Unit ? TCU ? j'avoue je ne sais pas, mais ca gère plus du tout des vertex des matrices et des pixels ...
c'est toujours bcp de matrice mais oui ca n'a plus rien de graphique effectivement
de quoi supporter GTA6 en ultra
Franchement, sur le site de nVidia ils ont des anims 3D de ouf 😅
C'est rien à côté des puces LPU GROQ qui détrône pour le moment NVIDIA dans le language
Au fait 3nm ça n’a rien à voir avec la taille des transistors ou à n’importe caractéristique physique directe des transistors 😊 , ça fait plutôt référence à la densité des transistors ou à la distance entre ces derniers…
c'est pour ca que j'ai dit "pour simplifier" :)
j'ai fait une vidéo la dessus il y a quelques années ua-cam.com/video/U4-Le0N-Lyo/v-deo.html
@@cocadmin Vulgariser ou simplifier c'est différent de donner des informations erronées, lorsqu'on touche un public large il faut faire attention à cela, quand on me dit simplifié : je comprends qu'on omette certains détails pas qu'on me donne une explication fausse.... Parler d'une "plus grande précision de gravure aurait largement suffi..." 😁
On entend plus parler de amd , j'espère qu'il vont aussi rivaliser , je vois bien amd se présenter comme un vendeur de gpu pour les petites startups
ils essayent mais ils ont un gros retard logiciel en plus d'un petit retard materiel.
J’adore trop ce gars