Nvidia vient juste de révolutionner l'I.A ?

Поділитися
Вставка
  • Опубліковано 4 лют 2025
  • Nvidia vient d'annoncer les GPU Blackwell GB200 avec 30x les performances en inference comparé à la génération précédente.
    Formations: cours.cocadmin...
    Newsletter: mailchi.mp/118...
    Rejoignez le discord: / discord
    Twitter: / cocadmin
    Instagram: / cocadmin
    Tiktok: / cocadmin

КОМЕНТАРІ • 274

  • @MrFalindir
    @MrFalindir 10 місяців тому +55

    Quand une carte réseau a plus de ram que mon pc fixe 😢

  • @florianros8907
    @florianros8907 10 місяців тому +5

    Super vidéo, ca fait un bon résumé du GTC 😎 merci a toi.
    Si je peux me permettre quelques petites corrections :
    - tu parles de 6KW a dissiper d'où le watercooling. Mais si la carte consomme 6KW, toute la puissance n'est pas dissipée en chaleur, et heureusement, sinon il ne resterait plus rien pour les cpu/gpu eux même. 🙃
    - Concernent le reseau, tu parles de 2 cartes reseaux alors que sur l'infographie il semble y en avoir 4. Mais je peux me tromper.
    - Et dernier point, en FP4 sur 3 bit ça ne te fait que 8 combinaisons maximums. Donc plutot de 0 à 8 ou -4 à +4. Sachant que je pense que c'est un peu simplifier comme raisonnement car sur une de tes diapos on vois que les formats sont en virgule flotante. Donc avec gestion de la mantisse et de l'exposant. Ce qui change la plage. 👨‍✈️
    Merci en tout cas pour ton travail !

  • @pandaDotDragon
    @pandaDotDragon 10 місяців тому +74

    du moment qu'ils fournissent aussi le réacteur nucléaire pour faire fonctionner tout cela...

    • @FrozenZerg
      @FrozenZerg 10 місяців тому +3

      On m'avait expliqué que ce qui était paradoxal en matière de technologie c'est que bien souvent ça progresse en terme de capacités mais en parallèle en terme de consommation énergétique ça devient souvent plus performant et optimisé.
      On m'avait expliqué ça en terme de fabrication de cryptomonnaie, les vieux GPU n'étaient pas rentable en terme de capacités de calculs par rapport à l'énergie utilisée pour faire tourner cela.
      Je ne sais pas si c'est vrai pour tout mais ça se ressent aussi sur les ampoules, par exemple la première ampoule 💡 jamais inventée est plus energievore qu'une ampoule moderne (genre une led).

    • @Bonsouèr
      @Bonsouèr 10 місяців тому +1

      Pour le prix...ils devraient le donner

    • @Bonsouèr
      @Bonsouèr 10 місяців тому

      @@FrozenZerg Exact

    • @acoustikr34
      @acoustikr34 10 місяців тому +3

      @@FrozenZergon gagne en efficacité mais ça me couvrira jamais les gain de performance. pour couvrir 30 % de performance supplémentaire, il faudrait 30% d'efficacité en plus, ce qui n'arrive jamais.
      tu prend l'exemple d'une ampoule mais on fait en sorte de conserver le même éclairage.
      mais si tu prendre l'exemple des carte graphique, c'est totalement différent, on les veux plus performante a chaque génération.
      tu prend les carte graphique des année 2000 c’était a peine 150W/h, dans les année 2010 c’était 300 Watt/h, aujourd'hui c'est plus 600 Watt/h et c'est la même chose avec les processeur.
      Malgré qu'on gagne en performance/Watt a chaque génération, les PC consomme de plus en plus. C'est l'effet rebond, c'est nous, consommateur qui somme responsable de cela parce qu'on en demande plus.

    • @Sqlut
      @Sqlut 10 місяців тому +2

      @@acoustikr34 Paradoxe de Braess en théorie des jeux. Rajouter une voie sur la route augmente le nombre de vehicules, et n'a aucune incidence sur le trafic. Pour la conso/puissance des GPUs c'est pareil.

  • @colibriXD
    @colibriXD 10 місяців тому +36

    une vidéo de cocadmin c'est mieux que noël

    • @Nanojuju-_-
      @Nanojuju-_- 10 місяців тому +2

      vrm c'est une bénédiction

  • @thewatcher1914
    @thewatcher1914 10 місяців тому +48

    ❤ c'est un miracle que cette vidéo a faite sans musique autrement dit une vidéo professionnelle que je pourrais la voir 2 ou 3 fois dans un mois . Merci beaucoup et j'espère que tu ne mettras jamais la musique dans tes vidéos 😊

    • @ClaudyFlux
      @ClaudyFlux 10 місяців тому

      T'a quoi contre la musique? C'est quoi cette mentalité de vieux aigri?

    • @fabehein3531
      @fabehein3531 10 місяців тому +2

      Il y bien un "habillage" sonore avec des bruitages, mais pas de musique ,qui peuvent parfois polluer certaines vidéos (je parles pour l'ensemble des "tutubeurs").
      ça fait du bien pour l'écoute.Merci.

  • @OktoPutsch
    @OktoPutsch 10 місяців тому +4

    @cocadmin, t'avais vu ces calculateurs spéciaux utilisés à une époque pour simuler la logique des architectures de nouveaux processeurs ou gpu ? C'était courant y a une vingtaine d'année. J'me souviens plus si c'étaient des FPGA ou pas, mais c'était de la grosse bécane, possiblement vectorielle. J'étais tombé sur un article de magazine qui parlait de ça y a 20 piges, impossible de trouver la même info sur le net, c'était dans un labo, l'engin avait son propre système de refroidissement, on aurait presque cru voir un Cray mais c'était plutôt taillé comme un frigo chelou, l'engin était énorme et simulait un processeur entier, pour valider l'architecture afin qu'il n'y ait pas de bug hardware une fois transposée sur le silicium.

  • @gobi13
    @gobi13 10 місяців тому

    Salut! J'étais dans le SAP center lors de la keynote de Jensen à GTC et c'était vraiment très technique la partie GPUs pour des infras... et bien heureusement que t'es là pour faciliter la compréhension et vulgariser les concepts. C'est certain que ta vidéo reste technique et qu'il faut un minimum de background tech en GPU et IA pour bien comprendre mais je trouve que tu apportes une belle valeur ajoutée en vulgarisant autant que possible. GG mec!!

  • @Russ_ell07
    @Russ_ell07 10 місяців тому +1

    Tsais C’est ce pote passionné que l’on aime côtoyer

  • @DeMoNELectro
    @DeMoNELectro 10 місяців тому +3

    belle couleur l'image de la vidéo le vert tout ça j'aime beaucoup

  • @mohamedbekheira
    @mohamedbekheira 10 місяців тому +2

    Merci, j'attendais justement une vulgarisation venant de toi

  • @0Clavix0
    @0Clavix0 9 місяців тому

    Je connaissais pas la chaine,super travail de montage etc ,sa change des youtubeur qui font defiler leur ecran fenetre par fenetre pour en foutre le moins possible !
    Je m abonne

  • @hadihedjam5474
    @hadihedjam5474 9 місяців тому

    vidéo de qualité autant dans la forme que dans le fond, bravo !!

  • @adonis95
    @adonis95 10 місяців тому

    Stylé la vidéo (explications, montage, ambiance, tout)!👌

  • @OktoPutsch
    @OktoPutsch 10 місяців тому +1

    Une chose à garder en tête, c'est notre capacité à modeler nos outils à l'aide de la génération d'outils précédentes. Avec un marteau on forge des couteaux, des pinces, des poinçons, etc, puis un meilleur marteau, et de meilleurs couteaux, pinces, poinçons... Depuis l'avènement de l'informatique, l'électronique s'est pris une accélération fulgurante par itération à chaque décennie. Aujourd'hui vous vous doutez bien qu'on fait calculer les nouveaux circuits avec des algo entraînés par IA, pas d'secret, et des performances qui atomisent la génération précédente de GPU à chaque fois... J'vous dis pas le nombre de matheux qui doivent bosser chez eux...

  • @Hiponite
    @Hiponite 10 місяців тому +2

    Merci pour tes vidéos qui permettent de bien comprendre le sujet

  • @mamads7007
    @mamads7007 10 місяців тому +64

    donc ils n'ont rien révolutionné ? il ne font que mettre a grande echelle ce qu'on sait depuis le debut ?

    • @cocadmin
      @cocadmin  10 місяців тому +34

      en gros oui, enlever les bottleneck qui empechaient d'aller a cette echelle, donc les changements sont surtout au niveau de l'infra

    • @Rg38276
      @Rg38276 10 місяців тому +8

      Maintenant imaginons ils arrivent à faire le même mais en 3 nanomètres c’est dingue

    • @cocadmin
      @cocadmin  10 місяців тому +17

      @@Rg38276 ils viennent de passer a un cycle de 1an au lieu de 2ans par generation donc surement pour l'année prochaine !

    • @sebalphonse9401
      @sebalphonse9401 10 місяців тому +1

      Merci 😊 j ai pas compris grand chose mais j adore tes videos

    • @jak4596
      @jak4596 10 місяців тому +1

      Lol, c'est littéralement l'histoire des semi-conducteurs

  • @ANONIMOUS3
    @ANONIMOUS3 10 місяців тому

    Incroyable la vidéo, c’était hyper interessant et passionnant

  • @Nanojuju-_-
    @Nanojuju-_- 10 місяців тому +3

    ce qui est bien c'est que ca coute pas cher
    et que j'ai la place de le mettre dans mon setup le datacenter

  • @Fouki95
    @Fouki95 10 місяців тому

    Vidéo débreif des annonces au top, merci !

  • @Korosif710
    @Korosif710 10 місяців тому

    une vidéo hyper détaillée tu régale!❄

  • @ethernaelis
    @ethernaelis 10 місяців тому

    Merci pour les explications ! j'espère que tu continueras avec les 5000

  • @jeromechenet6420
    @jeromechenet6420 8 місяців тому

    Trop bien expliquer . Merci beaucoup 👍✔️

  • @algoconcept
    @algoconcept 10 місяців тому

    Très bonne vidéo, très intéressant, je veux bien celle sur les RTX5000 😅

  • @aym3604
    @aym3604 10 місяців тому

    Toute la puissance pouvant être développée est juste incroyable mais niveau consomation c'est énorme aussi. Je ne sais pas trop quoi en penser même si c'est une avancée, cela reste extrêmement coûteux en énergie. Merci pour votre travail !

  • @HackedPwned
    @HackedPwned 10 місяців тому

    Excellente vulgarisation, merci beaucoup 😉 !

  • @mik-brico-rando-informatique
    @mik-brico-rando-informatique 10 місяців тому +1

    J'imagine la puissance quand il vont passer en 3 nanomètres puis en 2. Est-ce que tout ça est pour le bien commun ou . . . ? Et comment vont ils approvisionner l'ensemble en énergie est aussi une grande question qui mériterait bien une vidéo (car tu sais les faire intéressantes et accessibles au plus grand nombre)

  • @TheJoegillian
    @TheJoegillian 10 місяців тому

    Cet homme mérite amplement son like ! 👍

  • @josueando
    @josueando 10 місяців тому +1

    c'est trop cool son enthousiasme pour le sound design. on voit que c'est un petit kiff 🤣🤣

    • @OktoPutsch
      @OktoPutsch 10 місяців тому

      ahah, j'me suis fait la même réflexion en matant la conf d'Nvidia, simple, efficace, ça devient même une petite musique, ça joue encore plus sur la hype du truc.

  • @joeldate8983
    @joeldate8983 10 місяців тому

    svp big boss c'etait à quelle date la conference a eu lieu ?

  • @gigazman
    @gigazman 10 місяців тому

    Genial. Toujours intéressante tes videos. Merci cocadmin

  • @arnaque-tuto-informatique-exp
    @arnaque-tuto-informatique-exp 10 місяців тому

    salut, une vidéo haute qualité, respect, the king.

  • @Tigrou7777
    @Tigrou7777 10 місяців тому

    2:38 Les transistors ne sont pas forcement plus petits quand on passe de 4nm a 3nm etc, c'est principalement la densité qui augmente. Bon je chipote un peu parce qu'en fait la video est excellente.

  • @pauldonzier7230
    @pauldonzier7230 10 місяців тому +1

    En Flops/$ est-ce que c’est mieux que la génération d’avant ?
    Ou bien l’avantage c’est essentiellement qu’on peut faire tenir des modèles qui tenaient pas en mémoire avant ?

    • @cocadmin
      @cocadmin  10 місяців тому +2

      le prix annoncé par puce est similaire a la generation precedente mais comme la ils te refourgue leur cpu en plus et leur switch etc la facture monte plus vite. Mais meme le prix double ca vaut quand meme le coup si t'es perf 4x.

  • @fabehein3531
    @fabehein3531 10 місяців тому

    Merci pour les images (et le son)💞
    Pouce UP 👍

  • @aquisiteur5956
    @aquisiteur5956 10 місяців тому +1

    WOOW, c'est fou ! trop passionnante comme vidéo, c'est des fou NVidia ^^

    • @joeldate8983
      @joeldate8983 10 місяців тому

      le nom que je donne aux goat en classe

  • @madagreement
    @madagreement 10 місяців тому +3

    Oui c'est très bien tout ça, mais est ce que ce DATA center sera capable de solutionner ma parte de cheveux ?! JE NE CROIS PAS !

  • @jipe0616
    @jipe0616 10 місяців тому

    super intéressant 👍, çà donne bien l'idée du domaine de Nvidia dans l'infra de l'IA. est ce qu'ils ont aussi parlé des accès au storage/data ? y a bottleneck si tu passe du 800Gb infiniband à un acces Cloud ?

  • @Labriagame
    @Labriagame 10 місяців тому

    Encore une vidéo bien cool, attention à la taille des texte, sur portable c’est compliqué à lire :)

  • @shadowsensei9040
    @shadowsensei9040 10 місяців тому +1

    Et encore, attend la prochaine génération avec des semi conducteurs de 2-3 nanometres.
    Et la ReRam.

  • @FRSineQuaNon
    @FRSineQuaNon 10 місяців тому

    Tu devrais faire une vidéo en nous présentant tes extensions chrome :)

  • @UniversalConnexions
    @UniversalConnexions 10 місяців тому

    On va pouvoir bientôt traversé le temps 😆 La télépathie ça existe, je regardais justement une de tes anciennes vidéo.

  • @fabehein3531
    @fabehein3531 10 місяців тому +1

    16:59 ils ont encore "un NAS" caché dans leur manche 😁

    • @KahroSynetic
      @KahroSynetic 10 місяців тому

      Ah chui pas le seul a avoir tilté dessus

    • @fabehein3531
      @fabehein3531 10 місяців тому

      @@KahroSynetic🙂🤫

  • @dotcybersec
    @dotcybersec 10 місяців тому

    Le design du GPU est déja beaucoup trop stylé

  • @DenisMartin-c4q
    @DenisMartin-c4q 10 місяців тому +1

    T’es le meilleur continue 🎉❤

  • @VenomGrasd
    @VenomGrasd 9 місяців тому

    stp tu peut fais une video pour nous montrer comment utilise les apk de programation

  • @ald8186
    @ald8186 10 місяців тому

    Une centrale électrique pour alimenter ce data Center ?

  • @Sebassx972
    @Sebassx972 10 місяців тому

    Ça serait intéressant une analyse de la prochaine rtx 5090. Je compte me le procurer.

  • @openmarkand
    @openmarkand 10 місяців тому +3

    hate de voir un port de doom sur ces cartes

  • @Marcdulux
    @Marcdulux 6 місяців тому

    J'ai eu l'occasion avec des potes de tester une carte Kalray (concurrent plus ou moins direct de AMD et NVIDIA). J'ai été impressionné par la rapidité et la puissance de calcul de la carte. Je me suis même demandé si ce n'était pas un prank de mes potes, mais pas du tout. C'est un truc de ouf
    Il me l'ont fait essayé avec un casque VR . J'ai halluciné. Alors que moi il m'en faut pour m'impressionner.

  • @CelianBaudet
    @CelianBaudet 10 місяців тому

    Super vidéo mister !

  • @jcmoriaud
    @jcmoriaud 10 місяців тому

    Très intéressant. D'où vient votre support de laptop svp ? ;-)

    • @cocadmin
      @cocadmin  10 місяців тому +2

      C’est un stand portable moche en plastique premier prix d’Amazon :)

    • @jcmoriaud
      @jcmoriaud 10 місяців тому

      @@cocadmin merci !

  • @abuu_duu4814
    @abuu_duu4814 10 місяців тому +1

    En vrai simple curiosité, genre demain j'arrive à m'en procurer pour X raison, y a til moyen de câler ça dans un Windows et faire tourner des jeux dessus ?

    • @Hiponite
      @Hiponite 10 місяців тому +1

      mdr imagine le gestionnaires des taches avec des dizanes de cpu et centaines de gpu (après je crois que de coté logiciel donc windows c un seul gpu)

    • @cocadmin
      @cocadmin  10 місяців тому +3

      yaura surement pas de driver pour, et meme si tu arrive a en bidouller un, plein de fonctionalité ne donne pas de gain de perf pour les jeux 3d (fp4, clustering, 192g de ram etc) Donc t'aura possiblement des moin bonne perf qu'avec une rtx :)

    • @creepydemon8732
      @creepydemon8732 10 місяців тому

      Ya Linus qui a fait un teste avec la A100 si jamais ca t interesse (résultats plutot decevants) ua-cam.com/video/zBAxiQi2nPc/v-deo.htmlsi=-60Upawj3nT6Jsve

  • @albertledromadaire
    @albertledromadaire 10 місяців тому +1

    Décidément il semble que le réchauffement du climat est bien oublié , cette surconsommation électrique nous amène droit dans le mur

    • @benben2846
      @benben2846 10 місяців тому

      infomaniak va avoir du taf 😂😂

  • @benben2846
    @benben2846 10 місяців тому

    Merci 👌👍
    rouuu, çà devient monstrueux ! Vingt diou....avec ce big bazar de boost ...ils vont finir par atteindre l'AGI ??? ^^
    les dernières IA peuvent tenir la dragée en conversation avec son avec un humain.....mon job de téléconseiller n'existera plus dans 5 ans ...l'IA sera bien efficace que moi 😅 et pourtant j'suis pas mauvais 🤨

  • @frogx59
    @frogx59 10 місяців тому +1

    j'ai pas encore tout regardé mais groq annonce 300 tokens/s (llama-2 70B) et le GB200 116 .... bon pour nvidia on ne connait pas le llm utilisé pour annoncer les chiffres.... du coup vrai révolution ?

    • @benben2846
      @benben2846 10 місяців тому

      yep va y avoir une guéuerre entre entre le LPU et Nvidia !

  • @hedialdjazairi8349
    @hedialdjazairi8349 10 місяців тому

    Pensée à tout les techniciens qui vont devoir remplacer les cartes dans les data center de OpenAI 😅

  • @mcboyrevolution
    @mcboyrevolution 9 місяців тому

    Amélioration on peut dire 👌
    Révolution ! C'est un peut exagéré non
    Sinon merci pour cette superbe explication ❤

  • @pnjsauvage9532
    @pnjsauvage9532 2 місяці тому

    Mon cerveau est en surchauffe mais super vidéo, merci ! 😊

  • @messiankov7538
    @messiankov7538 10 місяців тому +1

    jaime trop ta presentation
    est les effet

  • @bause6182
    @bause6182 10 місяців тому

    Hâte de voir les impact sur les ia

  • @victorbouchez
    @victorbouchez 10 місяців тому

    Encore une super vidéo, merci

  • @ronin6397
    @ronin6397 10 місяців тому

    Ce sont des grands malades les ingénieurs de chez Nvidia 😂 Ils sont trop fort 😎

  • @francksaillard1969
    @francksaillard1969 10 місяців тому

    Merci pour toutes ces infos!

  • @saucisse_dev
    @saucisse_dev 10 місяців тому +2

    Ils ont plié le game là c'est complètement hallucinant MDR

  • @othniel8993
    @othniel8993 10 місяців тому

    T'as abusé des j-cut là x)
    Nan mais ça fait plaisr de voir la forme aussi soignée

    • @cocadmin
      @cocadmin  10 місяців тому

      ca permet de faire avancer la video 2sec plus vite a chaque jcut ;)

  • @phanuelalibia
    @phanuelalibia 10 місяців тому

    je suis un dev web front end et les animations de se site on été fais par des genies

  • @IronZk
    @IronZk 10 місяців тому

    Incroyable la vidéo !!

  • @PauloMundo
    @PauloMundo 10 місяців тому +1

    Du coup ils vont aider à avancer sur la fusion nucléaire pour leurs futurs GPU ? mdr

  • @OrangeRiviere14
    @OrangeRiviere14 10 місяців тому

    ce serai bien que tu parles et donc compare les puces groq aux monstres Nvidia. Je pense que la GB200 vont souffrir de la comparaison ;)

  • @maquisardoccitan9043
    @maquisardoccitan9043 10 місяців тому +2

    Faut avoir la centrale nucléaire à côté avec des datas centers de cette taille

    • @OktoPutsch
      @OktoPutsch 10 місяців тому

      ben, curieusement, de moins en moins... c'est ça le truc de ouf :)

    • @maquisardoccitan9043
      @maquisardoccitan9043 10 місяців тому

      @@OktoPutsch ca c'est par ce que dans le calcul de fonctionnement ont n'intègre pas la consommation électrique induite à la fabrication à mon avis

    • @OktoPutsch
      @OktoPutsch 10 місяців тому

      @@maquisardoccitan9043 bah, c'est normal, tu prends pas en compte l'énergie grise (fabrication) pour une exploitation. Toi il te faut tes 2600 calories pour vivre chaque jour une fois achevé, pourtant il en a fallut des millions auparavant pour te "fabriquer" comme adulte.

  • @Bonsouèr
    @Bonsouèr 10 місяців тому

    Merci pour la vidéo ! Malgré mon intérêt pour le domaine, j'avoue avoir la flemme de regarder une conférence de 2h...ce résumé est donc bienvenu 😁

  • @fredouille_3735
    @fredouille_3735 10 місяців тому

    J'ai vu que Grog se spécialisait dans des puces spéciales inférence, est-ce que ça ne serait pas plus économique d'associer moins de gpu avec des puces du genre LPU mais spécialisées en video par exemple ?

    • @67fabs
      @67fabs 10 місяців тому

      Les cartes Groq sont bien pour génerer du contenu par contre, tu ne peux pas les utiliser pour entrainer ton modele

    • @OktoPutsch
      @OktoPutsch 10 місяців тому

      non car leur solution est plus générique et leur permet de faire du LLM et d'autres modèles avec un degré de performance équivalent à des circuits spécifiques. La souplesse est un gros avantage sur un marché en perpetuel changement.

    • @OktoPutsch
      @OktoPutsch 10 місяців тому

      'fin, vous vous doutez bien que pour en être là où ils sont c'est qu'ce sont pas des branlos en maths et qu'ils ont déjà fait leur étude comparative pour calculer leur feuille de route stratégique

  • @mohamedhusseindoumbia7476
    @mohamedhusseindoumbia7476 10 місяців тому

    en gros c essentiellement de la surenchere ? pas de methode archi ingenieuses pour avoir un boost de capacité ??

    • @vorkzen4767
      @vorkzen4767 7 місяців тому

      Après ils ne peuvent pas révolutionner leurs architecture chaque année 'on plus, ils optimise, enlève/limite les embouteillage ect...

  • @MtTheToto
    @MtTheToto 10 місяців тому

    Il vont surtout révolutionner le prix des cartes avec celle là 😅
    Ca me parait pas super malin de juste combiner plein de trucs en 1 monstre.

  • @Le.Félin
    @Le.Félin 10 місяців тому

    As-tu entendu parler d'une autre révolution beaucoup plus dingue que celle de Nvidia, et qui a été créé par des chercheurs français ? Il s'agit de Mistral qui ont fabriqué une puce dingue beaucoup plus performante que les GPU.

  • @jeffondrement160
    @jeffondrement160 10 місяців тому

    Même méthode que pour les processeurs M2 Ultra avec 2 puces rattachées par une sorte de pont.

  • @Khushpich
    @Khushpich 10 місяців тому

    très bien expliqué merci

  • @MarcfromParis
    @MarcfromParis 9 місяців тому

    Je ne comprends pas le sujet …
    Nvidia est répertorié comme une entreprise qui crée l’IA pour la science, et il n’y a pas d’équivalent aujourd’hui sur le marché

  • @h2o_one
    @h2o_one 10 місяців тому

    En tant qu'admin sys, j'avoue que niveau hardware cloud & dataCenter je suis un peu largué donc:
    bravo pour cette vulgarisation, çà devient bien plus assimilable comme info.
    Par contre l'investissement qu'il faut pour cette architecture parfaite by Nvidia 🤣

    • @cocadmin
      @cocadmin  10 місяців тому

      le CEO a mentioner 10milliard pour cette generation. Je pense pour décourager les startup qui démarre dans ce domaine

  • @Liam3072
    @Liam3072 10 місяців тому

    Conclusion : avec le pognon qu'ils vont se faire dans l'IA, les GPU pour gamers ça va devenir tout au plus une sidequest.

    • @cocadmin
      @cocadmin  10 місяців тому

      ca commence déja, l'ia vient de dépasser leur revenue gaming au dernier quarter

  • @moliver8492
    @moliver8492 10 місяців тому

    merci pour ton analyse

  • @maesmm
    @maesmm 10 місяців тому

    À 11:14 il parle de chiffrement homomorphe (FHE) ?

    • @cocadmin
      @cocadmin  10 місяців тому

      non juste chiffrement du traffic interne

  • @AurL_69
    @AurL_69 10 місяців тому

    incroyable cette analyse

  • @furcifer699
    @furcifer699 4 місяці тому

    Merci beaucoup !

  • @whismerhillgaming
    @whismerhillgaming 10 місяців тому

    A savoir que les process N4 N3.... ne riment plus à rien de nos jours...
    il faudrais plutôt s'intéresser la densité qu'on peux retirer de certaines architectures en fonction du process
    et je ne sais pas pourquoi ils sont resté sur le process N4P mais je pense que c'est par rapport au fait que c'est un process haute performance ce que n'est pas forcément le process N3
    en effet ce qu'utilise Apple ce n'est pas des processus haute performance mais plutôt des process à consommation réduite (ce qui ne veux pas dire que les puces ne sont pas très bonnes mais juste Apple cherche l'efficacité plutôt que les perfs brutes à tout prix en Watts consommés)
    Bref c'est pas du tout comparable et ça mériterais plus de recherches de ta part....

  • @eliefrossard
    @eliefrossard 10 місяців тому

    Merci pour la vid ! super interessant !

  • @masana_
    @masana_ 10 місяців тому

    Le marketing de Nvidia est insane

  • @amphibiousss
    @amphibiousss 10 місяців тому

    Je crois bien que l'ascension en bourse de Nvidia n'est pas prêt de s'arrêter x)

    • @lechinois4396
      @lechinois4396 10 місяців тому

      oui et non, on est dans une grosse bulle technologique actuellement, ça finira par exploser pour toutes les actions techno, ça peut être demain comme dans 5 ans ... Quand ça petera ça sera le moment de racheter, notamment du nvidia

    • @mljjn
      @mljjn 10 місяців тому

      Et de SuperMicro ;)

    • @lechinois4396
      @lechinois4396 10 місяців тому

      ​@@mljjn j'ai du ARM Holding acheté à 50, j'attends que l'action soit à 150 avant de revendre, j'espère que la bulle va pas péter d'ici là ... Puis une fois que bulle petera, je rachete tout

  • @Numero-42
    @Numero-42 10 місяців тому

    Gorq ship vient de leur mettre une vitesse je crois

  • @le_7401
    @le_7401 10 місяців тому

    Les sounds effect m'ont convaincu, c'est ou pour acheter un POD ???

    • @cocadmin
      @cocadmin  10 місяців тому +3

      Add to cart

    • @le_7401
      @le_7401 10 місяців тому

      @@cocadmin 🤣🤣🤣

  • @azakimbow
    @azakimbow 10 місяців тому

    Merci pour les infos

  • @sebastienmaisse8135
    @sebastienmaisse8135 10 місяців тому

    Sujet intéressant, par contre, pas de nouveauté au final si ce n'est mettre plus de puce dans le bouzin 😂 Ce qui sommes toute n'est pas nouveau. 😊

  • @ziratya3.014
    @ziratya3.014 10 місяців тому

    "Un NAS caché" ;) 16:57

  • @brucemangy
    @brucemangy 10 місяців тому

    l'appellation GPU semble inappropriée, IA Processing Unit ? Tensor Core Unit ? TCU ? j'avoue je ne sais pas, mais ca gère plus du tout des vertex des matrices et des pixels ...

    • @cocadmin
      @cocadmin  10 місяців тому

      c'est toujours bcp de matrice mais oui ca n'a plus rien de graphique effectivement

  • @anatideanani
    @anatideanani 10 місяців тому

    de quoi supporter GTA6 en ultra

  • @Ctrl_Alt_Sup
    @Ctrl_Alt_Sup 10 місяців тому

    Franchement, sur le site de nVidia ils ont des anims 3D de ouf 😅

  • @lefildubois6086
    @lefildubois6086 10 місяців тому

    C'est rien à côté des puces LPU GROQ qui détrône pour le moment NVIDIA dans le language

  • @MounMoun69
    @MounMoun69 10 місяців тому

    Au fait 3nm ça n’a rien à voir avec la taille des transistors ou à n’importe caractéristique physique directe des transistors 😊 , ça fait plutôt référence à la densité des transistors ou à la distance entre ces derniers…

    • @cocadmin
      @cocadmin  10 місяців тому +1

      c'est pour ca que j'ai dit "pour simplifier" :)
      j'ai fait une vidéo la dessus il y a quelques années ua-cam.com/video/U4-Le0N-Lyo/v-deo.html

    • @MounMoun69
      @MounMoun69 9 місяців тому

      @@cocadmin Vulgariser ou simplifier c'est différent de donner des informations erronées, lorsqu'on touche un public large il faut faire attention à cela, quand on me dit simplifié : je comprends qu'on omette certains détails pas qu'on me donne une explication fausse.... Parler d'une "plus grande précision de gravure aurait largement suffi..." 😁

  • @bause6182
    @bause6182 10 місяців тому

    On entend plus parler de amd , j'espère qu'il vont aussi rivaliser , je vois bien amd se présenter comme un vendeur de gpu pour les petites startups

    • @cocadmin
      @cocadmin  10 місяців тому +1

      ils essayent mais ils ont un gros retard logiciel en plus d'un petit retard materiel.

  • @Russ_ell07
    @Russ_ell07 10 місяців тому +1

    J’adore trop ce gars