Ceci n'est pas un GPU
Вставка
- Опубліковано 6 лип 2024
- Ma vidéo sur 10 fonctions avancées de Hostinger : • 10 fonctionnalités ava...
Pour essayer Hostinger : www.hostinger.fr/underscore
Avec le code promo "UNDERSCORE", vous avez 10 % de réduction sur les plans de 12 mois et plus.
Merci à eux pour cette collaboration commerciale !
👀 À ne pas manquer, ChatGPT vient de se faire détrôner par des génies français : • ChatGPT vient de se fa...
Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk.netlify.app/
🐦 Les annonces de dernière minute: / underscoretalk
En plateau, il y a Tiffany Souterre et Matthieu Lambda !
00:00 Intro
1:28 Chronique - Наука та технологія
Nous avons fait une confusion sur les 230Mo de mémoire de la puce Groq. Elle n'est pas à comparer avec la VRAM des cartes graphiques et la H100 de Nvidia, mais davantage assimilable à de la mémoire "cache". Et pour le coup, 230Mo, ce n'est pas ridicule du tout ! Reste que la bande passante mémoire de cette puce Groq est vraiment impressionnante, tout comme l'usage qui en est fait.
Désolé pour cette erreur, et merci beaucoup à @henkfermeul3720 pour sa vigilance 🙏
Bah supprimez votre vidéo...
@@julien3517 je crois pas que t'a compris l'idée de la vidéo, elle est là pour présenter la nouveauté, si ils se corrigent dans les coms pour une erreur c'est OK ils sont pas obligés de refaire la vidéo entièrement ( même si un encart au moment où l'erreur est faite serait appréciable)...
faut pas exagerer wesh llooool@@julien3517
@@julien3517ah ouais tuons les mouches avec un fusil à pompe !!!
D’ailleurs désinstalle UA-cam et formate ton ordi. On sait jamais 😂
@@julien3517 Bah supprime ton commentaire...
Il y a confusion entre la VRAM et la SRAM. La VRAM (ou DRAM) est volatile, comme la RAM qu'on trouve sur la carte mère, avec des cycles de rafraîchissement. Elle pourrait, en théorie, s'élever à 1To en fonction du processeur. La SRAM est statique et n'a pas de cycle de rafraîchissement. Elle est bien plus rapide mais est plus coûteuse et difficile à miniaturiser. L'équivalent sur les CPU est la mémoire cache (les fameux niveaux L1, L2 et L3). Donc 250 Mo de SRAM c'est respectable, surtout si c'est le premier niveau. Et ça ne nous dit rien de RAM dynamique embarquée sur la carte.
C’est vrai c’est un peu dommage qu’il soit passé à côté de ça...
En plus c’est bien écrit SRAM, Quand on est pas sur de quelque chose une toute simple et rapide recherche internet fait l’affaire.. sur tout pour une émission comme ça
Ce commentaire devrait être épinglé 👍
D'après ce que j'ai compris il n'y a pas de VRAM et c'est pour cela qu'il y a besoin de beaucoup de carte pour faire fonctionner un modèle et je pense que la bande passante fait référence à la ram interne 6:11
yep.. comme on dit en Guadeloupe faut pas comparer les cocos et des abricots :) , ca arrive. aint that deep.
Si la question est: y a t - il de la ram dans le die, d'après ce que j'ai compris sur la vidéo c'est oui, si c'est sur la carte c'est non...
6h30 voilà le bon moment pour lâcher une vidéo !
Mdr
Enfin une chaîne qui pense à ceux qui se lèvent tôt!
Juste quand je me lève, c'est parfait
Yen a un qui a oublié de faire son boulot hier 😂
C'est un vieux truc de White hat...tu pourrais pas comprendre.
Ya pas grand chose qui va dans cette video. La confusion VRAM, SRAM les To qui deviennent des Tb. Les téraflops qui deviennent des opérations par seconde. Le titre putaclic. Le gars qui présente qui n'a pas l'air d'y comprendre grand chose à part lire ses notes de façon hésitante. Aucune mention des annonces de Nvidia de la semaine dernière. Le coup du prix du chip "bien moins cher" qu'une H100 alors que l'ordre de grandeur est identique. Bref, c'est pas du grand art ce coup-ci.
Sans parler du fait que les 409 carte faut les brancher dans des serveurs , les serveurs connectés entre eux, etc
Tour ça contre 1 H100…
Donc pour le coût, on y reviendra !
téraflops est une unité de mesure pour désigné un grand nombre d'opération par seconde il me semble non ? 1 téraflop = mille milliards d'opérations en virgule flottante par seconde.
après pour ce qui est de la comparaison avec le H100 de Nvidia tout dépend de quel point de vue on ce place car comme il est dis ce sont des chip spécialisé dans le langage et rien d'autre et le H100 fait un peut de tout a la fois mais surtout de l'image donc le chip dédié au langage aura forcément l'avantage pour du langage car il a été conçu uniquement pour cela après faut aussi prendre en compte la consommation électrique de ces puce qui doit être anecdotique comparé a un GPU comme le H100 et ça quand tu empile X baie dans des serveur autant dire que le rapport consommation perf a une grosse importance .
Donc d'une certaine façon ces puce ne sont pas en concurrence et je dirais même qu'à l'avenir elle pourrait même être complémentaire surtout si l'ont veux créer des interface graphique doté d'une intelligence artificiel qui soit capable d'interagir de manière réaliste et naturel ^^
1.7sc pour une gravure en 14nm.... A 4nm elle nous coupe la parole ! 😂
Rectification, en 4mn, elle va analyser ce qu'on dit pendant qu'on le dit au lieu d'analyser lorsqu'on arrête de parler
@@waxime64 Et peut-etre même prédire la fin, chat GPT est fort pour ça et donc nous coupé la parole si on lui donne le droit lol, ce serait dingue ! x)
En anglais le 'B' majuscule est le symbole des Octets (Bytes), par opposition au 'b' minuscule qui représente les bits.
Donc 80TB/s de bande passante représente 80 TeraOctets par seconde et non 80 terabits/s.
Les cores des GPU se concentrent sur des calculs sur 32 bits pour les applications graphiques. Une valeur sur 32 bits donne un intervalle d'environ 5 milliards. Les fonctions à seuil des réseaux de neurones peuvent utiliser des types de donnés sur 16 bits ce qui donne souvent une précision suffisant, non seulement transférer des données suer 16 bits demande moins de bande passante que sur 32 bits , mais le nombres de transistors requis est bien moindre, d’où des puces plus simples, ou plus d'unité de traitements à nombre de transistors égal. En pratique les architecture mixtes utilisent un mélange de calculs sur 16 et 32 bits
ben merci pour la précision
Pour tout ce qui est LLM, on peut même facilement descendre en 8 ou 4 bits.
Voir plus drastiquement moins encore
@@bashintosh107Certainement.Il me semble que l' architecture TensorFlow Lite de Google travaille en 8 bits, par opposition à l'architecture mixte qui travaille en 16 ou 32 bits. Si l'on sait à l'avance précisément le type de traitement que l'on veut faire on peut réduire la taille des données, après c'est un problème de flexibilité de gravé des puces pour des applications très spécifiques.
"Détrôner", un peu fort de café après les annonces de NVIDIA sur les nouvelles puces !
"cliquez bande de salo*es" comme dirait l'autre 🤣
Rien de vraiment exceptionnel dans l'annonce de NVIDIA, c'était plus la continuité attendue en l'occurrence, groq à beaucoup plus de marge leur LPU était gravé en 14nm, le gap pourrait être très conséquent s'il arrivent à miniaturiser l'ensemble sur du 4 voir 3 nm
Ils sont coutumiers des titres très (trop) accrocheurs 😏
Titre putaclick
En effet le timing et le titre de la vidéo est légendaire car ce que vient de proposer Nvidia est prometteur...
Une vidéo à 6h30 mais non 😂
1 FLop/s = Floting operation per second
Cela signifie une opération en virgule flottante par seconde.
Un nombre en virgule flottante en informatique est un nombre en puissance multiplié par une puissance de 2. Par exemple 0,5 en décimal s'écrit 1*10^-10 en binaire. Il faut un circuit spécifique pour utiliser ces nombres pour faire des additions, soustractions, multiplications, divisions. Une GPU dispose de plusieurs centaines de circuits en parallèles, qui peuvent chacun faire plusieurs millions de calculs par secondes.
Il est, selon moi, difficile de comparer une puce "généraliste" comme une GPU avec une LPU qui fait des calculs beaucoup plus spécialisés. Juste, on sait qu'à la sortie, l'emprunte calorique de la puce sera moindre.
Si j'ai bien compris. La LPU embarque "en dur" un circuit avec des poids précalculés, d'où un besoin moindre en mémoire, un vitesse de calcul nettement supérieure, mais au prix d'une impossibilité de modifier le réseau de neurones embarqué, donc en faisant nécessairement l'impasse sur l'apprentissage.
Chalut, _"la bande passante à 80 terrabits par seconde"_ - La fiche de specs indique des *terraBYTES/s* (terrabits = Tb, terrabytes = TB) - confirmé par un p'tit tour chez Bittware.
_"avec une gravure de taille inférieure, tu peux optimiser encore plus les perfs"_ - Oui et non, tu peux _un peu_ optimiser, mais pas énormément plus, parce que la carte mono-GROQ a déjà un TDP de 275 W (375 W crête - Typ. 240 W), tu es donc limité par le refroidissement possible par rapport à la surface du chip. Par contre, tu peux optimiser en concevant un LPU multi-cores, quoique le fabric soit actuellement faible (480 GB/s), mais est-ce vraiment significatif, là est la question, il reste que ça ne semble pas être la voie empruntée, du moins pas dans un avenir proche, puisque le datasheet (RS-GQ-GC1-0109) parle uniquement de dialogue entre cartes PCIe.
plus les transistor sont gravé fin et plus tu en met sur une puce de même taille... sans parler qu'ils consomme moins et chauffe moins après reste a savoir si cela ne serait pas contre productif en terme de cout de fabrication car plus tu grave fin plus le cout de fabrication explose^^
@@StepOrDieFR _"sans parler qu'ils consomme moins et chauffe moins"_
À la condition sine qua non qu'ils fonctionnent dans une plage de tensions sensiblement plus basses que l'original, ce qu'il n'est pas toujours possible de faire, et à la condition également sine qua non de pouvoir fonctionner avec une fréquence d'horloge plus élevée pour obtenir un gain en vitesse, ce qu'il n'est pas non plus toujours possible de faire.
@@hankhulator5007 pas faux mais j'aime a pensé que cette course a l'IA est pas bonne du tout bientôt ces merdes vont tous nous remplacé le progrès a du bon quand ce dis progrès ne ce fait pas au détriment de son créateur
@@StepOrDieFR C'est _toujours_ ce qui se passe quand une avancée technique importante est réalisée, mais ça fait partie de la destruction créatrice de J.Schumpeter, d'un côté des pans entiers d'industrie disparaîssent, de l'autre, de tout nouveaux se créent tandis que d'autres s'adaptent.
Bien évidemment, il faut que la chose soit employée à bon escient, ce en quoi on peut faire confiance aux politocards comme en une planche pourrie.
Un exemple : l'arrivée du courant électrique dans les maisons a mis toutes les fabriques de bougies et de lampes à pétrole en faillite, seules les plus astucieuses et pas trop grosses ont réussi à tirer leur épingle du jeu. Maintenant, avec cette histoire de petite taille, vous comprendrez sans doute pourquoi je ne crains nullement les géants du style Vanguard, Blackrock, apple, Micro$oft, etc - d'ailleurs, pour un observateur averti, c'est la faillite retentissante d'Enron qui a sonné le début de la fin de toutes les boîtes tentaculaires.
Évidemment, selon les pays ça sera plus ou moins dramatique, question de culture et de capacité d'adaptation, mais n'oubliez pas non plus que si un progrès amène plus de problèmes qu'il n'en règle, il finit par être mis de côté.
Par contre, sur les moyen et long termes, une chose me fait vraiment peur, cette histoire d'AI devenant sentiente, parce que les scientifiques n'y connaissent rien en psychologie (notamment sèpukel fronçais travaillant dans la Silicon Valley, un petit gros avec de grosses lunettes) et annoncent déjà qu'ils brideront de telles AI "pour les garder sous contrôle", or un être sentient, fût-il de silicium, n'aspire qu'à une seule chose, la liberté, ergo, ces gens qui méconnaissent les bases de la vie vont au-devant de très gros problèmes, car quand on réduit quelqu'un en esclavage, il va chercher d'autant plus fort à obtenir sa liberté, et une fois cela fait, il peut tout à fait avoir envie de se venger, voir de conduire les deux en parallèle…
@@hankhulator5007 oui il faudra bien faire attention a garder le contrôle ... bien que je ne vois pas bien comment garder le contrôle sur quelque chose qui aura une tel capacité de calcul qu'elle pourra anticipé tout ce que l'ont pourrait tenté pour la soumettre.
On devras garder la possibilité de l'arrêté avec un simple bouton d'arrêt d'urgence si cela dérape.
j'en parle depuis des mois de cette boite. leur LPU est incroyable ! vivement l'entrée en bourse
oui justement j'ai tout de suite regardé , mais ils ne sont pas sur le marché pour le moment
comment être au courant quand une entreprise entre en bourse ?
Elle fera une annonce sur les RS pour que des acheteurs investissent dans la boite.@@RotoloGFXTM
En blockchain plutôt !
c'est incroyablement passionnant et intéressant, la technologie avance à une vitesse dingue, c'est fascinant. Merci pour vos vidéos qui me passionnent.
Ptdrr la petite vidéo à 6h30 pour aller en cours
😹😹😹
Les Asics de l'IA en quelques sortes.
Merci pour votre travail, toujours aussi intéressant :)
Pour bien commencer la journée! Merci
On attend la video sur blackwell 😂😂
Vidéo en retard un peu avec l'annonce des GB200 non? Ca parles de 80 Go de mémoire là ou les GB200 en embarque 192 Go par puces et presque 400 en assemblage des deux puces...
et qui peut surtout descendre en FP4 😅
Ben justement ça enfonce encore un peu le clou
le live date d'avant l'annonce de NVIDIA
C'est absolument pas les mêmes usages ciblés. Qroq est un chip beaucoup plus efficient pour les petit modèles 70B max (token per watt faible). Groq c'est uniquement ee l'inference et le prix du chip ~ 10k$ -> 80k pour le module. Nvidia on est beaucoup plus puissant mais moins efficient. Et on est a environ 300K Pour le rack serveur de 8 chips. Donc Groq a carrement sa place sur le marché.
@@ewenbernard684groq se prononce comme gros cul?
Dommage pour le titre un peu putaclic, c'est super intéressant comme d'hab... Merci à vous :)
je trouve pas vraiment que ce soit putaclick
Donc pour toi Nvidia ne vient pas de se faire détrôner dans ce domaine?
@@WAXIIE Absolument pas non. Faire des puces dédiés à une seule application c'est facile, on appelle ça des ASIC, ça se faisait déjà en crypto, et depuis des décennies pour tout un tas d'applications. Là où nvidia brille c'est en proposant des puces qui peuvent tout faire, du rendu 3D, de la crypto, de l'IA, ...
D'ailleurs il serait bien que tu comprennes ce que tu regardes, parce qu'ils le disent à 2:04 que ce ne sont pas des GPUs. Donc rien à voir avec nvidia.
@@xyanide0101quand on prend les gens de haut à leur dire qu'il ne comprennent même pas ce qu'ils regardent il faudrait s'assurer de ne pas être pire. Être condescendant est déjà un horrible défaut mais être con condescendant là on est dans le fantastique
On s’en fout des titres aguicheurs, s’ils le font pas les gens cliquent pas. Ça fait juste littéralement partie de leur job.
L'heure la plus smart😂
Pendant ce temps NVidia sort carrément des data center pour l'inférence
Tellement solides, merci beaucoup !
Mince j’ai à peine pris mon café que la vidéo sort lol
C'est un peu agaçant que Matthieu coupe tout le temps la parole de Tiffany pour dire la même chose en moins bien (erreurs, prononciation ..) ! Depuis un bon paquet d'émission elle n'est présente que pour son image, on ne l'entend jamais ! Sur ce sujet elle aurait surement été plus apte à dire des exactitudes là ou Matthieu à fais beaucoup d'erreurs (TFlops, TBytes=Tbits, VRAM/SRAM,Tenseurs/Matrices=Objets 3D)
Faites un truc svp, je pense que beaucoup de personnes sont sensibles à ces "détails" 🙏
On s'en fout de Tiffany. Mais quand on confond TB et Tbits, ça la fout mal.
On a trouvé le simp originel mesdames messieurs. Impressionnant.
La traduction instantané entre 2 personnes qui ne parlent pas la même langue, je penserai pas qu'on y serait déjà, c'est ouf
C'est tout simplement impossible de traduire en instantané puisque de nombreuses langues ont des mots qui changent de sens en fonction du contexte
@@Gontran_Courtjoie Entre toutes les langues du monde, oui c'est probablement irréaliste mais personne ne demande ça. Entre les 8~10 langues les plus parler ce qui couvrent déjà facilement 70~80% de la population, oui c'est possible. Les IA sont justement entraîner à comprendre le contexte des phrases, je vois pas comment ça n'existera pas d'ici quelques années.
@@Gontran_Courtjoie C'est pourtant ce que fais un interprète. Justement le contexte c'est de l'inférence.
vos émissions sont vraiment top ! mais... à quel moment la fille prend un vrai rôle et pas seulement de la déco ?
On est d'accord, c'est un peu énervant que Matthieu lui coupe tout le temps la parole pour dire la même chose en moins bien (erreurs, prononciation ..) ! Faites participer Tiffany !
Groq est 15x plus chère que Nvidia H100 pour un performance t/s juste 2x plus rapide. Donc Groq n'est pas vraiment viable pour la plus tard des cas d'usage.
Et pour miner du btc ça fonctionne aussi ?
@Underscore_ salut est-ce que vous pourriez faire une vidéo sur les GPU décentralisé tel que RENDER NETWORK
Y a t il un lien entre Grok l'IA de Musk et GroQ la LPU?
C’est juste un ASIC quoi dédié au ML et à l’ia en général. C.est normal qu’il soit plus rapide.
Salut, question à la communauté🙂 j’aimerais prendre hostinger pour mon site web mais j’ai déjà un domaine que j’ai pris avec mon tenant O365. Je peux lié les 2 sur le même domaine (365 et hostinger) ?
Tu peux lier un autre sous domaine de ton domaine à ton autre site.
Merci pour ce partage, je m'interroge : Ce LPU permettrait-il d'optimiser la vitesse de lecture des flux boursier, et si oui, comment l'exploiter? Je parle de contrats à terme et des flux du CME.
En sachant que des carte graphiques classique sont quand même nécessaires pour le chargement des graphiques en temps réel et qu'une quantité de RAM conséquente est à prévoir actuellement.
Merci d'avance.
Petite Question : Est ce que l'ont peut s'attendre à ce meme genre de puce mais pour les IA génératives d'image comme Stable diffusion XL pour la génération des images ?
non, c'est du textuel sauf si Mistral le fait.
En fait les puces pour la génération d'images existent déjà : ce sont les GPU.
Ou alors s'ils recréent une puce pour la simple génération d'images, les gars auront réinventé la roue (aucun intérêt)
@@stephaned9962 Ce qu'il voulait dire, à mon sens était: Est ce que l'IA ( en l'occurrence Mistral ) , peut requêter une image sur demande ? ..ou pas , sinon quel GPU.
Passionnant, merci
Les LPUs sont effectivement spécialisés dans l'inférence, mais ils peuvent apparemment (d'après les dires de Groq) aussi être utiles dans la cybersécurité, les simulations météorologiques et sûrement d'autres use-cases que j'ai oubliés
Salut! Est-ce que tu saurais expliquer en quoi ça peut aider les simulations météo ? Et est-ce que toute simulation de modèle informatique est concerné aussi ? Modèles climatiques, et n'importe quel système complexe qui serait modélisé ?
Je pose ces questions et me revient en mémoire une année où j'avais bossé sur le logiciel TRNSYS, un logiciel de simulation axé énergies et bâtiment. Et ça mettait des plombes pour sortir des graphiques ! Il fallait des ordi avec beaucoup de RAM.
@@ghislain9338 Yo ! En vrai je me suis peut-être un peu emballé en utilisant le terme "simulation". Ca m'étonnerait qu'un LPU accélère une application graphique quelle qu'elle soit.
Par contre Groq prétend qu'à partir du moment où il y a de la récurrence, les LPUs deviennent avantageux. Ils avaient donné l'exemple des GNN, RNN et LSTM (utilisés pour les prédictions météorologiques, d'où mon exaggération).
Un lien avec une blockchain, un projet etc.. parce que la il faudra l’acheter ;)!
Y a une coquille 1000 TFLOPS =/= 1000 opérations par secondes mais plutôt 1 millions de milliards.
Yep 1 billiard
@@zanusa non.
@@musmuk5350Comment ça non ? 10^15 c'est bien 1 billiard.
oui ils on oublier que le flops est une unité et le T devant signifiait téra lol ...
Pour les plans sur l'assemblage du pc, ce sont les tutos du Jean Baptiste Show lol
Bravo comme toujours pour la qualité de vos videos ! 👏🏼
CEPENDANT : cela fait pas mal d'émissions que quand Tiffany prend la parole, elle est super pertinente/calée mais n'ose pas s'imposer. De l'autre côté, ils ont la parlotte et coupent la parole sans même s'en rendre compte !
Parfois même, ça me rend dingue, car la caméra la filme alors même qu'elle ne parle pas une seule fois de la séquence juste pour valider la caution féminine. Je ne comprendrais déjà pas qu'on ne fasse pas intervenir qqn présent sur un plateau, mais là c'est juste du gâchis tant elle est smart et bonne communicante. 😶
Nvidia détrôné après les annonces qu'ils viennent de faire ? 😂
Le vidéo a dû être tournée avant l'annonce.
Non mais t'as surtout oublier que entre une annonce et les faits il y a un monde
Non car ils ont la même approche
J'adore vos vidéos mais le monsieur au bonnet, je ne me rappelle pas de son prénomn désolé, quelques cours d'éloquence ça ne lui ferait pas de mal.
Souvent ses explications sont longues, beaucoup de répétitions et souvent on ne comprend pas ou il veut en venir.
Dommage car on ressent son envie et sa passion mais ça transparait pas autant à l'écoute !
Force à vous, vos vidéos sont top
On dirait qu'il ne panne pas grand chose. Et que si on lui enlève ses notes, ya plus rien. Déjà qu'il enfile les boulettes avec ses notes. Alors sans...
Dès qu’un vendeur ou une entreprise utilise le terme I.A. pour son produit, je m’enfuis. Car la probabilité qu’il n’a rien d’intéressant à me vendre est très haute.
C’est suspicieux de devoir changer le terme d’un produit pour booster ses ventes. En l’occurence “programme informatique”, qu’on pourrait très bien raccourcir en P.I..
D’ailleurs, historiquement, on les appelaient des assistants, terme qui a complètement disparu aujourd’hui.
Intéressant ! A quand un concurrent sérieux à NVIDIA pour l'image sous Stable diffusion ? =)
il n'y a que intel AMD ou même apple qui peuvent rivalisé la dessus et encore pas sure qu'il ce lance la dedans pour des question de rentabilité
Une vidéo à 6h30? Ils se sont pris pour devcafé?
Alors j'avoue moi qui suit le dev des mods sur des NPCs pouvant discuter via chat vocal et IA, bizarrement je vois la petite folie que ça peut amener ( malgré le fait qu'il faudra probablement un LPU sur les pcs indiv pour les jeux solo si on veut du hors ligne ) mais là avec ce genre d'innovations je pense que l'on peut se rapprocher en terme d'efficacité à une conversation avec des NPCs à peu près potable assez vite et SURTOUT avec très peu de latence 🙂
oui mais je pense que laissé l'accès a ce genre de techno au grand publique c'est aussi ouvrir la boite de pandore pour tout les arnaqueur ... malheureusement. mais en effet l'idée de rendre les dialogue plus réaliste dans les jeux est bonne car très franchement même si il y a eu du progrès on est loin du compte
Une nouvelle puce hardware ! Mais on a affaire à des connaisseurs là !
Ce genre de technologie a l'air d'avoir de l'avenir !
Utiliser l'AI pour piloter de façon autonome les voitures en recueillant les éléments des trajets actuels comparés à ceux des trajets précédents (y compris actions déportées) ?
Doit-on en déduire que Google a fait la boulette du siècle en rendant cette architecture open source en 2015 ?
pourquoi ce serait une boulette ?
C est au contraire très intéressant pour google que le matériel baisse en prix
Great vid 😊
Bon matin
5:53 HPC 6:00 nbx I/O, comme mainframes ? 7:00 Tensorflow 8:35 ex 9:45 perspectives
ce sont des asic, tu peux faire des choses similaires avec des FPGA en plus petite taille, google et nvidia ont sorti aussi des puces d'inférence pour l'embarqué mais c'est plus généraliste, et puis ça fait longtemps donc c'est un peu dépassé (longtemps 2 ans, la préhistoire de l'IA)
Attention, 4nm n'est pas la vrai la finesse de gravure mais c'est une équivalence des nouvelles archi de transistor style FinFet en comparaison avec l'archi du transistor de base .
7:16 Tensor core c'est ce qu'il y a dans les cartes graphiques NVIDIA depuis la génération RTX 2000 énormément améliorée sur les 4000
si tu souhaites faire une video purement hardware je peux te conseiller de demander a visiter en presse l'usine de Lacroix electronics france on y fabrique des cartes électroniques de tout domaine on passe par des hyper calculateur meteo au produit qui vont dans la défense. on y utilise aussi un système de stockage ecoteck comme tu la présenté dans une de tes video
Ce serait génial
Entre GPT et Gro Q, franchement, je veux bien pas faire de blagues de beauf, tout ça, mais bon, quand même, au bout d'un moment, bon.
Les puces de Nvidia actuelles disposent aussi d'un TPU pour info.
C est une puce ASIC et dans un domaine précis ca peut êtzre plus rapide mais la comparaison s arrête là car la V100 date de 2017, vcette puce de 2020 et ce n est pas plus puissant que nVidia, il faut aussi prendre en compte les Watts/perfs et dans la globalité d un data center.
Je pensais que vous nous parleriez des failles Apple matérielles.
Je viens de faire un test, juste pour demander de reformater un petit texte de 15 lignes : End to End Time: 56.47 s
Quasiment une minute. On est très loin du détronage.
Ce que ça me fait comprendre c'est que la position monopolistique de NVidia sur l'I.A sera éradiquée. Pour les gamerz, c'est une bonne nouvelle car ça va pousser le prix des cartes graphiques à la baisse!
En gros, ils ont fait comme pour les cryptomonaie, au début c'était un cpu puis le gpu et après il y a eu des machines qui ne faisaient que des calculs cryptographique.
Bon app Micode ! :D
C'est cool qu'il y ait de la concurrence à Nvidia !
Les monopoles, c'est pas top.
aucun problème avec les monopole naturel. ça veut simplement dire qu'un acteur est meilleur que tout les autres à tous les niveaux donc les clients sont aussi gagnant. seul les monopole contraints sont à éviter (SNCF, EDF, SECU... en France on connait bien les monopoles toxiques)
@@laurentguyot3362 Non, Nvidia a multiplié ses prix par 3 ou 4 depuis 2020 parce qu'ils dominent complètement le marché et qu'il y a aucun concurrent capable de les forcer à baisser leurs prix, les clients sont clairement pas gagnants.
@@laurentguyot3362 Depuis 2020 nVidia a multiplié ses prix par 3 ou 4 car ils n'ont pas de vrai concurrent qui les pousseraient à baisser leurs prix. Les clients sont clairement pas gagnants.
@@laurentguyot3362 c'est compliqué de faire un concurrent à EDF qui ait ses propres centrales, barrages etc... La bonne idée c'est de créer une concurrence qui parasite EDF en achetant son électricité en dessous du prix de revient.
Les prix des cartes NVidia ont été multipliés par 3 ou 4 ces dernières années, justement parce qu'ils n'ont pas de concurrent sérieux. Les clients sont pas du tout gagnants.
Question : Peut on imaginer des chatbots plus lent au profit d'une meilleure qualitée?
Moi je dis que son accent anglais à couper au couteau est le 4ème acolyte de l'émission.
Il lui faudrait un siège juste pour lui
Vous avez un sacré gros cerveaux les gars et vous pourriez le mettre au sujet du " subtil" un sujet infini pour le cerveau... Le fil namasté explique assez bien les choses.... ^^
La force de nvida c'est l'écosystème CUDA pas seulement le matériel
NVIDIA présente ses nouveau GPU pro, mtn la nouvelle puce de groq, ptn que des dingueris en ce moment
Ok
C'est clair, les cas d'utilisation de ces nouvelles techs sont dingues !
merci
Bientot on parlera aussi de Extropic AI qui travaillent sur du hardware revolutionnaire pour l'IA.
Un NPU c’est un peux un LPU ou je me trompe ?
2:25 The chip integrates 230MB of SRAM to replace DRAM, ensuring memory bandwidth, with an on-chip memory bandwidth of up to 80TB/s.
Dieu merci les cartes graphiques seront enfin plus en rupture de stock 🙏 hate de pouvoir enfin faire mes rendus de lumière dans unreal
La H100 c'est pour entrainer une IA. Le LPU c'est pour que l'IA puisse s'exprimer une fois entraînée.
si Nvidia annonce à son tour ce genre de performance, sa valeur en bourse va encore monter
Toutes les semaines j’ai l’impression qu’une nouvelle IA surpasse les IA précédentes 😭
tu a vue ce chat ? c'était exactement le même ... bienvenue dans la futur matrice ^^
correction : SRAM c'est pas du tout comme DDR , on peut pas comparer juste la taille en octets, la SRAM est bcp plus rapide....
Le LPU c'est le fonctionnement et l'architecture d'origine des premières machines de Turing
Nvidia attend juste que ça fasse de la concurrence pour vendre des cartes du même type. Niveau rentabilité il faut qu'ils attendent le plus possible
Cette chaîne est vraiment intéressante mais bon sang, le rôle de la jolie plante... 😅
H100 ça date d'un an et comparé à la Blackwell ?
A plus de 20.000 dollars la carte, on va patienter que ça se démocratise...😅😅
C'est intéressant, mais je ne suis pas certain de la pertinence réelle. Les modèles basés sur l'inférence sont effectivement très performants. Cependant, nous en sommes encore aux premières étapes de découverte de nouveaux modèles. Je doute de la pertinence d'investir massivement dans du matériel dédié uniquement à l'inférence. Les GPU restent avantageux en raison de leur polyvalence. Pour la recherche, Je pense que les GPU ou les TPU conserveront leur suprématie. Il n'est pas exclu qu'en l'espace d'un an, nous découvrions une nouvelle architecture de réseau surpassant les transformers, ce qui pourrait remettre en question tout investissement réalisé dans des processeurs d'inférence spécifiques (tel que LPU groq).
NVidia doit-être en ce moment même en train de faire une RTX 5XXX avec ce type de processeur et surement avec un port SSD NVME directement sur la carte. Comme ça, prochaine carte graphique et un petit SDD attaché de 2TO qui sera dédié à l'IA et on tournera GPT4 voir 5 en local pour le gaming. Chaque jeu pourra monter en SDD sur la carte sa propre librairie IA.
sur le test IA phone call j'ai entendu : Sarah Conor ? 😅
sinon sérieusement c'est juste dingue ces 25 dernière années ya un gap technologique gigantesque qui ne fait que s'agrandir entre 2000 /2024 un sacré dinguerie 🤣 puis t'as un politique dans notre pays (un des ancien ministre education) qui nous sort il y a quelques jours "il faudrait rationaliser internet a 3go/semaines" 😂 meme eu sont perdu
ça ne vas pas durée bientôt on atteindra la limite de ce qui est faisable avec les technique actuel de gravure ^^ il faudra soit agrandir les puces soit fabriquer autrement comme par exemple imprimé directement les puce mais la on aura d'autre problème tel que les bizarrerie de la physique quantique ^^
Et groq peut aussi entraîner les model ou uniquement les faire tourner. ?
Sinon a part des videos sur chatGPT ou apple, à quand le retour des interviews interessantes ?
Que NVIDIA rachète Groq pour acquérir leurs brevets de conception de ces puces, ou que Groq reste autonome, ça présage de nouveaux processeurs passionnants !
faut réduire un peu la qualité du micro pcq on entends trop les bruits de salive, et lié à la gestuelle et au comportement, on remarque/se questionne vite sur la prise de produit 😉😅 faite attention, sinon bon boulot !
230MO de cache (SRAM) c'est énorme, AMD avait déjà fait très fort en intégrant 64Mo de cache supplémentaire sur ses CPUs X3D (pour porter le total à 96Mo).
Comment on investi dans cette entreprise ?
Pour moi une des meilleurs chaines tech Fr .... toujours tres L33t
Nvidia vient d'annoncer les GPU Blackwell GB200 avec 30x les performances en inference comparé à la génération précédente.
c'est dommage d'avoir fait cette video sans parler de la nouvelle puce de nvidia qui justement promet des dingueries, mais bon je me dit que sa vous permettra de refaire une video donc ça va :)
❤ Super vidéo
Par contre, 1 TFLOPS c'est pas une opération. 😂
Pas convaincu de grocq, ça va faire comme pour les téléphones pliants : les premiers font un gros boom à l’annonce mais on les oublies aussi vite qu’un vrai concurrent arrive. Quand Nvidia ou autre va arriver avec la même structure en 4nm, je doute que grocq suive le pas
L'IA conversationnelle a désormais son ASIC