@@SoftYoda c'est Jean-Louis Queguiner, le CEO de l'entreprise Gladia. Un mec absolument brillant. C'est un peu un Jancovici de l'IA ❤ et il devrait plutôt bosser pour le ministère de l'économie plutôt que pour sa propre boîte.
@@yvangascogne j'veux dire qu'on ne comprends presque rien a ce qu'il dit malgré la vulgarisation ...les journalistes ont du mal a suivre aussi...programmation + economie+informatique +geopolitique des marchés ...vu par un cio guik ....😓
Justement non. Il dit absolument N'IMPORTE QUOI à propos du prétendu minerais de silicium qui se trouverait surtout en Chine ! Le silicium est le seul constituant du quartz avec l'oxygène et il y en a partout sur Terre ! 😄 C'est en fait le constituant du sable blanc pur... Et ce n'est que le cas le plus simple car la moitié des minéraux terrestres sont des silicates... Les autres éléments des puces sont des éléments dopants : phosphore et bore, deux éléments aussi extrêmement abondants sur Terre ! Les borosilicates contiennent même du bore et du silicium, par exemple la tourmaline. Enfin bref...
@@yannduchnock Il ne se trouve pas surtout en Chine, mais la Chine et Taiwan sont les deux principaux fabricants de puce, donc leur approvisionnement et la fabrication dépend de ces deux pays. C'est ça qu'il a dit.
tres tres fort l'intervenant, j'ai vraiment apprecie sa facon de vulgariser et ses analogies. dommage qu'on ait pas parle un peu plus de l'open-source (quand on lui a demande la question sur les alternative de CUDA par exemple, il y a OpenCL, etc..) et de la mise d'AMD dessus
Il y a aussi oneapi que je n'ai pas mentionné. qui était la promesse de l'unification du framework de compilation graph au dessus de n'importe quel hardware. mais Triton de Openai semble être celui qui gagnera la bataille !
J'espérais qu'un jour, ceci soit dit et j'en suis heureux. Bravo pour la maîtrise du sujet, de son accessibilité. Il est bon de démontrer ces vols manifestes. Bravo à l'équipe et à l'intervenant de ce jour.
Très bon intervenant. Je rajoute un détail étant un cochon sur programmation GPU en recherche, Nvidia balance énormément de publications scientifiques là ou AMD a lâché....
@@jean-louisqueguiner2857 Pas si ouf puisque les AMD font mieux à chaque fois pour 3 fois moins cher, moins de conso et moins de chauffe. En revanche pour la partie software AMD en ont moins pour le moment et c'est ca qui fait que.
J'avoue que pour une fois les explications sont plud compliquée, je vais faire mes recherches du coup. Mais l'intervenant a quand meme reussir a me faire piger les bades, il est génial comme la video !
@@lewthemustard Pas d'accord et pourtant je suis loin d'être un défenseur de la pomme ! Les pires sont Broadcom (leur système de brevet ou le comportement après le rachat de VMWare...), Oracle avec des pratiques ubuesques (l'utilisation d'un client Java nécessite d'avoir une licence pour l'ensemble du parc, idem pour les Databases Orables en environnement virtuel...), SAP n'est pas mal non plus... et que dire de Microsoft avec son environnement 365...
C’est clair, j’ai failli pas regarder à cause du titre alors qu’en fait c’était plutôt intéressant. C’est pas une mafia c’est juste du business. À un moment donné le putaclic ça peut freiner…
On parle de Nvidia qui réserve en priorité chez TSMC, vous oubliez Apple c'est le plus gros client de TSMC et c'est lui qui prend une grosse partie de la capacité de production de TSMC.
Faut pas oublier qu'AMD a racheté ATI,il 'y a pas si longtemps que ça et que le logiciel n'étais pas leur priorité. Nvidia au contraire ayant racheté 3DFx et SGI... Ils ont un bureau de développement assez exceptionnel. CUDA c'est bien mais il existe des solutions alternatives et NVIDIA joie de sa position dominante pour ralentir le progrès du marché. Les cartes AMD sont réputés être plus puissantes depuis fort longtemps
La différence: CUDA : 2007. ROCm: 2016... OpenAPI (2020) qui a finalement intégré du CUDA... En gros, c'est pas une stratégie diabolique quand tu es le premier et le seul qui, pendant 10 ans, développe une technologie...
J utilise les fonctions cuda ( avec une division par 30 de mes rendering) depuis 2009. Donc ça fair 15 ans qu avec 3 petits tweaks ça marche d enfer. Cuda a tout changé.
Avant le boom de l'IA, il y avait déjà une tension aussi avec les stocks des cartes graphiques qui étaient siphonnés par les fermes de minage de cryptomonnaies au grand dam des hardcore gamers. Bien entendu avec l'iA, le marché a été décuplé et notamment les GPU spécialisés (A100, H100…) qui ne sont plus du tout accessible aux gamers.
Au moment ou j'écris Nvidia vient de perdre 430 milliards de dollars en 3 jours mais est en train de rebondir... Tout cela reste tout de même très instable.
Ben non tu calcule pas la puissance de moteur au nombre de sorties de pot , une 2 chevaux avec 6 sorties de pot aura toujours que de chevaux en puissance @@drak0x6
C'est même le cas depuis la génération des RTX 2000 via l'archi Turing et la mise en marche des Tensor cores (exemple entre la 1080 vs 2060 qui perfs de manière égale au global mais BIZAREMENT en half FP16 on passe de 138.6 GFLOPS pour la 1080 à 12.90 TFLOPS pour la 2060 donc un facteur de littéralement X100 ce qui est ABSURDE) mais c'est encore plus le cas depuis les RTX 3000 et 4000 et la mise en place de l'ensemble de leurs unités de calculs additionnelles pour simplifier encore plus la conversion de 2XFP16 en résultat "équivalence" FP32 (exemple la RTX 3080ti est en moyenne que 50 à 60% plus perf que la RTX 2080ti mais la encore BIZAREMENT on passe de 13.45 TFLOPS en FP32 à 34.10 TFLOPS donc X2,5 plus puissante selon la nouvelle mesure Bullshit de Nvidia) , d'après mon ressentit il faut plus ou moins diviser la valeur indiquée en TFlops FP32 par 2 à 2.2 pour retrouver une équivalence logique entre les gaps générationnelle. En gros c'est devenu du n'importe quoi chez Nvidia et "limite" de la dissimulation à peine cachée des informations pour les personnes ayant besoin de perfs concrètes.
@@On-en-a-Gros l'on se base généralement sur les valeurs FP32 et non FP16, au sujet de la puissance de calcul des GPUs. Donc exit ces références. Mais même en FP32 ça ne tourne pas rond et ce depuis les générations 3000. Il n'y a qu'à voir les valeurs : on passe d'une titan rtx à 16tflops à une 3090 à....35 tflops. C'est du jamais vu dans l'histoire des gpus d'avoir un gap aussi important, pour une gravure moins de 2fois plus petite. Alors que de l'autre côté (chez AMD, vous avez une 6900xt, plus puissante qu'une 3090 en terme de puissance brute, mais avec des données plus cohérentes (23 tflops). Les calculs ne sont pas les même, ON NE PEUT PAS/PLUS S'Y FIER !
Cette vidéo est d'utilité public et devrait être plus largement partagée auprès de la population de particuliers qui ne jurent que par Nvidia faisant ainsi leur fortune. Les mêmes commentaires pouvant s'appliquer à Microsoft.
Cela serait intéressant que vous fessiez une épisode sur le fait que les portefeuilles des gens sont probablement en danger avec la venu des ordinateurs quantiques.
@@erictitor j’ai très probablement beaucoup plus étudié que toi la mécanique quantique. Mais là n’est pas la question, avoir un BEP brouette te limite visiblement. Pauvre de toi.
Super vidéo ! Probablement que ce commentaire va se perdre dans le néant, mais vous saviez que "Jensen Huang (patron Nvidia) a un lien de parenté avec Lisa Su, la PDG d'AMD. La mère de Huang est la plus jeune sœur du grand-père maternel de Su, ce qui en fait des cousins." (wiki) Du coup vous pensez pas qu'ils sont de mèche pour avoir le monopole a tout les étages à eux 2, en faisant croire qu'ils sont concurrents ?
Marrant quand j'entends parler des solution soft d'AMD et Nvidia qui sont là en sum-sum en attendant que l'une soit captée et amplifiée par la communauté, ça me fait penser aux souches virales qui sont présentes et qui attendent leur heures pour être LA (ou les) souches de la saison. Dès que l'une a réussi à contaminer une masse critique de personnes, elle est en tendance et c'est elle qui finit sur-représentée par rapport aux autres x) Bon après quand on y réfléchit 2 min, c'est normal c'est le même phénomène puisqu'il s'agit de rendre populaire quelque chose dans la population et que pour ça c'est le partage par proximité de personnes ou de communauté qui sera toujours le moteur #1
nVidia est devenu le Silicon Graphics des années 90. Silicon Graphics n'est plus de ce monde (😉) mais a laissé un patrimoine software OpenGL qui reste les fondations d'un édifice chapoté voir pillé par Microsoft/DirextX/nVidia. nVidia a toujours orienté DirectX avec ses shaders/tesslation et j'en passe. D'autres avaient des unités de tesselation bien avant l'heure (truform AMD sur leur excellent R200) ou encore des "GPU" programmables (Rendition Vérité).
J'ai bien peur qu'ils subissent le même sort que SGI malgré leur annonce fracassante, ça fera pas illusion longtemps les autres marque de CPU et GPU suivent des stratégies différentes plus proche d'architecture ARM le marché des devices mobile est très concurrentiel, NVIDIA choisie l'élitisme technologique notamment avec leur solutions pro pour les calculs d'IA mais à un moment donné il y aura des petits malins qui feront mieux et moin chère...
Le principal problème d'AMD a toujours été ses drivers. Beaucoup de problèmes à ce niveau, ils n'ont jamais voulu évoluer à un niveau comparable à Nvidia.
Ils évoluent mais Nvidia va juste plus vite dans l'innovation. l'Open Source AMD ne prends pas car au final il est moins performant. Le FSR c'est open source, c'est cool tout ça, mais le DLSS ça marche juste mieux. Et par construction il est peu probable que l'Open Source arrive à rattraper le deep learning...
En soit, oui, quand la bulle IA va pop, Nvidia va retomber de très très haut, c'est clair et net. Mais en dehors de ça, nan, je ne pense sincèrement pas qu'AMD arrivera à se hisser au niveau. C'est loin d'être la première fois qu'on est dans une situation similaire, et Nvidia finit absolument toujours par les dominer. Ça ne changera pas, ils apprennent pas.
Voici quelques-uns des clients notables de **Nvidia** : - **Entreprises de technologie :** - Amazon Web Services (AWS) - Microsoft Azure - Google Cloud Platform - **Constructeurs automobiles :** - Tesla - Audi - Toyota - **Entreprises de jeux vidéo :** - Sony - Nintendo - Electronic Arts - **Entreprises de l'industrie de la santé :** - GE Healthcare - Siemens Healthineers - **Entreprises de l'aérospatiale et de la défense :** - Lockheed Martin - Boeing Ces entreprises font partie des clients importants de Nvidia dans divers secteurs tels que la technologie, l'automobile, les jeux vidéo, la santé, l'aérospatiale et la défense
Il faut pas sous estimer AMD. AMD malgré NVidia réussit des choses techniques exceptionnelles. Par exemple leurs SOC IA et le rachat de Xilinx qui est stratégiquement brillant. Je développe en CUDA (C++ et Python) et j'adore Nvidia pour du DL/ML/LLM etc... Mais AMD en ce moment progresse énormément.
Moi aussi je m'intéresse a CUDA. Mais pour windows et pour le moment MiOpen... Ba ils sont que 2 codeur assembleur a s'en occuper, donc va vraiment falloir attendre 3-4 ans avant que se soit compatible. Sa les intéresse pas du tout. CF : Le fil de discutions publique Rocm.
Numéro 1 pour toujours si les consommateurs changent pas de comportement mdr. Surtout en ce moment, l'IA représente un rapport investissement/bénéfices stratosphérique et NVIDIA s'est complètement jeté dedans ( comme beaucoup d'autres entreprises ). NVIDIA pèse actuellement plus que toutes les entreprises du CAC 40 réunies et ce n'est pas prêt de s'arrêter si les gens continuent à payer le prix fort chaque CG et à se faire complètement aveugler par leur marketing.
Bonne analyse et effectivement le point fort de NVIDIA outre le hardware a toujours été le software (même s'ils sont moins orientés "open source" qu'AMD, d'où le f*ing finger d'un certain Linus T.)... et que c'est aussi la plus grande faiblesse d'AMD. Il y a aussi une brique qu'nVidia possède qui manque à AMD, c'est celle obtenue via l'acquisition de Mellanox pour tout ce qui touche à l'interconnexion à très haute vitesse et qui est indispensable aussi bien dans le serveur même que pour connecter les serveurs entre eux dans le datacenter. S'offrir Melllanox était un coup de maître de la part de NVIDIA pour concevoir sa plateforme DGX. Toutefois NVIDIA dépend d'Intel et de ses Xeon pour la partie CPU. Alors qu'AMD a des CPUs EPYC qui font parfaitement le job. Mais la demande en CPUs est bien inférieure à celle des GPUs dans ces serveurs orientés "IA".
alors oui je suis pas mal d'accord, cela dit NVidia privilégie des AMD en proc sur ses platformes non SXM car AMD a plus de PCIe lanes sur les proc AMD, ne nous voilons pas la face les proc AMD sont une tuerie, un nombre de threads impressionnant et un nombre de PCIe lane de fou permettant une super bande passante vers les slots PCIe lors que l'on est pas en SXM.
non Nvidia n'est pas la plus grande entreprise du monde, c'est simplement celle qui est la plus valorisée en bourse. Walmart 1er en terme d'effectif et en terme de chiffre d'affaire (10x celui de Nvidia)
Mais.... On s'en fout du CA et du nombre d'effectif. Une boîte qui fais 10milliard de CA, mais 90% de marge chaque année avec 5 effectif vaut plus qu'une autre qui fait 50milliard de CA, emploi 1000 personnes mais ne fait que 5% de marge. C'est juste... Logique Je vais pas acheter un tracteur si j'ai besoin d'une voiture pour aller travailler o_O
@@ノヨイチ j'entends que vous pensez que votre critère est le seul logique... c'est pour cela qu'il y en a au moins 3 dans le monde, parce que les autres pensent que leur critère est le seul logique :) perso la capitalisation boursière, c'est un chiffre qui représente l'opinion des acheteurs sur l'avenir (est-ce que demain tel entreprise produira tel bénéfice). c'est pas un avis sur le présent. la bourse anticipe. donc Nvidia pourrait être l'entreprise la + rentable selon le marché... c'est pas nécessairement le cas ajd
@@slmbrt7188 A priori, les fonctionnalités de ROCm tournent sous Linux avant de tourner sous Windows (où l'implémentation est incomplète pour l'instant me semble-t-il, mais les choses bougent très vite donc j'ai peut-être raté une release)
Wow Wow du calme !!! Va voire mon gros commentaire... Je résume : il reste encore la grosse brique MiOpen pour faire fonctionner Pytorche (donc les IA) sous rocm en windows. Seulement 2 codeurs (débutant) ont été détacher dessus depuis 2 semaines. (Je suis l'histoire au jour le jour depuis +1ans, je suis un détraquer ^^) C'est pas une blague, c'est open source va voire le sujet, les discutions sont très amusante et le code est afficher en claire et ils cherche n'importe qui capable de les aider. Ils sont 15 employer AMD a travailler sur Rocm. Sauf qu'il faut coder sa en assembleur, en language machine. Les codeur sont donc des archimage de l'informatique, c'est pas n'importe qui. Ils ont la capacité de répondre "non j'ait du travaille plus important a faire ailleurs" au PDG en AMD en personne. (le fil de discutions publique est hilarant XD)
@@slmbrt7188 Pour linux ? ... AMD marche depuis environ 1 ans et demis. Sa marche très bien, sa fait tout. Les gros serveur font tout sous linux depuis toujours de toute façon.
La betise humaine est surtout celle des gamers au final. Toutes les CG Nvidia ne sont valable qu'avec leurs softwares, en puissance pure et rasterisation, à prix egal ou inferieur, AMD est devant. Seule la 4090 a ete presque inateniable, mais la 7900XTX OC l'a rattrapée rapidement, moyennant beaucoup de boulot en aval. Les gamers Nvidia ont juste payé des softwares...rien de plus. Et c'est là la strat, ils proposent des cartes moyennes, a prix fort, pour du DLSS et du RTX. On a tous essayé les Nvidia sans ces bequilles software, elles ne valent pas du tout leurs tarifs. Je resterai AMD pour un bon moment, et pour les proco, et pour les GPU.
Ces crétins depuis 8 ans auraient dû focus sur les apu, pour remplacer le bas de game des gpu, pour se spécialiser dans l'itx. Quand on voit l'offre mobile ultra chère, laissée à des requins comme asus, normal qu'ils ne décollent pas.
Ils se retirent pas du tous, ils sont coincé avec le peut de place chez TSMC et donc comme nvidia (car oui ca reste une entreprise qui dois faire de l'argent) ils favorisent les gpu pro, serveur et ia et donc sacrifient le heut de gamme qui représente quedal en part de marché et c'est idem chez nvidia d'ailleur.
@@camaradeKC Tu as une source? Parce que personnellement je n'ai pas entendu ça, j'ai entendu qu'ils comptaient ne pas proposer de haut de gamme/très haut de gamme sur RDNA4 parce que leur die high-end Navi 41 avec des chiplets n'était pas suffisament stable. Ils auraient finalement deux autres dies monolithiques (Navi 44 et Navi 48) avec le plus haut de gamme aux alentours des 500/600 euro pour des perfs équivalentes (à plus ou moins 5-10%) à une RTX 4080 Super/ RX 7900 XTX avec un boost de perf en ray-tracing. En gros ils comptent faire comme ce qu'ils avaient fait sur la génération RX 400/ RX 500 (Polaris): garder les perf du haut de gamme de la génération précédente en réduisant la consommation et le coût. Mais je n'ai vu nulle part qu'ils se retiraient définitivement du haut de gamme (y compris sur RDNA 5 et RDNA 6).
Très intéressant intéressant, depuis que j’attend des concurrents de nvidia pour le secteur de l’ia , ( d’ailleurs je cherche toujours), Je vais me pencher sur le dossier amd. Je veux pas rater, celui qui leurs feras réellement concurrence pour les 20 prochaines années dans ce secteur .
En tant qu'utilisateur basique, j'ai toujours apprécié Nvidia pour la disponibilité de ses drivers sans bugs quelque soit la marque de la carte graphique. Ce n'est pas le cas d'AMD avec ses pilotes compliqués et foireux.
Le début est assez mal expliqué. Cuda a été un énorme travail pour permettre de programmer sérieusement sur carte graphique, bien avant l'IA qui s'en est emparée plus tard simplement parce que c'était là et que ça marchait très bien. Il ne faut pas tout voir sous l'aspect vilains très gros qui font du fric, non plus, leur solution était visionnaire.
C’est un extrait d’un live twitch où j’explique effectivement que nvidia ont été les premiers à faire du GPGPU et donc à avoir amener la démocratisation des calculs matriciels sur les GPU mais ça a été coupé sur ces extraits
J ai jamais acheté NVIDIA parce que je préfère la puissance brute que les technologies mais maintenant que je sais ça, j ai pas du tout envie de leur donner le moindre euros
Moi je suis reste chez amd , pour le prix et se que Je fais avec . Gaming. , toujours mon fenom avec 380 ati 6go et pc portable serie 7 avec 6800 ryzen et 3060 cher les vert . Grr
La base de la gestion c'est d'avoir plusieurs fournisseurs pour gérer les risques de défaillance (lois, faille matérielle, et.). Donc évidemment que c'est chiant les monopoles.
@@kabacheouiza3566 Pourtant des espèces naissent, s'épanouissent, parfois explosent et envahissent leur milieu, avant de s'éteindre ou de revenir à l'équilibre. La compétition comme son absence sont des phénomènes parfaitement naturels.
En fait tout a commencé avec la 9700 GTS 384 Mo et cuda. OpenCL se contentant de suivre de loin, et les outils basés sur cuda ayant littéralement envahi l'espace, sans concurrence réelle. Les architectures de l'époque d'AMD n'étaient d'ailleurs pas matériellement compétitives pour du GPGPU, un énorme handicap.
Quel intervenant! Impressionnant par son élocution et sa connaissance
Oui sympa
Super intéressant oui, bien c'est un professionnel du domaine, selon toute évidence !
Très bonne vulgarisation de la part de l’intervenant, merci !
Quel est le nom de l'intervenant ? Merci.
@@SoftYoda c'est Jean-Louis Queguiner, le CEO de l'entreprise Gladia. Un mec absolument brillant. C'est un peu un Jancovici de l'IA ❤ et il devrait plutôt bosser pour le ministère de l'économie plutôt que pour sa propre boîte.
vulgarisation!!?tu dis...désolé mais il parle quelle langue ?
@@maanzi2.5d33c'est un terme générique regardez dans le dictionnaire il n'y a pas de honte 😉
@@yvangascogne j'veux dire qu'on ne comprends presque rien a ce qu'il dit malgré la vulgarisation ...les journalistes ont du mal a suivre aussi...programmation + economie+informatique +geopolitique des marchés ...vu par un cio guik ....😓
Lui il connait son sujet et sait le rendre passionnant !
Bravo et merci pour la vulgarisation d'un domaine aussi pointu 👌
Cette émission continue de s'améliorer ! Les intervenants sont à chaque fois passionnants ! 👍👍👍
Intervenant très intéressant et il à l'air très compétent dans son domaine
Justement non. Il dit absolument N'IMPORTE QUOI à propos du prétendu minerais de silicium qui se trouverait surtout en Chine ! Le silicium est le seul constituant du quartz avec l'oxygène et il y en a partout sur Terre ! 😄 C'est en fait le constituant du sable blanc pur... Et ce n'est que le cas le plus simple car la moitié des minéraux terrestres sont des silicates... Les autres éléments des puces sont des éléments dopants : phosphore et bore, deux éléments aussi extrêmement abondants sur Terre ! Les borosilicates contiennent même du bore et du silicium, par exemple la tourmaline. Enfin bref...
@@yannduchnockÇa arrive de se tromper !
@@yannduchnock Il est pas minéralogiste non plus. Sur la partie purement IA / Hardware, il est bon
@@yannduchnock Il ne se trouve pas surtout en Chine, mais la Chine et Taiwan sont les deux principaux fabricants de puce, donc leur approvisionnement et la fabrication dépend de ces deux pays. C'est ça qu'il a dit.
@@yannduchnock Il est pas géologue non plus. Ca reste un fait que la chine est le plus gros producteur de silicium
L'invité est impressionnant ! Il arrive à très bien vulgariser les aspects économiques et informatiques.
L'interviewé connaît son sujet. Un as. Ça fait plaisir.
Un bel invité techniquement au point. Ca fait plaisir. Merci pour la vidéo
Super sujet. Excellent invité, très clair et pédagogique. Merci.
tres tres fort l'intervenant, j'ai vraiment apprecie sa facon de vulgariser et ses analogies. dommage qu'on ait pas parle un peu plus de l'open-source (quand on lui a demande la question sur les alternative de CUDA par exemple, il y a OpenCL, etc..) et de la mise d'AMD dessus
Il y a aussi oneapi que je n'ai pas mentionné. qui était la promesse de l'unification du framework de compilation graph au dessus de n'importe quel hardware. mais Triton de Openai semble être celui qui gagnera la bataille !
J'espérais qu'un jour, ceci soit dit et j'en suis heureux. Bravo pour la maîtrise du sujet, de son accessibilité. Il est bon de démontrer ces vols manifestes. Bravo à l'équipe et à l'intervenant de ce jour.
Le gars interviewé est très bon, merci à vous 3 !
Quand ce monsieur parle on l'écoute , c'était très intéressant merci pour la vidéo.
Vous avez de superbes invités, continuez comme ca ! Merci pour votre taff
Je pourrai l'écouter pendant des heures parler... Merci de rendre ces sujets compréhensible au plus grand nombre 🤗
faites pareil avec qualcomm... de vraie requin sans scrupules, brevet royalities etc
je connais bcp moins le sujet
@@jean-louisqueguiner2857Bahh si ça sort tu verras qu'nvidia a coté c'est le petit frère 😂
Déjà dispo sur la chaîne
@@philow4021 vais chercher merci
déja évoqué dans les vidéos sur VLC
Très bon intervenant. Je rajoute un détail étant un cochon sur programmation GPU en recherche, Nvidia balance énormément de publications scientifiques là ou AMD a lâché....
un modèle proche de la pomme : on maitrise du matériel jusque au API de haut niveau sans discontinuité!
les derniers models de Nvidia sont oufs.
Les whitepapers permettent d'asseoir une certaine expertise et notoriété sur ces sujets complexes.
@@jean-louisqueguiner2857 Pas si ouf puisque les AMD font mieux à chaque fois pour 3 fois moins cher, moins de conso et moins de chauffe. En revanche pour la partie software AMD en ont moins pour le moment et c'est ca qui fait que.
@@RSDGDriftTeam88très drôle.
J'avoue que pour une fois les explications sont plud compliquée, je vais faire mes recherches du coup.
Mais l'intervenant a quand meme reussir a me faire piger les bades, il est génial comme la video !
Le titre de la video peut s'appliquer à quasi toutes les grosses boîtes de la tech
Le pire étant Apple
@@lewthemustard C'est pas hyper fair-play de comparer avec Satan directement...
Tellement 😅
@@lewthemustard Pas d'accord et pourtant je suis loin d'être un défenseur de la pomme !
Les pires sont Broadcom (leur système de brevet ou le comportement après le rachat de VMWare...), Oracle avec des pratiques ubuesques (l'utilisation d'un client Java nécessite d'avoir une licence pour l'ensemble du parc, idem pour les Databases Orables en environnement virtuel...), SAP n'est pas mal non plus... et que dire de Microsoft avec son environnement 365...
C’est clair, j’ai failli pas regarder à cause du titre alors qu’en fait c’était plutôt intéressant. C’est pas une mafia c’est juste du business. À un moment donné le putaclic ça peut freiner…
Enfin un intervenant qui sait s’exprimer correctement, ca change des « hackers »
Un peu d'anglicisme mais je suppose que c'est inévitable dans ce genre de sujet...
@@ClovisReimsNon, on peut dire pilote et cadriciel
Super invité, et super vídeo qui en découle, merci !
On parle de Nvidia qui réserve en priorité chez TSMC, vous oubliez Apple c'est le plus gros client de TSMC et c'est lui qui prend une grosse partie de la capacité de production de TSMC.
Faut pas oublier qu'AMD a racheté ATI,il 'y a pas si longtemps que ça et que le logiciel n'étais pas leur priorité.
Nvidia au contraire ayant racheté 3DFx et SGI... Ils ont un bureau de développement assez exceptionnel. CUDA c'est bien mais il existe des solutions alternatives et NVIDIA joie de sa position dominante pour ralentir le progrès du marché. Les cartes AMD sont réputés être plus puissantes depuis fort longtemps
Il y a des gens qui donnte l'impressionn d'être intelligent rien qu'en les écoutant (pouce levé)
Je ne pense pas que ce soit qu'une impression 😊
La différence: CUDA : 2007. ROCm: 2016... OpenAPI (2020) qui a finalement intégré du CUDA... En gros, c'est pas une stratégie diabolique quand tu es le premier et le seul qui, pendant 10 ans, développe une technologie...
100% aligne ce sont des visionnaires et gros investisseurs sur le soft nvidia sont des monstres de stratégie
J utilise les fonctions cuda ( avec une division par 30 de mes rendering) depuis 2009. Donc ça fair 15 ans qu avec 3 petits tweaks ça marche d enfer. Cuda a tout changé.
Vidéo hyper intéressante ! Mais qu'est-ce que c'est bien expliqué. Vraiment un régal. Merci a toute l'équipe
Avant le boom de l'IA, il y avait déjà une tension aussi avec les stocks des cartes graphiques qui étaient siphonnés par les fermes de minage de cryptomonnaies au grand dam des hardcore gamers. Bien entendu avec l'iA, le marché a été décuplé et notamment les GPU spécialisés (A100, H100…) qui ne sont plus du tout accessible aux gamers.
Super intéressant, un intervenant qui maitrise bien son sujet. Du coup on en redemande.
« au jour d’aujourd’hui » tu n’as pas le droit Micode !
ps : refair sur ce sujet, y a bcp a dire, super intervenant, super vidéo merci !!
Un intervenant qui d'une part connait un minimum le sujet mais qui surtout sait le transmettre et le vulgariser ! Pour ça bravo !
je m'aligne avec tous les autres commentaires, l'intervenant était vraiment incroyable. bravo à lui
Je commente rarement mais cette vidéo est très haute qualité!
Vidéo géniale et intéressante ! Continue comme ça Micode :D
Au moment ou j'écris Nvidia vient de perdre 430 milliards de dollars en 3 jours mais est en train de rebondir... Tout cela reste tout de même très instable.
Normal les Investisseurs se chient dessus des qu’il y a une annonce.
Bouuuh ça fait peur, évidemment que les marchés financiers sont volatiles
Ils perdent rien hein. Le montant de leur capitalisation diminue. C'est pas une perte d'exploitation.
-10% après un +200% en 1 an ça fait pas vraiment peur
Forcément, NVIDIA a été survalorisée . Je ne connais pas le ratio mais on doit être supérieur à X17 le CA.
Hehe je le savais que le calcul de teraflops de NIVIDIA depuis la génération RTX 3000 ne tournait pas rond 😮
tu peux toujours regarder la puissance FP32, c'est un très bon indicateur de puissance brut
@@drak0x6 ben non justement. Tu n'as rien compris !
Ben non tu calcule pas la puissance de moteur au nombre de sorties de pot , une 2 chevaux avec 6 sorties de pot aura toujours que de chevaux en puissance @@drak0x6
C'est même le cas depuis la génération des RTX 2000 via l'archi Turing et la mise en marche des Tensor cores
(exemple entre la 1080 vs 2060 qui perfs de manière égale au global mais BIZAREMENT en half FP16 on passe de 138.6 GFLOPS pour la 1080 à 12.90 TFLOPS pour la 2060 donc un facteur de littéralement X100 ce qui est ABSURDE)
mais c'est encore plus le cas depuis les RTX 3000 et 4000 et la mise en place de l'ensemble de leurs unités de calculs additionnelles pour simplifier encore plus la conversion de 2XFP16 en résultat "équivalence" FP32
(exemple la RTX 3080ti est en moyenne que 50 à 60% plus perf que la RTX 2080ti mais la encore BIZAREMENT on passe de 13.45 TFLOPS en FP32 à 34.10 TFLOPS donc X2,5 plus puissante selon la nouvelle mesure Bullshit de Nvidia) ,
d'après mon ressentit il faut plus ou moins diviser la valeur indiquée en TFlops FP32 par 2 à 2.2 pour retrouver une équivalence logique entre les gaps générationnelle.
En gros c'est devenu du n'importe quoi chez Nvidia et "limite" de la dissimulation à peine cachée des informations pour les personnes ayant besoin de perfs concrètes.
@@On-en-a-Gros l'on se base généralement sur les valeurs FP32 et non FP16, au sujet de la puissance de calcul des GPUs. Donc exit ces références. Mais même en FP32 ça ne tourne pas rond et ce depuis les générations 3000. Il n'y a qu'à voir les valeurs : on passe d'une titan rtx à 16tflops à une 3090 à....35 tflops. C'est du jamais vu dans l'histoire des gpus d'avoir un gap aussi important, pour une gravure moins de 2fois plus petite. Alors que de l'autre côté (chez AMD, vous avez une 6900xt, plus puissante qu'une 3090 en terme de puissance brute, mais avec des données plus cohérentes (23 tflops). Les calculs ne sont pas les même, ON NE PEUT PAS/PLUS S'Y FIER !
Cette vidéo est d'utilité public et devrait être plus largement partagée auprès de la population de particuliers qui ne jurent que par Nvidia faisant ainsi leur fortune.
Les mêmes commentaires pouvant s'appliquer à Microsoft.
Cela serait intéressant que vous fessiez une épisode sur le fait que les portefeuilles des gens sont probablement en danger avec la venu des ordinateurs quantiques.
mdr qu'est-ce que tu racontes toi XD
@@erictitor j’ai très probablement beaucoup plus étudié que toi la mécanique quantique. Mais là n’est pas la question, avoir un BEP brouette te limite visiblement. Pauvre de toi.
Merci l’équipe underscore
C'est le genre de mec t'as tellement envie d'être son collègue !
Un excellent narrateur 😮
L'intervenant est incroyable !
Super intervenant, très clair malgré la complexité du sujet !
Super fascinant. Je comprends rien, mais j'adore. :-)
Excellent !
Continuez comme ça !!
Tres bonne émission merci.
Super vidéo ! Probablement que ce commentaire va se perdre dans le néant, mais vous saviez que "Jensen Huang (patron Nvidia) a un lien de parenté avec Lisa Su, la PDG d'AMD. La mère de Huang est la plus jeune sœur du grand-père maternel de Su, ce qui en fait des cousins." (wiki) Du coup vous pensez pas qu'ils sont de mèche pour avoir le monopole a tout les étages à eux 2, en faisant croire qu'ils sont concurrents ?
Il est incroyable cet intervenant !
Bravo pour la vidéo sinon les vacances avaient l'air bien vu le bronzage 👍😋
vraiment sympa la video ❤
putain la meilleure explication pour vieux ingé deconnecté du numerique que j ai vu merci merci merci !!!
Marrant quand j'entends parler des solution soft d'AMD et Nvidia qui sont là en sum-sum en attendant que l'une soit captée et amplifiée par la communauté, ça me fait penser aux souches virales qui sont présentes et qui attendent leur heures pour être LA (ou les) souches de la saison. Dès que l'une a réussi à contaminer une masse critique de personnes, elle est en tendance et c'est elle qui finit sur-représentée par rapport aux autres x)
Bon après quand on y réfléchit 2 min, c'est normal c'est le même phénomène puisqu'il s'agit de rendre populaire quelque chose dans la population et que pour ça c'est le partage par proximité de personnes ou de communauté qui sera toujours le moteur #1
Wow j'ai rien compris mais ça a l'air intéressant
nVidia est devenu le Silicon Graphics des années 90.
Silicon Graphics n'est plus de ce monde (😉) mais a laissé un patrimoine software OpenGL qui reste les fondations d'un édifice chapoté voir pillé par Microsoft/DirextX/nVidia.
nVidia a toujours orienté DirectX avec ses shaders/tesslation et j'en passe.
D'autres avaient des unités de tesselation bien avant l'heure (truform AMD sur leur excellent R200) ou encore des "GPU" programmables (Rendition Vérité).
J'ai bien peur qu'ils subissent le même sort que SGI malgré leur annonce fracassante, ça fera pas illusion longtemps les autres marque de CPU et GPU suivent des stratégies différentes plus proche d'architecture ARM le marché des devices mobile est très concurrentiel, NVIDIA choisie l'élitisme technologique notamment avec leur solutions pro pour les calculs d'IA mais à un moment donné il y aura des petits malins qui feront mieux et moin chère...
T’es bien bronzé mon micode, c’est ton écran d’ordi ou les Maldives ? On sait pas trop ahahah
😂
Clair et concis merci
Purée enfin je comprend mieux Huggingface et tout le bordel des GPUs
Mine d’or cette chaine 🙏
Super intéressant, merci pour la vidéo !
Le principal problème d'AMD a toujours été ses drivers.
Beaucoup de problèmes à ce niveau, ils n'ont jamais voulu évoluer à un niveau comparable à Nvidia.
Ils évoluent mais Nvidia va juste plus vite dans l'innovation. l'Open Source AMD ne prends pas car au final il est moins performant.
Le FSR c'est open source, c'est cool tout ça, mais le DLSS ça marche juste mieux. Et par construction il est peu probable que l'Open Source arrive à rattraper le deep learning...
@@Ilestun On est d'accord.
En soit, oui, quand la bulle IA va pop, Nvidia va retomber de très très haut, c'est clair et net.
Mais en dehors de ça, nan, je ne pense sincèrement pas qu'AMD arrivera à se hisser au niveau. C'est loin d'être la première fois qu'on est dans une situation similaire, et Nvidia finit absolument toujours par les dominer. Ça ne changera pas, ils apprennent pas.
Voici quelques-uns des clients notables de **Nvidia** :
- **Entreprises de technologie :**
- Amazon Web Services (AWS)
- Microsoft Azure
- Google Cloud Platform
- **Constructeurs automobiles :**
- Tesla
- Audi
- Toyota
- **Entreprises de jeux vidéo :**
- Sony
- Nintendo
- Electronic Arts
- **Entreprises de l'industrie de la santé :**
- GE Healthcare
- Siemens Healthineers
- **Entreprises de l'aérospatiale et de la défense :**
- Lockheed Martin
- Boeing
Ces entreprises font partie des clients importants de Nvidia dans divers secteurs tels que la technologie, l'automobile, les jeux vidéo, la santé, l'aérospatiale et la défense
Tres interessant. Merci!
Il est hyper pointu et clair en même temps !
excellent JL ! Bravo 👏
Salut Seb!❤
Merci pour la vidéo .nvidia n'a pas des problèmes en justice actuellement pour concurrence déloyale en Europe
Très bon intervenant 👍
Il faut pas sous estimer AMD. AMD malgré NVidia réussit des choses techniques exceptionnelles. Par exemple leurs SOC IA et le rachat de Xilinx qui est stratégiquement brillant.
Je développe en CUDA (C++ et Python) et j'adore Nvidia pour du DL/ML/LLM etc... Mais AMD en ce moment progresse énormément.
Complètement aligné les efforts ces 2 dernières années ont été monstrueux et ça va payer dans les 2/3 ans qui arrivent
Moi aussi je m'intéresse a CUDA. Mais pour windows et pour le moment MiOpen... Ba ils sont que 2 codeur assembleur a s'en occuper, donc va vraiment falloir attendre 3-4 ans avant que se soit compatible. Sa les intéresse pas du tout.
CF : Le fil de discutions publique Rocm.
super intéressant merci!
Super instructif 🤌
15 min c'est trop court, on en veut plus !
J'espère que ces cartes ne vont pas faire un flop.
Celle là je la vole !!!
Très bon intervenant !
Nvidia numéro 1 un jour, dernier un autre. J'ai très hâte de voir de quoi sera réservé le futur... 🔮
Numéro 1 pour toujours si les consommateurs changent pas de comportement mdr. Surtout en ce moment, l'IA représente un rapport investissement/bénéfices stratosphérique et NVIDIA s'est complètement jeté dedans ( comme beaucoup d'autres entreprises ). NVIDIA pèse actuellement plus que toutes les entreprises du CAC 40 réunies et ce n'est pas prêt de s'arrêter si les gens continuent à payer le prix fort chaque CG et à se faire complètement aveugler par leur marketing.
la 3 ieme guerre mondiale a commencé donc le futur pue du cul
Mdr NVIDIA est N1 depuis des années hein et c'est extrêmement difficile de les concurrencé.
Bah les empires se font et se défont. Ils ont raison d'en profiter tant qu'ils sont encore au sommet.
@@AD-sg9trLes consommateurs on s'en fout royalement. Les 3/4 du chiffre d'affaires c'est les pro, comme évoqué dans la vidéo.
On ne devient pas un monopole en étant honnête.
Bonne analyse et effectivement le point fort de NVIDIA outre le hardware a toujours été le software (même s'ils sont moins orientés "open source" qu'AMD, d'où le f*ing finger d'un certain Linus T.)... et que c'est aussi la plus grande faiblesse d'AMD.
Il y a aussi une brique qu'nVidia possède qui manque à AMD, c'est celle obtenue via l'acquisition de Mellanox pour tout ce qui touche à l'interconnexion à très haute vitesse et qui est indispensable aussi bien dans le serveur même que pour connecter les serveurs entre eux dans le datacenter. S'offrir Melllanox était un coup de maître de la part de NVIDIA pour concevoir sa plateforme DGX.
Toutefois NVIDIA dépend d'Intel et de ses Xeon pour la partie CPU. Alors qu'AMD a des CPUs EPYC qui font parfaitement le job. Mais la demande en CPUs est bien inférieure à celle des GPUs dans ces serveurs orientés "IA".
alors oui je suis pas mal d'accord, cela dit NVidia privilégie des AMD en proc sur ses platformes non SXM car AMD a plus de PCIe lanes sur les proc AMD, ne nous voilons pas la face les proc AMD sont une tuerie, un nombre de threads impressionnant et un nombre de PCIe lane de fou permettant une super bande passante vers les slots PCIe lors que l'on est pas en SXM.
non Nvidia n'est pas la plus grande entreprise du monde, c'est simplement celle qui est la plus valorisée en bourse.
Walmart 1er en terme d'effectif et en terme de chiffre d'affaire (10x celui de Nvidia)
Mais.... On s'en fout du CA et du nombre d'effectif.
Une boîte qui fais 10milliard de CA, mais 90% de marge chaque année avec 5 effectif vaut plus qu'une autre qui fait 50milliard de CA, emploi 1000 personnes mais ne fait que 5% de marge.
C'est juste... Logique
Je vais pas acheter un tracteur si j'ai besoin d'une voiture pour aller travailler o_O
@@ノヨイチ j'entends que vous pensez que votre critère est le seul logique... c'est pour cela qu'il y en a au moins 3 dans le monde, parce que les autres pensent que leur critère est le seul logique :)
perso la capitalisation boursière, c'est un chiffre qui représente l'opinion des acheteurs sur l'avenir (est-ce que demain tel entreprise produira tel bénéfice). c'est pas un avis sur le présent. la bourse anticipe. donc Nvidia pourrait être l'entreprise la + rentable selon le marché... c'est pas nécessairement le cas ajd
La dernière version de ROCm permet de tourner sur Windows avec WSL. Mon prochain GPU sera AMD !
T’as des infos pour Linux ?
@@slmbrt7188 a priori c'est en train d'arriver ca pousse fort chez AMD
@@slmbrt7188 A priori, les fonctionnalités de ROCm tournent sous Linux avant de tourner sous Windows (où l'implémentation est incomplète pour l'instant me semble-t-il, mais les choses bougent très vite donc j'ai peut-être raté une release)
Wow Wow du calme !!!
Va voire mon gros commentaire...
Je résume : il reste encore la grosse brique MiOpen pour faire fonctionner Pytorche (donc les IA) sous rocm en windows.
Seulement 2 codeurs (débutant) ont été détacher dessus depuis 2 semaines. (Je suis l'histoire au jour le jour depuis +1ans, je suis un détraquer ^^)
C'est pas une blague, c'est open source va voire le sujet, les discutions sont très amusante et le code est afficher en claire et ils cherche n'importe qui capable de les aider.
Ils sont 15 employer AMD a travailler sur Rocm. Sauf qu'il faut coder sa en assembleur, en language machine.
Les codeur sont donc des archimage de l'informatique, c'est pas n'importe qui. Ils ont la capacité de répondre "non j'ait du travaille plus important a faire ailleurs" au PDG en AMD en personne. (le fil de discutions publique est hilarant XD)
@@slmbrt7188 Pour linux ? ... AMD marche depuis environ 1 ans et demis.
Sa marche très bien, sa fait tout.
Les gros serveur font tout sous linux depuis toujours de toute façon.
La betise humaine est surtout celle des gamers au final. Toutes les CG Nvidia ne sont valable qu'avec leurs softwares, en puissance pure et rasterisation, à prix egal ou inferieur, AMD est devant. Seule la 4090 a ete presque inateniable, mais la 7900XTX OC l'a rattrapée rapidement, moyennant beaucoup de boulot en aval.
Les gamers Nvidia ont juste payé des softwares...rien de plus. Et c'est là la strat, ils proposent des cartes moyennes, a prix fort, pour du DLSS et du RTX. On a tous essayé les Nvidia sans ces bequilles software, elles ne valent pas du tout leurs tarifs.
Je resterai AMD pour un bon moment, et pour les proco, et pour les GPU.
AMD se retire progressivement du marché haut de gamme des GPU pour se spécialisé dans le moyen et l'entré de gamme d'ailleurs
Ces crétins depuis 8 ans auraient dû focus sur les apu, pour remplacer le bas de game des gpu, pour se spécialiser dans l'itx. Quand on voit l'offre mobile ultra chère, laissée à des requins comme asus, normal qu'ils ne décollent pas.
Ils se retirent pas du tous, ils sont coincé avec le peut de place chez TSMC et donc comme nvidia (car oui ca reste une entreprise qui dois faire de l'argent) ils favorisent les gpu pro, serveur et ia et donc sacrifient le heut de gamme qui représente quedal en part de marché et c'est idem chez nvidia d'ailleur.
@@RSDGDriftTeam88 ils ont annoncé qu'ils ne produiront plus de carte graphique haut de gamme (pour le gaming)
@@camaradeKC Tu as une source? Parce que personnellement je n'ai pas entendu ça, j'ai entendu qu'ils comptaient ne pas proposer de haut de gamme/très haut de gamme sur RDNA4 parce que leur die high-end Navi 41 avec des chiplets n'était pas suffisament stable. Ils auraient finalement deux autres dies monolithiques (Navi 44 et Navi 48) avec le plus haut de gamme aux alentours des 500/600 euro pour des perfs équivalentes (à plus ou moins 5-10%) à une RTX 4080 Super/ RX 7900 XTX avec un boost de perf en ray-tracing. En gros ils comptent faire comme ce qu'ils avaient fait sur la génération RX 400/ RX 500 (Polaris): garder les perf du haut de gamme de la génération précédente en réduisant la consommation et le coût. Mais je n'ai vu nulle part qu'ils se retiraient définitivement du haut de gamme (y compris sur RDNA 5 et RDNA 6).
@@benjib2691 maintenant que tu le dis c'est vrai que je me souviens plus ou est ce que je l'ai vu. Donc meh pas fiable en fait
Cher Ami, la plus grosse source de ces "mineraux" c'est au Congo.
Brillantissime merci
Passionnant merci
Excellente vidéo !
A oui la faute au covid absolument pas aux scalpers qui acheté des conteneur entier hein ...
Très intéressant intéressant, depuis que j’attend des concurrents de nvidia pour le secteur de l’ia , ( d’ailleurs je cherche toujours),
Je vais me pencher sur le dossier amd.
Je veux pas rater, celui qui leurs feras réellement concurrence pour les 20 prochaines années dans ce secteur .
Ce qui n'est pas dit c'est que amd ne propose pas un stack (hardware + driver) stable à l'heure actuelle. C'est pourquoi ils ne sont pas sur MLPerf
C'est dis de le début de l'interview...
Champion, il faut mieux suivre en classe.
Passionnant
La façon dont l'intervenant explique les choses est telle qu'un enfant de 10 ans pourrait comprendre."
superbe vidéo
En tant qu'utilisateur basique, j'ai toujours apprécié Nvidia pour la disponibilité de ses drivers sans bugs quelque soit la marque de la carte graphique.
Ce n'est pas le cas d'AMD avec ses pilotes compliqués et foireux.
Donc il faut vendre ses actions Nvidia d'ici à 2 ans avant la chute ? C'est ça qu'il faut comprendre ?
Non, ça va continuer à monter, j'ai même envie de dire,quand ça chute, acheté 😂
en vrai merci pour les titres, c'est bien mieux ^^
On fait pas d'omelettes sans casser des oeuf
C’est une dinguerie cette vidéo. Je suis amoureux.
Le début est assez mal expliqué. Cuda a été un énorme travail pour permettre de programmer sérieusement sur carte graphique, bien avant l'IA qui s'en est emparée plus tard simplement parce que c'était là et que ça marchait très bien. Il ne faut pas tout voir sous l'aspect vilains très gros qui font du fric, non plus, leur solution était visionnaire.
C’est un extrait d’un live twitch où j’explique effectivement que nvidia ont été les premiers à faire du GPGPU et donc à avoir amener la démocratisation des calculs matriciels sur les GPU mais ça a été coupé sur ces extraits
@@jean-louisqueguiner2857 merci de la précision
J ai jamais acheté NVIDIA parce que je préfère la puissance brute que les technologies mais maintenant que je sais ça, j ai pas du tout envie de leur donner le moindre euros
Moi je suis reste chez amd , pour le prix et se que
Je fais avec . Gaming. , toujours mon fenom avec 380 ati 6go et pc portable serie 7 avec 6800 ryzen et 3060 cher les vert . Grr
La base de la gestion c'est d'avoir plusieurs fournisseurs pour gérer les risques de défaillance (lois, faille matérielle, et.). Donc évidemment que c'est chiant les monopoles.
la nature a horreur du monopole
Alors pourquoi en créé-t-elle ?
@@Specoups c'est notreoeuvreca.. somme people think greed is good
@@kabacheouiza3566 Pourtant des espèces naissent, s'épanouissent, parfois explosent et envahissent leur milieu, avant de s'éteindre ou de revenir à l'équilibre. La compétition comme son absence sont des phénomènes parfaitement naturels.
@@Specoups les plus forts nesont pas toujours tres grands
En fait tout a commencé avec la 9700 GTS 384 Mo et cuda.
OpenCL se contentant de suivre de loin, et les outils basés sur cuda ayant littéralement envahi l'espace, sans concurrence réelle.
Les architectures de l'époque d'AMD n'étaient d'ailleurs pas matériellement compétitives pour du GPGPU, un énorme handicap.
Génial !