Comment Apple a détruit Intel ?

Поділитися
Вставка
  • Опубліковано 2 жов 2024
  • linux vs unix • Linux n'est pas Unix !...

КОМЕНТАРІ • 777

  • @trash
    @trash 3 роки тому +889

    Des fois les suggestions UA-cam elles font découvrir des pépites

    • @abdinemaiga2994
      @abdinemaiga2994 3 роки тому +5

      Trasheur 😄😄😄

    • @elrisitas6487
      @elrisitas6487 3 роки тому +24

      Je quitte trash

    • @Ddbg774
      @Ddbg774 3 роки тому +1

      Heuuuuuuuuuu stp Trash debunk ce qu'il dit mes oreilles saignent 😭😭

    • @what4401
      @what4401 3 роки тому +1

      C’est donc grace un peu à vous que j’ai trouvé cette vidéo

    • @christophekatanga8910
      @christophekatanga8910 3 роки тому +2

      Grave de ouf

  • @Micode
    @Micode 3 роки тому +654

    Quelle masterclass

    • @cocadmin
      @cocadmin  3 роки тому +63

      Omg une STAR dans les commentaires !!🌟 🌟 🌟

    • @pal-1855
      @pal-1855 3 роки тому +8

      @cocadmin Non, franchement bon bouleau, je viens de découvrir cette chaîne, c’est super intéressant ! Continue cocadmin !

    • @NEATHOFF
      @NEATHOFF 3 роки тому +10

      Un Micode sauvage apparaît

    • @pal-1855
      @pal-1855 3 роки тому +1

      @@NEATHOFF pas mal 🤣

    • @retrox4923
      @retrox4923 3 роки тому

      @@cocadmin frère y a que des stars dans tes commentaires

  • @AngelDarthNet
    @AngelDarthNet 3 роки тому +79

    Apple a co-develloper le PowerPC(Risc) avec IBM qui est un dérivé du Power(Risc) d'IBM , apres les Ax (Risc) de Arm , donc ils sont loin d 'etres totalement debutant dans le Risc

    • @Christian-hr7sq
      @Christian-hr7sq 3 роки тому +5

      Avec IBM et Motorola...
      Le passage sous Intel a été fait car IBM arrêtait le PowerPC (fabrication et développement) seul Motorola continuait et ne pouvait pas fournir Apple.

    • @freddawin5347
      @freddawin5347 3 роки тому +4

      @@Christian-hr7sq eh oui, le monde des affaires ... les PowerPC etait déjà plus puissant qu'Intel à l'époque, au vu des part de marché d'Apple, ca ne pouvait pas continuer dans ce sens ...

    • @Cardinal2Richelieu
      @Cardinal2Richelieu 3 роки тому +2

      Et c’était vraiment triste qu’Apple abandonne les processeurs Risc. A l’époque cela m’avait attristé, car le x86 est vieux depuis longtemps déjà 😜. Leurs dettes technologiques est énorme aujourd’hui. Seul un acteur contrôlant toute la ligne (processeur / matériel en général / système d’exploitation / API de développement ) comme Apple pouvait tout revoir enfin ! En tous cas cela fait du bien, merci la pomme.

    • @Chris-in-Asia
      @Chris-in-Asia 3 роки тому +4

      @@freddawin5347 Le PowerPC était dépassé par les puces d'intel, car IBM ne voulait pas investir seul dans le développement d'une nouvelle génération. Ils ont proposé à Steve Jobs d'investir avec eux, mais il a refusé.

    • @Chris-in-Asia
      @Chris-in-Asia 3 роки тому +1

      @@Christian-hr7sq Non, Motorola avait arrêté depuis longtemps. Motorola semi conducteur n'existait d'ailleur déjà plus à cette époque, ils avait revendu à Freescale. IBM ne voulait pas investir seul dans une nouvelle génération de puces. L'ancienne génération devenait obsolète et ils ont demandé à Apple d'investir avec eux, mais ils ont refusés.

  • @ChristopheCasalegno
    @ChristopheCasalegno 3 роки тому +101

    Hello, et merci pour la vidéo. Ma petite contribution : le débat entre les architectures RISC et CISC date d'il y a bien longtemps maintenant. Chacun a des avantages et des inconvénients. Pour simplifier les architectures CISC ont des performances optimisées dans une logique "hardware", pour du RISC, les performances sont optimisées avec un focus sur le soft. Dans la pratique cela veut dire que les performances du RISC reposent sur un pari statistique de l'utilisation qui va en être fait du hardware par le logiciel.
    Les gens qui ont développé les architectures RISC sont partis des éléments statistiques qui indiquaient que 80% des programmes n'utilisaient que 20% du jeu d'instruction du CPU (oui je sais, encore le principe de Pareto...), que les instructions les plus utilisées étaient celle de chargement, de rangement et d'appel de sous-routines, que 80% des variables locales étaient des entiers et que 90% des structures complexes sont des variables globales. Enfin on avait aussi pu constater qu'on allait pas au delà de 8 niveaux d'imbrication des appels (les valeurs supérieures représentaient moins de 1% des cas rencontrés).
    De ce fait, si le programme utilisé (et Apple du coup maitrise aussi la couche logicielle de son offre) respecte ces principes : le gain est énorme. Par contre, si au lieu d'avoir principalement des entiers de différentes tailles et des nombres flottants en double ou simple précision tu te retrouves à manipuler des chaînes de caractère, des nombres complexes, des polynomes, etc. : alors les performances des processeurs RISC s'effondrent au profit du CISC.
    Du coup ce qui va faire la différence revient à la qualité et la pertinence du compilateur utilisé, puisque c'est lui qui va devoir optimiser le code en fonction de l'architecture. Plus ce dernier sera capable de trouver des stratagèmes pour "risc-er" le code, et plus il aura des chances d'être efficace sur RISC. Mais dans certains domaines, la meilleur optimisation logicielle ne peut compenser ce qui est "cablé" dans le processeur.

    • @ChristopheCasalegno
      @ChristopheCasalegno 3 роки тому +20

      Du coup je rajoute concernant ta question, non je ne pense pas que les architectures CISC ne doivent s'inquiéter de la monté des architectures RISC. Les premières machines RISC sont plus vieilles que moi, même si ça s'est vraiment popularisé au début des année 1980. Pour autant j'ai adoré des machines comme les DEC Alpha ou les stations SPARC de Sun Microsystem. Mais je crois que ces 2 architectures continueront de cohabiter encore quelques décénnies avant d'être supplantées par des architectures modulaires hybrides classiques/quantiques. A suivre :) J'ai laissé un like au passage ;)

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 роки тому

      Je vois pas l'avantage du CISC vraiment...
      Et non , le CISC n'a pas de performance "hardware" au contraire.
      Il y'a deux gros défaut du CISC :
      -Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Ce n'est pas pour rien qu'on ne fait plus de CISC depuis les années 90 ;)
      (Le x86 a continuer pour des raisons de compatibilité).

    • @ChristopheCasalegno
      @ChristopheCasalegno 3 роки тому +9

      @@yamazakikaoru9579 : Hello, désolé mais encore une fois, et à l'image du monde tout n'est pas noir ou blanc, et bien que j'ai une préférence personnelle pour les architectures RISC (le DEC Alpha était "LA" machine de mes rêves, mais à 150.000 balles, innacessible pour moi à cette époque), le CISC dispose également d'avantages indéniables qui lui sont propres : tout dépend encore une fois des opérations à effectuer.
      Si le sujet te passionne, je t'invite à consulter cette thèse publiée à l'université du Michigan en 2017 qui est un excellent point de départ sur l'impact de l'architecture sur les performances délivrées par un processeur : scholarworks.wmich.edu/masters_theses/1519/
      Excellente soirée et bonne continuation.

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 роки тому

      @@ChristopheCasalegno Je n'ai pas dit que tout est noir ou blanc , mais actuellement le CISC n'a plus aucun gros avantage .
      Je te met ici les différences :
      -Un proc RISC , c'est plus simple à faire tout en étant performant
      Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
      c'est souvent 30% de transistor en plus qu'un RISC classique (tu as un microcode directement dans le core qui doit quand même reconnaître 700 instructions et faire sa conversion), ,2-3 étage en plus pour le décode.
      Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
      -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
      Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
      Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
      -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
      Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86/CISC).
      Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
      Bref ce n'est pas pour rien qu'il n'y a plus de proc CISC actuellement ;)
      (Sauf le x86 qui est un mix des deux pour rétrocompatibilité )

    • @ikaztt85johnson83
      @ikaztt85johnson83 3 роки тому

      je n'ai pas suivi la technologie des ordinateurs, mais je suis d'accord sur le fait que l'avenir dépend de paramètres plus complexes, et aussi de rapports investissements/bénéfices,
      Intel a la technologie RISC et ne s'en sert pas trop, je ne pense pas qu'ils soient "à la ramasse" mais qu'ils attendent
      fr.wikipedia.org/wiki/DEC_Alpha

  • @elronn58
    @elronn58 3 роки тому +82

    Excellent les explications à la "C'est pas Sorcier"

    • @Tux63
      @Tux63 3 роки тому +2

      il fallait choisir entre le coca et le camion .... le choix a été vite fait 🤣😁😁

  • @philippe-lebel
    @philippe-lebel 2 роки тому +11

    Ça fait 2 jours que je découvre cette chaîne. Un futur hit pour moi. Les sujets sont passionnant, originaux et bien traité. Bravo.

  • @Wagglepuff
    @Wagglepuff 3 роки тому +124

    Tu t'es donné du mal mais ça valait le coup, c'était grave intéressant, merci pour ton contenu 👍

  • @politiquealgerie
    @politiquealgerie 3 роки тому +67

    Merci pour toutes ces informations. Très bonne chaine que je viens de découvrir

    • @ROLLSKATETROTT
      @ROLLSKATETROTT 3 роки тому +2

      tahia djazaaaiir

    • @user-bp6mz1gt5i
      @user-bp6mz1gt5i 3 роки тому +3

      @Memes Heaven oui tahia l'djazair

    • @Flow-flop
      @Flow-flop 2 роки тому

      @zakae6hdt7 :D il fais ce qui veut tu vas faire quoi?

    • @FatalBcr
      @FatalBcr 2 роки тому

      @zakae6hdt7 :D Fan d’Éric zemmour 🤷‍♂️

    • @uzgar
      @uzgar 2 роки тому +1

      kess sa fou là ?

  • @louiscordhomme45
    @louiscordhomme45 3 роки тому +22

    très bonne vidéo, je sais pas si tu compte continuer dans ce genre de format mais en tout cas j'ai trouver ca très intéressant et plutôt bien expliquer et clair.

  • @Scr3amer42
    @Scr3amer42 3 роки тому +10

    Bonne intro a l'archi processeur. Pour toi Coca et ceux qui sont interesses par ca mon professeur en ecole d'inge a l'ENSICAEN a fait des cours ouverts en ligne sur l'achitecture CPU, RISC, CISC, cache, SIMD, adressage memoire etc... Ca date de 2013 mais c'est toujours aussi pertinent. Clairement un des meilleurs cours que j'ai jamais eu de ma vie.
    www.canal-u.tv/video/centre_d_enseignement_multimedia_universitaire_c_e_m_u/architecture_et_technologie_des_ordinateurs_presentation_de_l_enseignement_et_des_ressources.12466

    • @stochelo78
      @stochelo78 3 роки тому +1

      Elles sont vraiment super ces vidéos même datant de 2013.Je les ai découvertes il y a 2 semaines. Tu as eu de la chance d'avoir ce prof parce que franchement un cours d'architecture ça sonne déjà horrible et qu'on a vite envie de lancer une série Netflix à la place. Or là j''étais scotché.
      Dommage par contre qu'il n'y ait pas de vidéos plus developpées sur le RISC. 🙂

    • @-alim-3585
      @-alim-3585 3 роки тому

      Salut, je suis actuellement indécis sur les écoles, c’est une bonne école ensicaen (elle n’est pas très bien classée je crois)?

    • @Scr3amer42
      @Scr3amer42 3 роки тому +1

      @-Alim- Avec le recul mon avis sur le classement est assez tranche.
      Les profs d'ecoles d'inge en general sont tous bons (au moins 2 de mes profs a l'ENSI sont passes par Normale par exemple et ils etaient tous des monstres dans leur domaine).
      Le probleme c'est les eleves et leur manque de motivation a etudier. Avoir un groupe de faineants ca motive pas les profs a donner cours, faut pas oublier qu'ils sont humains.
      C'est ca qui ruine la reputation d'une ecole. Si demain le top 200 des eleves decident d'integrer une "petite" ENSI elle deviendra de facto la meilleure ecole de France. Ca te donne une idee de la valeur de ce classement.
      Ce que tu gagnes avec les "grosses" parisiennes c'est un reseau et du prestige.
      Si tu comptes faire carriere en tant que cadre superieur (high executive) dans une grosse boite du CAC40 en France alors oui faire une parisienne va aider car il y a un plafond de verre a un certain niveau (DG, DF et consorts) et ne laisse que passer les X, ENS, HEC etc... Une sorte de mafia elitiste qui fonctionne a l'entraide.
      Mais je repete, ca ne sert qu'en France, que pour les grosses boites et que pour les cadres sup en management. Je suis a l'etranger et je peux te dire qu'ils s'en fichent de quelle ecole tu viens tant que t'as un diplome et que tu passes les tests de recrutements ^^.
      En resume, le classement est utile si tu veux:
      - cadre sup en management
      - dans une grosse boite francaise
      Si tu veux bosser a l'etranger, faire de le technique plus que du management ou bosser dans une PME en France ca changera rien a ta vie ^^.
      Ah oui, un autre truc cool avec les grosses ecoles est qu'elles ont un plus gros budget donc plus de trucs funs a faire. Perso je m'en fiche donc ca me manque pas.
      Si tu veux mon feedback sur l'ENSICAEN:
      - tres bons profs voire excellents
      - des cours de qualite
      - mais une majorite d'etudiants qui etaient pas chaud pour bosser (moi y compris et je le regrette, j'etais focus que sur les cours qui me plaisaient). Ca a peut etre change car ca fait bientot 10 ans que j'ai integre cette ecole.
      En retrospective, j'ai pas a me plaindre. Je voulais apprendre l'ingenierie logicielle et ils ont delivre. Je suis capable de bosser sur n'importe quelle techno car ils nous ont bien appris les bases.
      Faut juste pas oublier que ton niveau final c'est toi qui le decide. Plus tu bosses, meilleur tu seras. L'ecole a peu d'impact a ce niveau la. Tu prends un X qui fait rien vs un ENSI qui bosse 24/7, a la sortie c'est le 2eme qui sera meilleur.
      Typiquement, j'ai beau avoir fini l'ecole depuis un bail je continue de coder dans mon temps libre, m'instruire en lisant des bouquins de progs, en regardant des conferences ou autres videos lies a la prog (coucou @cocadmin :P).
      C'est un des principes de base de la vie. Plus tu pratiques X meilleur tu seras dans X. Il y a pas de miracles.

    • @-alim-3585
      @-alim-3585 3 роки тому

      @@Scr3amer42 ok merci pour ta longue réponse tu gères :)

  • @JirAWS
    @JirAWS 3 роки тому +6

    8 ans qu'on attendait la nouvelle vidéo, j'espère qu'elle va être cool
    EDIT: c'est bon on a pas attendu pour rien 🤓le budget est présent

    • @cocadmin
      @cocadmin  3 роки тому +5

      ya au moins 10$ de budget papier crayon

  • @philjustyn
    @philjustyn 3 роки тому +11

    11eme!!! wow
    et j'ai droit à un cours d'architecture des microprocesseurs.
    je suis déjà abonné!!

  • @nicolaskuntz8606
    @nicolaskuntz8606 3 роки тому +4

    Première fois que je tombe sur ta chaine, je m'attendais pas à ce style de vidéo assez technique mais c'est très appréciable et intéressant. Continues comme ça !

  • @ivymike9479
    @ivymike9479 3 роки тому +6

    La vidéo la plus claire de tout youtube. Bravo !

  • @FabriceGAUGLIN78520
    @FabriceGAUGLIN78520 3 роки тому +4

    Coucou bonjour Bonsoir Hello hi holla hallo salut salutations salma saba salome a toi et aussi a toutes perso je préfère toujours du mips, mips64, alpha, m68k, risc, risc64, powerpc, powerpc 64 restent les meilleurs notamment pour les calculs de vergule flottant contrairement à certains autre cart j'aime pas les processeur qui triche avec leur horloge en disant ooo ça va plus vite non ça restera des bus sur certains tâche comme les mathématiques scientifiques ps : il on même rajouté dans leur catalogue de AWS le Mac mini

  • @vestoz1387
    @vestoz1387 3 роки тому +1

    Pk j’ai cette vidéo que maintenant dans mes suggestions UA-cam. Quel masterclass !!

  • @MDarkus3
    @MDarkus3 3 роки тому +2

    J'aimerai si tu me le permet commenter quelques parties de la vidéo
    ARM vs Apple:
    - ARM ne fait que concevoir l'architecture, l'entreprise ne fabrique pas de chip. Elle vend des license d'utilisation de ses architecture processeur au autres compagnies, qui réutilise et intègre des fonctionalités supplémentaire par dessus l'architecture ARM on appelle celà des chip ASIC - Application-specific integrated circuit.
    - En 2011 ARM révèle sa nouvelle architecture ARMv8 basé sur une architecture 64-bit. Apple à été le premier à intégrer ce design dans leur produits: Apple A7 dans iPhone 5S. Dire donc que Apple à devancer ARM n'est pas faux en soit car ARM comme dit plus haut ne fabrique pas de processeur, seulement le design. Mais ce n'est pas leur rendre justice car ce sont eux les architectes de la technologie que ré-utilise apple.
    RISC vs CISC
    Opposé CISC & RISC n'est pas très productif car ces deux familles de processeur ont leur justification technique: les core RISC ne sont pas fondamentalement plus performent, tout dépend tu type de problème qu'on veux résoudre, un pipeline avec prédiction de branch, execution dans le désordre, parrallèlisme, etc ..., tout ce que fait fonctionner nos ordinateur Windows & Linux actuel, n'est possible qu'avec un jeux d'instruction complexe. De plus avec les nouvelles avancé technologique des mémoires ( MRAM, FRAM, PRAM, NRAM) la vitesse d'accès ne sera plus un problème et des architecture telle que CISC vont redevenir bien plus intéréssante que des RISC ou pour chaque instruction on LOAD depuis la RAM vers les registre processeur et inversement avec le WRITEBACK (store). Si le processeur devient capable d'opérrer directement depuis la RAM l'architecture RISC n'as plus grand d’intérêt. Il y à aussi des considérations énergétique mais je ne rentre pas dans le détail (où le RISC et moins énergivore que le CISC car pas de gaspillage de cycle, pour un nombre d’instruction donné).

  • @FanisMichalakis
    @FanisMichalakis 3 роки тому +7

    Merci beaucoup pour cette excellente vidéo ! Je met rarement des commentaires, mais là, chapeau !

  • @Fantasymania
    @Fantasymania 2 роки тому +3

    INTEL/AMD est bien moins cher!! et bien plus populaire/ouvert!! Comparé à l'environnement hyper fermé d'Apple. 😀

  • @panaf8702
    @panaf8702 3 роки тому +9

    Arm n'est pas le depositaire des puces Risc. Il n'ont fait que remettre au gout du jour ce qui avait ete abandonné

    • @TheSampirat
      @TheSampirat 3 роки тому +1

      Ca n'a jamais ete abandonné !

    • @CANALROBBY
      @CANALROBBY 3 роки тому

      @@TheSampirat C'est vrai ça date, j'en entendais parler il y a longtemps, je crois que les stations graphiques Silicon Graphic utilisaient ce genre de processeur il me semble.

    • @DenisMauplot
      @DenisMauplot 3 роки тому

      @@CANALROBBY il y a fort longtemps Apple avait avec IBM et Motorola fait les Puce POWER PC RISK sur les Power Mac en 1994 jusqu'en 2006 ou Apple est passé sous puces Intel

  • @pierrederaunies6565
    @pierrederaunies6565 3 роки тому +15

    Punaise Cocadmin tu m'as bluffé ! J'ai tout compris du début à la fin, merci pour les exemples avec post-it, c'était super clair.

  • @Qyoon
    @Qyoon 3 роки тому +4

    Excellent contenu , c'est travaillé , bien vulgarisé et clair.
    Vraiment une excellente, découverte.
    Du contenu de qualité, rare en Tech FR !

  • @sebastiens5013
    @sebastiens5013 3 роки тому +27

    Intel vu ce qu'ils se prennent déjà par AMD ça va être marrant. Mais je me fait pas de soucis pour AMD vu leur remontada de ces dernières années !

    • @david55200
      @david55200 3 роки тому +1

      Intel ne se force plus, ils ont marché pro à leur botte et ils sont en train de faire des recherches sur les processeurs quantique.

    • @jordankelly5545
      @jordankelly5545 3 роки тому +3

      Intel n'a rien à envier à ces puces M1
      En puissance brute les Intel core sont les meilleurs, il doivent seulement améliorer leur dissipation thermique qui pour l'instant ne permet pas de profiter pleinement de cette puissance au risque d'avoir un four dans sa pièce. C'est leur unique problème.

    • @david55200
      @david55200 3 роки тому

      @@jordankelly5545 c'est vrai que 52°c en full pour i9 c'est énorme.

    • @jordankelly5545
      @jordankelly5545 3 роки тому

      @@david55200 je ne te le fais pas dire.
      Moi j'atteins les 85° lorsque mon boulot demande beaucoup de ressources. Et là les F16 de mon PC me saoules à la fin

    • @david55200
      @david55200 3 роки тому

      @@jordankelly5545 85°c , il n'y a rien de choquant pour un CPU. Moi perso, j'ai viré l'hyperthreating , et j'ai OC mon cpu à 4.7ghz. j'ai des pique à 74°c mais en moyenne je suis a 10°c en dessous. Si je mets mon cpu en defaut, je suis a 55°c en charge...

  • @neonesso
    @neonesso 3 роки тому +3

    J’ai appris tellement de choses dans ta vidéo c’est incroyable, merci pour ce moment 🙏

  • @codeaveclucien
    @codeaveclucien 3 роки тому +1

    Super sujet de vidéo ! J’ai vraiment kiff mec 💪🏾💪🏾

  • @pandaDotDragon
    @pandaDotDragon 3 роки тому +4

    23:58 ils ont essayés de repartir de zéro avec le processeur Itanium basé sur une architecture IA64/EPIC qui reprennait les principes RISC en y ajoutant du parallélisme
    mais bon il n'a pas trop eu le succès escompté ^^' donc ils se sont lancés à fond dans le x86 tout en sachant bien qu'ils ne faisaient que repousser l'inévitable...

  • @olivierrojo2003
    @olivierrojo2003 3 роки тому +4

    Ça me rappelle mes cours d’architecture en école :) Bien résumé, bravo !

  • @satan2k
    @satan2k 3 роки тому +7

    Excellent récap, super la petite explication des pipelines ! :-)
    Je suis plus ou moins d'accord avec ton analyse, mais il faut replacer un peu tout dans son contexte. ARM est très efficace pour toutes les utilisations basiques, pour tout ce que fait Madame Michu, les 9/10 èmes des instructions x86 ne sont jamais utilisées. Par contre pour des trucs plus cossus, comme des maths, ou de la simulation, ARM montre vite ses limites. Mais comme le point fort d'ARM est sa consommation, on peut s'en permettre d'en mettre 10x plus pour gommer ce manque.
    Si AWS et consort se lancent dans ARM, c'est pour deux raisons:
    1) comme tu l'as cité, le contrôle. Quand tu achètes chez ARM, tu achètes le "blueprint". Après tu peux modifier tout ce que tu veux, ce qui n'est pas du tout le cas du X86. Seul AMD a une license pour le dévelloper. (Et ca s'est arraché aux forceps au tribunal)
    2) la consommation électrique. Quand tu as des centaines de datacenter, avoir une très grosse économie même sur le sleep, c'est une économie conséquente. Surtout quand tu peux te permettre d'étendre ("scaler") sans contraintes. Et là encore, dans 9/10 eme du temps, pour la plupart des workloads, une bonne partie des instructions x86 ne sont pas utiles.
    Pour revenir à Apple, selon moi, leur plus gros défaut dans cette approche, c'est d'avoir pas seulement viré Intel, mais aussi viré Intel ET Nvidia/Amd. Sur ARM tu n'as pas de support des GPUs comme ça l'est sur X86.
    Du coup, Apple met à la trappe tout le boulot fait sur le calcul distribué (OpenCL) ainsi que tout le calcul de rendu de scene. Je connais des graphistes / designers qui grincent des dents, car ils craignent de devoir retourner sur du Windows. (Ouais les mac pro existent encore en x86, mais le support va être bien plus court)
    Et concernant le x86, faut pas jeter le bébé avec l'eau du bain, je pense que tu es passé à côté des gros progrès de AMD qui permet par exemple 64 cores 128 threads, pour une empreinte thermique (TDP) de 250w. AMD qui, on doit le rappeler, équipe toutes les consoles de salon (la switch n'étant pas vraiment une console de salon, mais nomade), et a monté des technos pour l'accès en direct des ressources GPU -> stockage -> GPU direct sans accès processeur, ce qu'est incapable ARM vu que ce sont majoritairement des SOC :-)
    En gros pour faire court, avec son M1 et son approche, il flingue les graphistes / modelers / designers en CAD / data scientists (j'en connais) qui utilisaient du Apple. Il flingue aussi le gaming. (bon okay vu le peu de personnes qui "jouent" sur mac, mais bon ...)
    Donc, Apple a détruit Intel, ouais, enfin il a plutot abattu un cheval qui était déjà à l'article de la mort. Par contre il n'a flingué ni AMD, ni l'écosystème PC. Mis à part la hype ou bien à moins d'avoir besoin d'un appareil nomade performant, le M1 n'est pas concurrentiel. Si je compare par exemple avec mon refresh à base de 5900x, les perf sont équivalentes en single, poutrent le M1 en multi, poutrent le M1 avec la partie graphique, l'ensemble est compatible, réparable (pas de colle!), extensible et tout ça pour la moitié du prix..... Donc à part le dev ou l'IT nomade qui voyage souvent, je ne vois aucun interêt à acheter le M1, du moins pour le moment.

    • @Le-J-
      @Le-J- 2 роки тому +1

      Commentaire excellent qui vient parfaitement compléter la vidéo. Merci !

    • @jeandupond7941
      @jeandupond7941 2 роки тому

      Je suis d'accord, mais pour moi le mac m1 reste la meilleure alternative, consommation plutôt basse, machine polyvalente, avec le temps c'est sûr que les applications seront compatible sur m1, sans compter le prix, en suisse un Macbook air m1 coûte 880 chf, avec 880chf tu as aucunes machines avec de tel performance(fiable, très longue autonomie, os stable qui plante pratiquement jamais, très bon écran, léger, fin, et qui surchauffe pratiquement jamais et surtout le très bon support apple) en gros aucune machine fait mieux, pour moin de 880€ ,apple est devenu moin chère que les concurrents sur Windows, on vit une époque incroyable quand même

    • @satan2k
      @satan2k 2 роки тому +1

      @@jeandupond7941 Effectivement, ce ne sont pas de mauvaises machines. Elles rencontrent leur public. Question prix, en Belgique, a l'écriture de mon commentaire, j'en ai eu pour 1100€ pour une machine de rêve, hors carte graphique vs 2500€ le M1 plus ou moins équivalent (avec les différences notées au dessus). Maintenant a notre époque, je conçois que le prix démentiel et inadmissible de cartes graphiques fait changer la balance. Au point de vue technique, je campe sur mon avis, mais au point de vue du coût, j'avoue que ça "devient" concurrentiel (justement parce que tristement les petits copains commencent a exagérer).
      Par contre, même si Apple a enfin fait des efforts niveau de la possibilité de réparer ses appareils, je trouve (et ce n'est que mon opinion) sa pratique générale honteuse. Réparation difficile ou impossible selon le cas, support qui se dédouane très rapidement (on a du retourner du Apple au boulot, la foire a l'empoignade...). Upgrade quasi impossible, obsolescence programmée des mises a jour OS, etc. Loin, très loin du Apple respecté et aimé de ses débuts ☹️

    • @jeandupond7941
      @jeandupond7941 2 роки тому

      @@satan2k concernant les réparations ça concerne toutes les marques en général et surtout les ultra book, niveau technique je peux pas trop parler car je suis pas calé du tout sur le sujet, mais d'après les avis des gens général , ils sont tous d'accord pour dire que si tu veux un portable fiable avec lequel tu peux faire du montage, regarder des films en bonne qualité etc etc, le Macbook air reste la meilleure alternative pour l'instant, pour les modèles au-dessus (Macbook pro 14 et 16) ça je sais pas si ça en vaut la peine et si les prix sont justifiés ou pas, mais à moin de 900€ en suisse y a pas photo, aucun concurrent peut rivaliser

  • @nidalege7416
    @nidalege7416 3 роки тому +3

    Très bonne explication de vulgarisation.
    Apple avec le choix de l'architecture ARM me rappelle les moments forts de l'informatique des années 90 ou l'on avait une quantité de CPU disponible qui m'a fait révé. J'ai toujours voulu avoir un DEC Alpha qui exécutais des logiciel X86 plus rapidement que les CPU intel de l'époque.
    - ARM (RISC)sur les station Acorn très apprécié des monteurs vidéo et Intel faisait lui aussi des CPU ARM avec les Strong ARM. On trouve l'architecture dans les PlayStation 1 & 2 et les GameBoy depuis la Advance.
    - MIPS (RISC) dans les fabuleuse station de SGI que l'on retrouve maintenant dans des super calculateurs en chine et dans le monde de l'embarqué
    - POWER (RISC) que l'on a vu dans les serveurs AS400 à maintenant iSeries, dans le top 5 des super calculateur, les stations NeXT puis macs comme Be, des mod pour les Amiga et Atari et surtout dans le spatial via la NASA. Les consoles PlayStation 3, Xbox360 et GameCube
    - SPARC (RISC) de chez SUN qui est en train de mourir alors que fut un temps cette gamme de cpu était présent dans pas mal de calculateur surtout via Fujitsu. On trouve du SPARC dans l'espace via le CPU LEON pour l'ESA et quelques CPU de la NASA.
    - DEC Alpha (RISC) dans les machine du même nom. Mort après le rachat de Compact par HP.
    - IA-64 dans les CPU Itanium 1 & 2.
    ________________________________________________________________________________________________
    ARM ne fait que concevoir l'architecture logique et physique dont des licences sont vendues.
    Apple comme Qualcom eux ne prennent que la licence de l'architecture logique et conçoivent ensuite le cpu arm de zéro. (Je ne sais plus Nvidia, mais il me semble que c'est aussi partie d'une feuille blanche)
    Seul Qualcomm, Apple et Nvidia dans le monde ARM font des GPU de zéro. Si ma mémoire est bonne Samsung a un projet non concrétisé de GPU.
    Le reste est sous licence ARM avec les GPU Mali ou Imagination Technologies avec les PowerVR.
    Apple peut effectivement devenir via ses ARM un concurrent sérieux sur le marché grand publique des PC plus conventionnel sous x86-64.
    Mais j'ai des réserves. C'est la grande différence entre Apple et le PC x86. Apple est capable dans son propre marché de faire une rupture ce que le monde X86 ne peut pas pour des raisons de rétrocompatibilité. J'attend avec impatience ou Microsoft dise on arrête le x86.
    Apple est passé des CPU Motorola 68K au Power de Motorola puis IBM pour ensuite aller sur le x86 et maintenant ARM. Prochaine étape de leur émancipation, avoir une fab de semi-conducteur affin d'être intégralement autonome ?
    Et ce que tu soulignes dans la vidéo, le fait que Apple maîtrise le matériel, le kernel, l'os dans son ensemble, les compilateurs surtout Clang + LLVM et les applications font que les performances ne peuvent que être bonne. Chose que le monde Wintel (oui je suis veille) ne peux avoir du fait de l'ouverture même de la plateforme PC depuis sa création.
    Pour moi, Apple restera un marché de niche face au X86
    Concernant ARM face au x86, c'est déjà la victoire d'ARM de part le nombre de matériel tournant sous ARM : tablette, téléphone, carte de développement style Raspberry.
    Pour Intel, l'entreprise ses trop reposé sur ses lauriers, a merdé sur sa vision du futur qui en fait l'une des raisons dans le choix d'Apple de faire ses CPU pour les mac et du succès grandissant l'architecture ZEN d'AMD qui comporte une unité ARM pour la sécurité.
    ________________________________________________________________________________________________
    Dans le monde ARM c'est un bordel sans nom pour si retrouver entre les mélange CPU et SOC et les différentes versions de l'architecture.
    Pour le M1, Apple c'est basé sur la dernière version de l'architecture ARM : ARMv8.6-A (annoncé en 2019). ARM n'a pour l'instant aucun design de CPU à proposer en licence.
    Ce qui est intéressant avec l'ARMv8.6-A, ce sont les unités de calcul vectoriel et de virgules flottantes : GEMM, BFloat16, NEON qui sont comparable à ce que fait Intel avec son set d'instruction AVX-512.
    Et oui ARM est aussi tordu que le monde X86 dans l'ajout d'unité de calcul anexes. Ce qui me permet d'en arriver a ce que je voulais dire depuis le début, rien n'est plus CISC, MISC ou RISC. C'est un jolie cocktail. Même la toute dernière génération architecture RISC via le projet open sources RISC-V n'est pas si RISC que ca via ses unités de calcul vectoriel.
    Pour information, les CPU x86-64 ne fonctionne pas en interne dans ce type de jeux d'instruction gardé uniquement pour la compatibilité. Dans les CPU x86-64 il y a des unité de conversion des instruction X86-64 vers celle utilisé réellement par le CPU.
    Les jeux d’instruction comme le SSE ou l'AVX ne sont pas x86, ses unité ont leurs propres logiques.

    • @cocadmin
      @cocadmin  3 роки тому +1

      Salut Nida! C'est toujours un plaisir de lire tes commentaire :)
      Microsoft on eu aussi tenter de passer a ARM avec leur dernière surface mais leur gros problème sont les performances en émulation pour rester compatible avec les programmes x86 encore majoritaire pour windows.
      Ils on l'air de faire des SoC custom avec qualcomm
      J'imagine qu'il vont s'inspirer d'Apple et continuer à pousser ARM pour windows.

    • @nidalege7416
      @nidalege7416 3 роки тому

      ​@@cocadmin loin d'être si simple pour Microsoft. Intel a menacé plusieurs fois Qualcomm et Microsoft sur la propriété intellectuelle pour l'émulation X86.
      Il y a le soft App Assure qui doit aider les programmeur a la migration vers ARM. Mais en l'état actuel, si Microsoft ne bascule pas ses propres applications sur architecture ARM, ca part mal. Le mieux pour Microsoft est de copié la politique d'Apple en ayant un CPU ARM sous contrôle et Qualcomm est connu pour faire de bon SOC ARM.
      Mais je vois mal Microsoft ce créer un écho système matériel fermé comme Apple. Ca va crier de partout. Déjà chez Apple ca gueule chez les dev pour faire la migrations des applications. Je ne veux pas imaginer le bordel dans le monde du PC entre les jeux, les applis métiers, les cartes 3D, son, etc, CPU Intel et AMD qui sortent du jeux.
      Je me souviens encore de la mauvaise volonté lors du passage à Vista des fabriquant de matériels à accepter moins de liberté en mode kernel. Les fabricants de matériels ont une grosse responsabilité dans l'échec de Vista. Il y a eu aussi le cas ou Microsoft a serré la vis pour la sécurité de son OS, les éditeurs d'antivirus ont bien gueulé. Donc MS a du faire quelques pas en arrière au détriment de la sécurité.
      Apple a cet avantage de plateforme fermé ce que ne peut pas avoir Microsoft sans impact violent.
      Sur Android, Chrome Book, iPhone ou Mac, ça ne choque personne d'avoir par défaut les applications propriétaires de Google ou d'Apple. Quand on passe sous Windows qui a une logithèque libre et propriétaire conséquente, les utilisateurs trouvent un manque de liberté et cri au scandale ! J'ai toujours trouver cela ubuesque.

  • @targhan666
    @targhan666 3 роки тому +2

    Ils ne sont pas dans la merdre car même si ça devenait à nouveau la norme de produire des processeurs RISC c'est très facile contrairement aux CISC.
    Donc même si AMD et Intel devaient faire un changement de techno il ont largement les compétences et l'expérience.
    De toute façon, si ça se fait, ça ne se fera pas si rapidement que ça et ils auraient en plus le temps d'amorcer le virage (qui est sans aucun doute déjà étudié en interne).
    L'affirmation que les laptops Apple M1 sont plus rapide que 98% des autres laptops est fausse, c'est du marketing sans source. Apple compare à des génération différentes (pas forcément du 5nm par exemple qui est le cas du M1) et surtout selon les applications ce n'est plus vrai : certaines applications avec des calculs complexes seront beaucoup plus lentes sur RISC.
    J'aimerai beaucoup qu'on se dirige à nouveau vers des CPU RISC, y compris sur PC, qui en plus d'être une techno plus simple est également plus stable (moins de bugs physiques, compilateurs plus simples etc...). Mais ça signifie aussi de retourner vers des architectures avec des co-processeurs ou utiliser les vCPU pour combler les lacunes du RISC sur certaines applications.

  • @BusinessBonheur
    @BusinessBonheur 2 роки тому

    Tu es vraiment doué. T'es vidéos sont top, claires, ludiques et agréable à regarder. J'adore.

  • @tanze67
    @tanze67 3 роки тому +3

    Bravo ! Explications très simples et claires, je m'abonne de suite à votre chaine :-). Merci pour votre travail de recherche et d'exposer aussi clairement vos découvertes dans la production et le partage de cette vidéo. Continuez comme cela !

  • @YannEvn
    @YannEvn 3 роки тому +8

    Je te découvre sur cette vidéo, explications super claires et logiques : tu gagnes un abonné ! Continues comme ça c'est top 💪

  • @NRichard
    @NRichard 3 роки тому +4

    Bel effort de vulgarisation 👍 (j'aurai parlé un peu de SIMD).
    Le temps d'exécution dépend beaucoup du compilateur.
    Merci pour ces précisions sur Rosetta !
    Comme quoi on peut faire aussi bien avec un peu de papier et des ciseaux 😜
    Qqun comprend pourquoi le cours d'Intel ne baisse pas autant que ça devrait (échec sur le mobile, AMD qui monte, Xeon Phi vs NVidia et maintenant en frontal) ?

    • @cocadmin
      @cocadmin  3 роки тому

      ils ont encore bcp de processeur a ecouler avant d'etre en diufficultée mais sur le long terme ca risque d'etre difficile effectivement.

  • @brunovlaminck9901
    @brunovlaminck9901 3 роки тому +2

    Une sévère claque pour Intel et AMD, çà leur fera du bien.
    Bien sûr çà serait très étonnant de voir Apple vendre des cartes mère et processeurs. On peut toujours rêver!
    Mais clairement çà donne envie de sauter le pas.
    A 700$ le Mac Mini finalement le rapport puissance/prix est supérieur à un PC!

    • @cocadmin
      @cocadmin  3 роки тому +3

      Microsoft a aussi commencer a faire des proc ARM sur les surface, j'imagine qu'il doivent travailler eux aussi sur leur propre puce. En tout cas c'est ce que je ferais a leur place..

  • @sachavoronej5104
    @sachavoronej5104 3 роки тому +1

    Abonné.
    EXCELLENT travail.
    Merci

  • @Runs59
    @Runs59 3 роки тому

    Ouch ! Superbe effort de vulgarisation. C'est super clair et super intéressant ! Bravo !

  • @richardbarbat4127
    @richardbarbat4127 3 роки тому +2

    Bravo pour ta vidéo, c'est vraiment pas évident à faire comprendre, et tu y arrives très bien. Par contre je trouve que tu n'as pas insisté sur la consommation electrique délirante des proc Intel par rapport au M1. On est sur des rapports de X4, X5 pour atteindre la même puissance ! Là se situe le plus gros soucis pour les X86 AMHA.

    • @cocadmin
      @cocadmin  3 роки тому

      Tu as raison mais je préférais parler des différences d'architecture :)

  • @Tonyhunterblade
    @Tonyhunterblade 3 роки тому +47

    Notez aussi qu'ARM a été racheté récemment par Nvidia... 👍

    • @ayleisma7590
      @ayleisma7590 3 роки тому +7

      Ouai et connaissant la propension d'nvidia a se brouiller avec ses partenaires, ça annonce rien de bon pour le futur des licences ARM... Un des fondateurs de cette firme avait d’ailleurs exprimé ses craintes

    • @Username-xl6jj
      @Username-xl6jj 3 роки тому +1

      @@ayleisma7590 Un petit coche pied à Apple ne fait pas de mal à ces gros monopoleurs (Taxe 30% AppStore) Mais c'est plus dangereux pour les autres utilisateurs de licence ARM.

    • @assirik
      @assirik 3 роки тому +1

      l’accord de 40 milliards de dollars sur l’acquisition d’ARM par Nvidia est suspendu, à cause d’un conflit au sein de la coentreprise ARM China

    • @molotofmezcal
      @molotofmezcal 3 роки тому

      C'est loin d'etre encore fait !

    • @assirik
      @assirik 3 роки тому +3

      @@molotofmezcal oui effectivement mais vraisemblablement l'union européenne va aussi essayer de bloquer l'initiative. L'objectif est que l'europe ne devienne pas dépendant des semi conducteurs us ou asiatiques. On verra bien!

  • @kaourantperennou8810
    @kaourantperennou8810 3 роки тому +3

    Même si on peut imaginer qu'effectivement dans les usages courants les processeurs Arm domine en termes de puissance/consommation, je pense d'une part que cette puissance ne sera pas utile à tous (beaucoup sont contents d'un Intel Pentium voir même atome.) aussi cela vas demander beaucoup trop d'efforts coter software (Microsoft, Linux fondation ...) et surtout de rétrocompatibillité (Windows 3.1 dans certains aéroports) mais aussi tout simplement juste de comptabilité (je m'explique comme l'a dit Cocadmin les processeurs ARM n'intègrent pas tous les même fonctions, alors il faut presque une version de système et d'application pour chaque soc, on est loin de l'universalité du X86). Aussi, il ne faut pas oublier bien qu'ARM a des avantages, il a aussi des inconvénients comme une moins bonne stabilité, des compléments différents (Ecc, AES, SSE, nombres de bus...) et très très souvent bloquer à une série très réduite d'équipements et périphériques compatibles.
    En somme l'ARM présente un avantage de puissance qui n'est peut-être pas une nécessité dans l'univers PC quand on regarde les efforts à faire pour sortir du X86 surtout si on souhaite garder, ses avantages comme l'universalité, la compatibilité, et ses logiciels. Cependant, il possible a l'avenir de voir émerger pour des usages spécifiques encore alors destinés au X86 des processeurs ARM. Ou alors une hybridation type un X86 avec des cœurs ARM et X86 avec une émulation native du même type que le shader model v2 sur les 32 bits (le système ne voit même pas la différence, il faudrait cependant une nouvelle version du système d'amorçage pour indiquer au processeur quel mode de compatibilité utiliser en fonctions du système).

  • @rikimaru749
    @rikimaru749 3 роки тому +3

    Merci pour les explications 👍
    pour le moment AMD ne semble pas rencontrer les problèmes d’intel.
    AMD et Intel il peuvent aussi se payer la license ARM et développer leur composant ?!
    Curieux de voir comment cela va évoluer.
    Et que peut tu nous dire de RISC-V ?

  • @juliendronne2782
    @juliendronne2782 3 роки тому +3

    Le pentium 4 90nm et son pipeline de 31 étages allait tuer Intel en 2004... comme quoi, peut être qu il y a des ingé Intel de l époque dans l actuelle équipe Apple....

  • @P4pa-Joe
    @P4pa-Joe 3 роки тому

    Vidéo proposée par UA-cam... Curieux mais très sceptique au début. Au final c'est une super bonne surprise ! Merci pour ton travail.

  • @gaetanhugot2303
    @gaetanhugot2303 2 роки тому

    Salut ! Je viens de découvrir ta chaîne, j'espère que tu gagne bien ta vie avec ce que tu fais parce que c'est tout simplement incroyable, super qualité ! Merci de partager avec nous !

    • @cocadmin
      @cocadmin  2 роки тому

      pas encore mais on y crois 🙏

  • @elcordobes11
    @elcordobes11 3 роки тому +1

    Explications simples et clair! Jolie trouvaille :) merci pour ta lumière!

  • @onetouch97111
    @onetouch97111 3 роки тому +3

    Merci, je comprends mieux la différence entre une puce ARM/X86 au niveau performance et architecture. C'était très bien expliqué

  • @guillaumemarmorat8293
    @guillaumemarmorat8293 3 роки тому +1

    C'est vraiment ultra interressant, bravo et merci ! 👍

  • @chauvaudziggy9802
    @chauvaudziggy9802 3 роки тому +1

    Tu mérites tellement plus de visibilité
    Cette vidéo es incroyable 💪 a toi

  • @MonBureauLinux
    @MonBureauLinux 3 роки тому +1

    Merci pour la vidéo. Grossomodo il n'y a pas cette partie décodage/découpage qui fait perdre du temps dans les processeurs "ARM". A voir le marché de l'offre et la demande. Un petit risque d'augmentation des prix pour avoir du ARM Apple si Intel et AMD n'arrivent pas à suivre la cadence. Dans 3ans on verra bien.

  • @arnaudleconte6735
    @arnaudleconte6735 3 роки тому +1

    Je travaille dans le développement de processeur et je vraiment surpris par la qualité technique de la vidéo (de la part d'un softeux :p). Très bon travail ^^

    • @yamazakikaoru9579
      @yamazakikaoru9579 3 роки тому +1

      Oui ,en général au mieux on a la description d'un processeur des années 80 :)

    • @cocadmin
      @cocadmin  3 роки тому

      merci ca fait plaisir! J'avais peur de sur-simplifier ou de louper quelque chose d'évident. :)

  • @astro.photographer
    @astro.photographer 3 роки тому +3

    Super bien expliqué merci tu m’a éclairé en 24min alors que plusieurs heures de vidéo d’autre UA-camrs tech ne le faisait pas

  • @yamazakikaoru9579
    @yamazakikaoru9579 3 роки тому +2

    Je suis étonné de voir une vidéo YT français qui parle de façon aussi technique :p
    L'ARM à une bien meilleur architecture que le x86.
    Et c'est normal , le x86 date des années fin 70 , et même le x64 n'est qu'une extension 64 bits...
    L'avantage de l'ARM est :
    -C'est un proc RISC , c'est plus simple à faire tout en étant performant
    Intel ou AMD sont avec un handicap , ils sont obligé de faire une translation CISC->RISC , cette partie est lente et consommatrice de transistor (et donc de watt consommé).
    Sur ARM , cette partie est inutile (c'est deja du RISC donc on peut traité directement les instructions)
    -le x86 se doit d’être rétrocompatible donc tu as plein de chose pas utilisé qui existe.
    Le plus flagrant est pour le "FPU" , non seulement on gère encore des float de 80 bits , mais aussi le FPU originel du x87.
    Alors que toute les x64 utilise les SSE pour les calcul flottant , donc on se retrouve avec un FPU qui existe mais qui ne sert à "rien"
    -le x86 doit gérer 700 instructions voir plus...
    -le x86 étant CISC , et vu son bordel en terme d'opcode (qui varie entre 1 à 15 bytes).
    Intel ou AMD n'arrive pas à décoder plus de 4 instructions à la fois (et c'est vraiment un soucis architectural du x86).
    Ce qui n'est pas le cas de l'ARM qui peut facilement décoder 8 instructions en même temps (ce que fait le M1 )
    Tout cela handicap énormément le x86.
    AMD profite plus du gain de transistor (qu'offre TSMC) pour palier les défaut du x86.
    Intel a souvent tenté dans le passé de se débarrasser du x86 (Itanium entre autre) , et sûrement parce qu'il savait que cette architecture allez leur amené pas mal d'emmerde dans le futur.
    Bref je ne suis pas inquiet pour Intel de faire une nouvelel architecture.
    D'ailleurs l'Itanium a tout (dans la théorie) pour faire mieux que du ARM , vu que le jeu d'instruction EPIC est encore une amélioration du RISC :)
    Apres si AMD et Intel sont "devant" , c'est surtout que l'optimisation actuel des processeurs ( Superscalaire Out of Order) est une technologie complexe que maîtrise AMD et Intel depuis 25 ans !
    ARM , cela doit faire au mieux 10 ans qu'ils sont dessus ,et probablement pas qu'il visait les hautes performances.
    Mais avec le temps il est évident que l'écart se réduira et que le x86 sera oui sera assez dépassé techniquement (ce qui l'est deja ).
    Bref sur le x86 on paye surtout de la dette technique ;)

    • @cocadmin
      @cocadmin  3 роки тому

      C'est un super bon resumé :D

  • @ouanounours
    @ouanounours 3 роки тому +2

    Excellente vidéo ! Un peu surpris néanmoins que tu n'aies pas parlé du fait que la plupart des composants matériels (RAM, contrôleurs, ...) sont directement intégrés à la puce, ce qui accélère aussi grandement la performance :)

  • @lenekogilles7254
    @lenekogilles7254 2 роки тому

    Bonjour
    Je suis quasiment nul en assembleur, mais : j'ai fait toute ma carrière sur des grands systèmes IBM et je me suis beaucoup intéressé à leurs architectures (et donc à l'histoire des systèmes d'exploitation IBM.)
    Vous me rappelez les formations que je dispensais à mes collègues nouvellement arrivés sur le fonctionnement de la mémoire virtuelle avec des OS comme MVS, Z/OS et le sous-système JES2. J'aimais beaucoup faire cela et mes "élèves" techniciens d'exploitation comprenaient beaucoup mieux ce qu'il se passait dans les machines et ce que faisaient les commandes qu'ils passaient.
    NEKO

  • @Zebra_Paw
    @Zebra_Paw 2 роки тому +1

    Après c'est pas une raison pour acheter quoi que ce soit chez Apple, ils font tout pour rendre leurs appareils irréparables et vendent le tout beaucoup trop cher. Par exemple, il est commun de devoir payer 200 balles de plus pour un modèle de MacBook avec 16GB de RAM plutôt que 8GB, alors que 8GB supplémentaires coûtent environ 40 balles et 16GB entiers 80 balles.
    Les différents produits Apple hors d'usage finissent souvent à la poubelle, et comme ils sont fréquemment hors d'usage ou tout simplement ne suffisent plus aux besoins de l'utilisateur, ils contribuent beaucoup au réchauffement climatique par rapport à d'autres ordinateurs ou téléphones.
    Apple a aussi eu plusieurs fautes de design dans certains modèles de MacBooks, par exemple les premiers butterfly keyboards qui tombaient tout le temps en panne, tout ça pour tenter de faire des ordinateurs encore plus "slim" et "sexy" que les précédents. Il y a aussi eu des modèles ou les SSDs étaient défectueux et tombaient rapidement en panne, causant la perte de toutes les données et un appareil qui ne peut être utilisé qu'avec un disque externe, puisque bien sûr ces SSDs étaient soudés sur les cartes mères.
    macOS, je dois dire, est non seulement une plateforme facile d'utilisation et pratique pour le multimédia, mais aussi un peu ensorcelée. Je veux dire par là que j'ai patch macOS Big Sur sur mon MacBook de 2009, et même si les performances sont à peine suffisantes pour regarder UA-cam en full HD ou 720P60, l'OS donne cette agréable impression de présence, que tout va bien et qu'il ne galère pas du tout même sur ce vieux processeur a deux coeurs.
    Je pense qu'Apple a mis beaucoup d'argent dans le design et a payé beaucoup d'experts pour obtenir ce résultat.
    Mais peu importe, déjà qu'à l'époque où Apple utilisait des processeurs Intel, le MacBook était littéralement la pire manière de profiter de son CPU parce que Apple préfère faire un design "slim" et "sexy" plutôt que de refroidir correctement les processeurs, et qu'ils veulent que leurs MacBooks soient le plus silencieux possible (si le MacBook se cuit lui-même pour Apple c'est tout bénef), après les utilisateurs pensent que les PCs surchauffent quand les ventilateurs tournent, mais non, c'est juste qu'eux se refroidissent proprement!
    Conclusion: je vous conseille de rester avec l'architecture x86 tant que ARM ne sera pas plus répandu et qu'il n'y aura pas de réels standard comme pour les sockets Intel etc..
    Les ultrabooks, autant Apple que les autres, c'est de la merde, ce qu'il faut c'est un refroidissement correct, de la RAM et des SSDs remplaçables, et des CPUs remplaçables également où c'est possible!

  • @guardians-of-cyber-europe
    @guardians-of-cyber-europe 3 роки тому +1

    Belle présentation. Un joyeux Noël à toi @cocadmin😉

  • @franckrollier895
    @franckrollier895 Рік тому

    Je remercie les suggestions YT de m’avoir fait découvrir ta chaîne, une vraie pépite ! T’es explications sont claires et tes schémas permettent de comprendre facilement des concepts qui peuvent être complexes. T’as gagné un abonné 😊

  • @MasterEquinoX
    @MasterEquinoX 3 роки тому +1

    Vidéo très bien construite, merci pour les efforts de pédagogie :)

  • @brunometronome1189
    @brunometronome1189 3 роки тому +3

    Intéressant et très bien expliqué, bravo ! Après sur pc fixe (tour), quand on a des besoins classiques, je pense pas que la différence de perf fera basculer les gens.
    La puissance processeur est de moins en moins un problème. J'ai acheté un intel I3 pas très cher il y a 2 ans lors d'un remplacement d'une carte mère qui a cramé, et il me fait tout tourner, même les jeux, je ne me sens pas restreint par le proc le moins du monde. Par contre pour les pc portables (pour la batterie qui se décharge moins), ou pour les besoins professionnels spécifiques (montage vidéo, ...), Apple montre de sérieux arguments.
    Mais la grosse masse des utilisateurs sous windows a la patate requise pour faire tourner toutes ses applis, ils ne changeront pas pour un nouvel OS qui bousculera leurs habitudes, pour de la puissance de calcul en plus dont ils n'ont au final pas vraiment besoin. Surtout que quand tu migres chez Apple, c'est pas le même budget, et c'est pas non plus la même philosophie (j'ai l'impression qu'on cherche à te tordre le bras pour te faire raquer à la moindre occasion). Bref, détruire Intel et AMD ? Il y a d'autres paramètres que la puissance brute qui nuancent fortement la réponse à cette question... C'est mon humble avis.

    • @RenaudKyoku
      @RenaudKyoku 3 роки тому

      Oui on utilise surtout le GPU pour les gros calcul. Dans la majorité des cas, le CPU est beaucoup moins important que la RAM ou le stockage de masse ou autre.
      Après c'est toujours mieux d'avoir un truc + optimisé et + performant. Mais c'est facile d'être optimisé quand on n'a qu'un sous-ensemble limité à gérer, et qu'on arrive sur le marché 30 ans après les autres (cf GoLang par exemple).

  • @edotoine
    @edotoine 3 роки тому +1

    Merci BEAUCOUP pour ces explications et toutes ces informations (et hop, un abo de plus ;) )

  • @JamesAdamsTech
    @JamesAdamsTech 3 роки тому +1

    Super vidéo comme d'habitude j'ai appris pas mal de chose et l'explication papier était vraiment bien !

  • @johN071509
    @johN071509 8 місяців тому +1

    Très bonne vidéo ! En revanche j'ai remarqué que les chiffres que tu annonces sont souvent totalement farfelus. 2TO de RAM sur un PC ou 160GO de RAM pour call of faut pas pousser mémé !
    Tes vidéos gagneraient à donner des chiffres cohérents.

  • @Wibration
    @Wibration 3 роки тому +2

    Woaw la vidéo est GOLD ! J'ai jamais cliqué aussi fort sur un bouton Abonnement !

  • @hoodonthebeats5784
    @hoodonthebeats5784 2 роки тому +2

    2022 = Intel Core i7 et i9 12gen ont détruit le Game

  • @EricDeLyon
    @EricDeLyon 3 роки тому +1

    Tres interessant merci, et oui gérer toute la chaine de production est un énorme avantage, et pouvoir simplifier et épurer c'est le bonne évolution pour le futur.

  • @toudou1311
    @toudou1311 Рік тому

    Tu peux nous dire comment fonctionne les processeurs graphiques ? Ça fonctionne pareil que les processeurs que tu as présenté ? Merci pour la vidéo 👍

  • @denilsson31
    @denilsson31 3 роки тому +1

    3:38 : Ce n'est pas la taille variable des instructions qui implique l'emploi d'un décodeur.
    C'est le code op, c'est à dire le codage binaire du code instruction qui doit expansé pour commander électriquement des circuits impliqués.
    si l'instruction inc AX a pour code machine 0000 0101, le nombre 5, exprimé en binaire, le décodeur produira en sortie 0000 0000 0001 0000 qui concrètement se traduit par un seul fil à la fois, le 5ème, sous tension. Ce fil-là, commandera l'activation de la partie combinatoire de l'unité de calcul chargé d'effectuer l'addition d'entier.
    Les 4 premiers bits à 0 du code machine peuvent représenter l'adressage du registre AX. Dans ce cas, cela peut être aussi décodé de façon comparable de telle sorte qu'un fil en sortie commande l'aiguillage d'accès à la cellule mémoire de AX vers l'entrée de calcul de l'addition.
    Donc, RISC ou CISC, tout processeur a besoin d'une unité de décodage pour expanser les instructions en signaux individualisés.

  • @mecyjecy
    @mecyjecy 3 роки тому +1

    Mmmmm... Apple, sur le PC, c'est quoi ? 9 % de parts de marché ? Si Windows ne réussi pas à passer sous ARM (on oublie que c'est bien Microsoft qui a le premier commercialisé des PC habituellement X86 sur ARM, sans succès) Intel n'a pas de gros soucis à ce faire. Plus par AMD et encore : même à la grande époque AMD, Intel était loin devant commercialement.
    Non, c'est pas avec Apple que Intel s'enrichissait mais bien avec Windows et le monde des serveurs ou il sont mais alors quasi inatteignable.

  • @joonhkt
    @joonhkt 3 роки тому +2

    Merci pour la vidéo ! C'est présenté de façon intéressante !
    Mais Intel et AMD ne sont pas mort pour moi: Leurs CPU se rapproche déjà de plus en plus d'une façon "RISC" de fonctionner et, depuis un moment, cette différenciation (cisc-risc) à tendance à se flouter.
    Pour la faire courte : les CPU ARM ne sont plus vraiment "RISC" à proprement parlé, pour optimiser les performances et les CPU Intel/AMD ne travail plus vraiment exclusivement en CISC, justement dans le but de diminuer la consommation, mais également de simplifier l'architecture physique pour, notamment, l'augmentation de fréquence.
    Une des raisons principale du manque d'innovation de performance d'Intel à été l'ex- CEO - connu comme un ingénieur privilégiant les finance, qui avait une stratégie d'économie et d'optimisation production plutôt que d’innovation. Heureusement pour lui, Intel était en position dominante à ce moment.
    AMD n'est que le retour de bâton de ce manque d'innovation et Apple vient leurs mettre de bonne tatane pour que ça bouge enfin.
    Intel aura peu être (sans doute?) un peu de retard, mais je doute franchement qu'ils se laissent abattre comme ça. AMD, lui, est déjà rentré dans la course.
    Là où je te rejoints sur ta conclusion, c'est que Apple à donné le top départ et AMD/Intel pourront bientôt se séparer de vieilles instructions qui les ralentisses.
    www.quora.com/Since-AMD-and-Intel-both-use-an-internal-RISC-CPU-is-it-possible-to-write-software-that-bypass-x86-and-directly-run-the-internal-RISC
    www.compsuccess.com/is-ryzen-risc-or-cisc/
    CPU AMD RISC: en.wikipedia.org/wiki/AMD_K12
    stackoverflow.com/questions/5806589/why-does-intel-hide-internal-risc-core-in-their-processors
    etc. (bon, c'est des liens vites fait hein ! Tu trouveras paquet d'infos dessus, tranquille)

  • @xavier_le_x
    @xavier_le_x 3 роки тому +1

    Le x86 restera toujours meilleur , le M1 n'est pas meilleur, il est juste utilisé dans un environnement qui lui est favorable. Apple, a decidé de rendre incompatible toute une serie d'instructions pour ca, c'est donc une partie des utilisateurs qui sera punie. Ensuite avec Rosetta fait bien le taff c'est vrai. Est ce qu'Apple a tué intel ? Serieusement non LOL Dans le milieu pro, on a des besoins differents et se focaliser sur la mémoire est une tres grosse erreur. La retro compatiblité est importante et la vision d'apple c'est revenir a l'epoque de l'amstrad, amiga, atari etc.... C'est rendre dependant d'une marque. Donc oui Apple a raison de faire ce qu'il fait, mais pour son business. Ensuite, si le ARM avait si super genial que ça, ni Sony, ni Microsoft se seraient tournés 2 fois vers le x86 pour leurs consoles. Le ARM est une archi permettant de meilleures perf de calculs pour le ciblé et c'est vrais. Pour tous les calculs simples et redondants, le ARM est ce qu'il y a de mieux. Sauf que ca, c'est vrai pour du graphisme (d'ou l'archi des cartes graphiques ) ou les domaines de calculs homogenes, quand il s'agit de calculs complexes, le ARM tombe en rade, et qu'on le veuille ou pas là ou un x86 sera constant. Les super calculateurs en ARM, c'est pour la pub ça ^^ Amazon ou Google ont du cloud qui marche en x86 ;-) Par contre pour le commun des gens, nos besoins multimedia qui sont connectés et dont le calcul est déporté dans le cloud (et en x86 hein ^^) oui, le ARM a toute sa place. Affichée une video en dolbyvision 4K , le ARM saura le faire mieux pour decoder le flux... Par contre pour l'encodage sur les serveurs, ca sera bien le x86 qui s'en chargera surtout a bitrate variable ^^ Je trouve ça tres bien que les archis se diversifient, ca pousse a la concurence et c'est bien pour nous, par contre annoncer la mort du x86.... ca fait 20 ans que j'entends ça... Apple en est deja à sa deuxieme tentative, faut pas oublier qu'ils etaient les premiers a dire que le x86 etait merdique dans les années 90.... 10 ans plus tard ils y venaient parceque le RISC (dont le arm est dérivé) n'evoluait pas, et pourtant a l'epoque, le RISC etait encensé comme le ARM dans cette video lol Donc non, un peu d'humilité @cocadmin, apple n'a pas tué intel (ni AMD qui compte les sous qu'ils ramassent grace aux consoles) il lui a bien porté un coup, et je me réjouis de la prouesse d'Apple avec ce M1, mais Intel c'est rocky faut pas oublier.... Est ce qu'on a vu Intel paniquer ? est ce qu'on a vu sa cotation boursiere baisser ? no no. Intel a pris plus cher quand AMD avait sorti les athlon, les premiers jeux 64 bits retrocompatibles et maintenant les ryzen qu'avec ce processeur Apple.... et pourtant AMD n'impressionne pas intel. Attendons le 2e round avant de nous prononcer.. je suis pas un fan d'intel , loin de la (je prefere nettement plus AMD et ARM justement) mais mon experience de passioné d'informatique et de mon metier de developpeur m'incitent à plus d'humilité envers Intel.

  • @sebastienaltounian8456
    @sebastienaltounian8456 3 роки тому +1

    Excellent !!!! Je cherchais a comprendre pourquoi une telle différence ! Merci beaucoup ! C'est super ce que tu fais 👍

  • @malinkobay
    @malinkobay 2 роки тому +1

    C'est évident qu'aujourd'hui tout le monde a 2To sur sa machine.
    Ça fait 30 ans qu'on dit à Intel & Amd que le CISC est dépassé, mais ils ne veulent rien savoir…
    L'important quand on est un mytho c'est la foi dans les histoires qu'on s'invente.

  • @lophoto-net
    @lophoto-net 3 роки тому +2

    Bravo ! J'hésitais à regarder cette vidéo pensant bien connaître le sujet (ha, les cours de micro-programmation suivis à l'université il y a bien des années...), mais j'ai bien fait de la regarder en entier !
    À noter cependant un point important qui n'a pas été abordé : les processeurs Apple intègrent directement la RAM au complet en leur sein (et non pas seulement les registres et une mémoire cache de premier niveau)... Ce qui doit avoir un grand impact sur la performance (surtout quand on a la maîtrise complète du matériel et du logiciel).

  • @williamb8764
    @williamb8764 3 роки тому +2

    Merci pour la vidéo super intéressante. Perso j'ai un vieux laptop intel (10 ans le bonhomme), il serait temps de changer, mais j'attends, je pense que c'est pas le bon moment.
    Si impressionnante soit la claque qu'a foutu Apple au reste, j'attends la riposte, ça va être un festival et je pense qu'on va aboutir sur de sacrées évolutions dans les prochaines années!

  • @N64-
    @N64- 2 роки тому +1

    Mais en fait dans ce que tu explique ce n’est pas Apple qui est incroyablement fort mais les autres fabricants de processeur qui sont restés bloqués en 2002 en étant focalisé sur la mémoire avec leur processeur x86 spécialisé sur l’économie de la mémoire, seule solution pour concurrencer Apple rien inventé totalement l’architecture de leur puce
    Mais bon ils ont peut-être trop de fierté pour ça 😂

  • @tutoreplay
    @tutoreplay 3 роки тому

    Reste a Apple de développer une partie accélératrice 3d solide. Actuellement le processeur sur pc se vois justement de plus en plus soulagé de ses fonctions par des traitement exécuté sur la CG. Un petit passage par les Cuda core (par exemple) et la compression d'une vidéo est 10 fois plus rapide. Donc pour le moment non je ne pense pas que ce soit encore la fin de l'archi x64 car le processeur ne fait pas a lui seul les perfs d'une machine.

  • @jumpman120
    @jumpman120 3 роки тому +1

    8:05 erreur de script ici : Les processeurs ARM consomment moins que les processeurs CISC et non RISC puisque ARM est une architecture RISC

    • @alloquoi3281
      @alloquoi3281 3 роки тому

      Pas sûr que tout le monde suit ce qu'il dit à la lettre. Ses explications sont parfois tangentes pour ne pas dire plus...

  • @nihilusedit1447
    @nihilusedit1447 3 роки тому +1

    Reste plus qu'à faire leurs propre processeur pour les mac mini/ iMac /mac pro et accorder la compatibilité PC pour faire un couple 3060ti/ M1 Pro mais la je rêve un peu je crois

  • @printthehacker1560
    @printthehacker1560 2 роки тому +1

    Une vraie pépite cette vidéo

  • @rthtrt5716
    @rthtrt5716 3 роки тому

    Ouaaaa ta chaîne est une belle découverte… simple et clair et le tout en français c est cool 👍 un grand merci 🙏

  • @ybcanal21
    @ybcanal21 3 роки тому +1

    Excellente vidéo ! Très pédagogique. Faudrait faire la même vidéo avec Micro Magic et leur architecture RISC-V car ils annoncent des performances encore bien meilleures que celles de l'Apple M1 et en consommant moins d'énergie. À suivre...

    • @cocadmin
      @cocadmin  3 роки тому +1

      les performances par watt sont meilleures, pas les performances globables. Le risc-v consomme moins d'1 watt et le m1 consomme 25 donc il ne sont pas du tout dans la même catégorie. C'est comme dire une fourmis est plus forte qu'un éléphant parce qu'elle peut soulever 2x sont poid :)
      Dans le futur, il se peut que des risc-v scalent bien et viennent concurrencer les cpu d'apple mais ce n'est pas encore le cas.

  • @benoitducon9851
    @benoitducon9851 2 роки тому +1

    Arm ? Leurs processeurs ont été vacciné trois fois, c'est pour ça qu'ils ont l'air si rapide.😂🤣👌

  • @theobaragnon9452
    @theobaragnon9452 3 роки тому +1

    Je me demander pk les procs rappetissise alors que la gravure réduit également,donc pk il rapetissise les proc alors qu’un plus gros proc pourrais avoir plus de place donc plus de core et autres il serait donc plus performant 😇😇

  • @eachdayonepiceachdayonepic8908
    @eachdayonepiceachdayonepic8908 3 роки тому +2

    Merci l’algorithme pour cette excellente vidéo ❤️

  • @thedrakeur3610
    @thedrakeur3610 3 роки тому +1

    Il n'y a pas besoin de partir très loin Apple c'est nul la moitié des jeux ne marche pas dessus c'est un ordinateur juste pour la burotique

  • @FIXDIY
    @FIXDIY 3 роки тому +1

    Good . thanks you

  • @BenoitDesmidt
    @BenoitDesmidt 3 роки тому +1

    Ayant une chaîne UA-cam aussi, je sais le travail que ça représente ce que tu as fait.
    Et sérieux c'est du lourd.
    Bravo 👏

  • @jsebtarot5006
    @jsebtarot5006 3 роки тому

    ça fait des année que je le dis. Ceci dit le gros soucis. C'est que dans les proc ARM il y a pleins de trucs pas libre avec licence. Je penses pas que l'avenir soit dans ARM mais plutôt dans riscV qui montera encore plus vite qu'ARM! en performence ( enfin en théorie sur le papier). Il se base sur une toute nouvelle architecture assez récente par rapport à ARM. Il se peut que l'on est des surprises!!!. Mais je trouve sympa qu'ARM a un potentiel gros concurrent qui lui fera vraisemblement de l'ombre ;)

  • @rodriguemartin9795
    @rodriguemartin9795 3 роки тому +2

    tu es super cocadmin :)
    bon recommandé

  • @fridaycaliforniaa236
    @fridaycaliforniaa236 3 роки тому +1

    La vache, je débarque ici par hasard après tout ce temps à baigner dans l'informatique, et ben c'est du superbe boulot ! Allez hop, abonnement immédiat ! GG l'ami... =)

  • @sofiyan_ifren
    @sofiyan_ifren 3 роки тому +1

    Chapeau l'artiste tu as envoyé du lourd ! 😉
    En tant que dev j'ai beaucoup galéré avant de trouver des personnes aptes à bien comprendre le système sur lesquels tournent les programmes, même parmi les sysadmin. Alors je te fais un compliment 😅

  • @user-cz6pf4yx1i
    @user-cz6pf4yx1i 3 роки тому +1

    Toujours au top .Encore mieux maintenant on voit que ta plus de temps hi:) Thank

  • @ggousier
    @ggousier 3 роки тому +2

    Intel et AMD sont loin d'être en PLS du moins pour le grand public parce que connaissant la politique commerciale d'Apple .. :) Les Mac actuels sous architecture x86 coûtent 2 fois plus chers que la concurrence. J'ose même pas imaginer le prix de ces nouveaux produits. :) Par contre avec cette migration d'architecture Apple retrouve tout son ADN. Think different ! :)

  • @goulvenbazire6272
    @goulvenbazire6272 3 роки тому

    Excellente vidéo, merci ☺️ +1 (Le papier old style reste assez indémodable, lorsque bien associé à une bonne explication)

  • @amau345
    @amau345 3 роки тому

    Très claire et très intéressante à regarder .peut être qu'une musique de fond pourrait être intéressante pour être plus agréable mais sinon super

  • @kidam2448
    @kidam2448 3 роки тому +1

    Géniale cette vidéo!!
    Très bien expliqué!!
    Merci!!!!!!👍👍👍🙏🍻👌

  • @Aken0o
    @Aken0o 2 роки тому

    OMG je viens de découvrir ta chaine je m'abonne direct !! Super boulot O_O

  • @zoomy_
    @zoomy_ 3 роки тому +2

    Super vidéo, super bien expliqué !

  • @NonoLeHero
    @NonoLeHero 3 роки тому

    Très bonne vidéo, très instructive, je comprends mieux le prix des iphones (non, je ne m'était pas renseigné avant) étant donné qu'ils développent leur propre processeur. Et ça donne envie d'aller voir par chez eux dans un futur plus ou moins proche pour une machine de travail.

  • @TERRY060567
    @TERRY060567 3 роки тому +2

    Merci 😊