AMD a broyé son fer noir à l'époque des Bulldozer et sa série FX dans les années 2014 / 2015, ils ont réussi à s'en sortir, à Intel de s'en sortir, c'est comme ça.
Pourtant Intel a bénéficié des talents de Jim Keller qui est à l'origine des Ryzen. Il est ensuite parti chez Intel pour les série 12 qui sont un succès mais depuis c'est la chute
Il y a une différence, amd à bénéficié des bonnes ventes des Radeon HD ainsi que la vente des APU pour consoles de salon pour garder la tête hors de l'eau. Intel n'a rien de tout ça.
Pour ma part, la mesquinerie de trop d'Intel c'était l'abandon des joints à l'indium après les Sandy bridge. Cela avait augmenté la chauffe pour gratter mojns de 1$ par CPU alors que les 4/8 étaient vendus plus de 400€...
@@laurentlefellic : Pareil à partir de 7th gen j'avais déjà des doute (j'étais encore sur du Intel d'ailleurs) , puis avec la 9th gen puis le succès de l'architecture ZEN . Je suis donc passé aux Ryzen et là j'ai vite vu la différence. Intel nous ont clairement banané pendant trop longtemps. Et donc la roue tourne c'est le jeu . Même si j'espère qu'ils feront comme AMD , et donc finiront par ce relevé. Mais quand je vois la 15th gen d'Intel pourtant grzvé par TSMC ... Je comprends pourquoi AMD n'est pas du tout inquiet pour le moment ! Mais faut aussi remercier la nouvelle dirigeante et je suppose ces collaborateurs d'AMD (en 2016/2017) qui ont su remettre AMD sur le droit chemin . Et moi j'ai connu plusieurs périodes de gloire (début 2000 c'était AMD puis 6 ans plus tard le retour d'Intel) et là je vois que cela fait quasiment 7 ans qu'AMD sont revenu dans le game (pour un tas de raisons pas seulement le changement des dirigeants d'AMD) , comme le pari de faire les consoles de salons (enfin les composants internes) , des Ryzen a des tarifs attractifs et compatible sur minimum 4 génération voir 5 génération (si on prend en compte les Ryzen 4000 qui étaient plutôt fait pour les laptop mais on pouvait aussi en avoir sur PC mais l'impact était minine , un peu comme les Ryzen 8000G qui intégré pour la première fois la fonctionnalité AI Engine mais comme AMD sont un peu nul en marketing on en avait pas trop entendu parler pourtant cela montre qu'ils sont aussi dans la course à l'IA mais ils sont un peu plus discret on va dire). Pourtant ils ont re-signé des contrats avec Apple (déjà avec Apple c'est 15 ans de partenariat avec AMD Radeon) mais là c'est du partenariat AMD Radeon sur les puces ARM d'Apple , mais aussi avec Samsung sur les puces ARM Exynos certe ce n'est que le début (2 ou 3 ans déjà quand même mdr) mais ils sont sur tout les fronts. Et ça c'est qqch qu'intel à complètement foiré , chaque fois qu'intel ont subi un échec comme avec l'architecture ARM en son temps et bien ils ont préféré abandonner au lieux de persister . Pareil pour les cartes graphiques c'est pas la première fois qu'intel mise dessus mais à chaque fois ils ont abandonné. Même si pour le coup là ils avaient vraiment mis le paquet sur les Intel ARC mais niveau vente c'est désastreux sans oublier que niveau perf on est encore très loin des GPU AMD/NVIDIA. Même là ils ont repoussé la sortie de la seconde génération des puces Intel ARC car ont décidé de revoir la conception de leurs GPU ... Ce qui n'est pas du tout bon signe . T'ajoute à cela le manque de différence de performances entre la 13th/14th et la 15th gen d'Intel dont la 15th étaient censé être "révolutionnaire" ... C'est surtout censé vous faire changer de carte mère 🤣. Bref AMD ont tout compris même si parfois ils ce plante mais ils ce relève toujours . Et là ils ne sont pas prêts de s'arrêter en si bon chemin . Mais il faut quand même qu'il y ait de la concurrence sinon le prix des CPU d'AMD vont commencer à augmenter (ce qui est d'ailleurs déjà un peu le cas avec les Ryzen 9000) , et ils ne faut surtout pas qu'ils prennent la grosse tête. Bref faut faire tout l'inverse d'Intel quoi ! 🤣👍
@@t1m-kintek2k49 Mon dernier INTEL a été le i7 6850K sur plateforme X99 LGA2011. Sur leur plateforme semi-pro INTEL avait conservé le joint à l'indium. Mon 6850K en 6/12 chauffait moins que le 6700K en 4/8 sans indium. La carte mère coutait cher (pour l'époque : 200€) mais largement compensé par le fait que la DDR4 3200 mhz coutait un bras (300€ les 16Go). Je m'étais orienté vers 4x4 Go de 2400Mhz C15 et, grâce au quad bank, pas de perte de performances, surtout pour 150€... Et enfin, j'avais dégoté le 6850K à 300€ en promo alors que le 6700K était à 400€ minimum. Au final, j'avais en 2017 un CPU 6/12 qui ne chauffait pas avec 16Go ram et la carte mère qui va avec pour 650€. Une plateforme 6700K m'aurait couté au minimum 100 à 150€ de plus sans compter la chauffe plus importante. Les INTEL 12e génération étaient pas mal, et auraient pu me convaincre. Dommage que INTEL ait caché si longtemps que les 13e et 14e génération aient des problèmes de fiabilité. Ca ne respire pas la transparence... De retour sur AMD après mes premiers amours sur ATHLON XP et BARTON tant que l'AM5 vivra.
Avec un CA en 2023 à plus de 54Mds de dollars, je ne m'inquiète pas trop pour INTEL. Début des années 2000, AMD était devant avec ses Duron et Athlon, pendant qu'INTEL nous sortait de bouzes de P4. Vers 2006/2007 INTEL est repassé devant avec ses Core2Duo ! Ces 2/3 dernières années, AMD est repassé devant, jusqu'au moment où INTEL reviendra plus fort, c'est le jeu... A mon sens, le danger vient plutôt de NVIDIA...
Il s'agit d'un chiffre d'affaires, et non d'une entrée de trésorerie réelle. J'ai également hâte de découvrir ce que NVIDIA pourra proposer en matière de processeurs (CPU)
Bonjour, il est vrai que Nvidia entre dans la voie des cpu mais il est bon d'avoir de la concurrence,. J'avoue que mon I9 13900kf m'en a fait voir et le patch qui ne répare absolument rien n'a pas arrangé les choses. Devant travailler, j'ai racheté une carte mère am5 et le dernier Ryzen 9950x mais je me suis bien documenté avant. Ce cpu n'est pas prévu pour jouer quoique cela fonctionne mais la version 3D qui est 50€ plus chère le permet.
Tes vidéos sont toujours pertinentes sur le fond. Néanmoins, dans la forme, je trouve que tu tournes autour du pot, les vidéos pourraient être plus courte en allant droit au but sans faire de répétition.
perso je suis dans la team AMD sans être fanboy pour autant , AMD a su relever la tête parce qu'il y avait intel en face ,la concurrence est la meilleur chose que l'ont puisse avoir sur le marché de l'informatique , même si je ne suis pas particulièrement fan d'intel , sa serait un véritable désastre s'il venait a disparaitre , on commence a voir se que sa donne par exemple avec nvidia qui a un quasi monopole sur le marché des gpu
Intel et nvidia sont d'horribles entreprises, amd sont moins mauvais, en tous cas pour l'instant. Intel ne sert à rien actuellement sinon à continuer de cracher à la gueule de ses fans. Intel, s'ils arrivent à s'en sortir un jour risqueraient de devenir pire encore qu'ils le sont actuellement. S'ils coulent, moi ça me va. Faudra juste espérer que la concurrence reviendra vite.
@@BreizhSharkFR sa se défend , pour moi si intel disparait , se que je doute , avec AMD sa seras la foire a la saucisse , on vas se retrouver avec des proco qui auront peut évolué et hors de prix vue qu'il n'y auras aucune concurrence en face , c'est pour sa que pour moi , intel doit s'en sortir et je dirais même vivement que Qualcomm arrive aussi sur le marché du x86
@@Le_lorrain Qualcomm sont en proces avec arm, c'est paradoxal :), question de de prix de license, jtoffre un yatch de 24 metre et un jet privé on en parle plus ? (humour) . si on regarde le cours de laction des 2 arm est entrain de gagné le proces :p
@@BreizhSharkFRben j'espère pour toi d'Intel se casse la figure de façon à ce que tu payes tes prochains processeur 2000 balles car pas de concurrence en face 😂😂😂😂
14:20 J'ai perso toujours plus lorgné chez AMD ces dernières années après qu'un de mes laptops Intel avait de problèmes de chauffe/throttle et a cané prématurémrnt (0 souris sur le remplaçant Ryzen + meilleure autonomie), mais avec les PB d'instabilité d'Intel c'est ciao, les PCs du taf qui font de la grosse 3D crashent en compilant le projet une fois sur deux constamment... Difficile de faire confiance à Intel après tout ça, et c'est pas leur derniers Core moins performant que la gen d'avant qui va changer ça...
Il n’y a seulement que le cpu dans cette histoire. La conception de l’ordinateur si elle n’a pas été optimisée pour bien évacuer la chaleur peut aussi poser des problèmes
Salut , c'est vrai qu'ils ont cumulés les erreurs stratégiques . Ils ont fait récemment des erreurs de communication catastrophiques ,que ce soit sur les problèmes liés aux processeurs de 13 et 14e gen ,ou encore sur leur gamme Arc . Ces gpus étaient au tout début, sensés concurrencer la RTX 3070 ,mais on voient que même 2 ans après leurs sortie ,on restent assez loin des performances annoncées . Décevant donc . Décevant aussi leurs processeurs Ultra avec un rapport perf/prix vraiment pas avantageux , si on les compares à la concurrence et encore plus si on prend en compte le changement de socket + la RAM adéquat pour pouvoir en profiter pleinement . Donc tout ça n'augure rien de bon pour la marque et tu fait bien de souligner que ce n'est pas bon signe pour les consommateur non plus . Ce qui est encore plus triste c'est que Intel risque quand même de disparaitre alors qu'il ont énormément contribués à bâtir le hardware que nous avons aujourd'hui .
@@user352-k2v ils l'ont toujours fait, ceux qui parlent de 775 ont mauvaise mémoire, même si le socket restait le même il fallait changer de carte maman.
C'est normal il veulent aller toujours plus vite et là il vont droit dans le mur. Pendant des années il nous on bloquer a 4 coeurs aussi en 2017 c est la que tous a changer il se sont mis a sortir tous les 6 mois.
J'ai commencé avec un AMD K6 en 266 MHz sur Socket 7 et je n'ai toujours acheté que du AMD par la suite. Cette entreprise fait rêver par son évolution. Un bel exemple : Le 25 juillet 2006 , AMD rachète ATI pour 5,4 milliards de dollars ! AMD rentrait de plein pied dans le temple des gamers et depuis c'est la success story que nous connaissons tous ! J'espère évidemment que Intel trouvera des solutions mais j'en doute. Ce marché est très rude, car les gens veulent de la performance et des prix. C'est fini le temps où les gens voyaient "Intel" sur un PC et l'achetaient sans regarder la concurrence. De plus, Internet facilite la vision du marché et des produits, y compris pour des néophytes.
Ne faut il pas aussi prendre en compte aussi la montée en puissance des processeurs RISC (modèle ARM utilisé par Apple), au détriment d'intel et de son architecture CISC?
Ah, les années 2010 chez Intel... Je le souviens être passé sans conviction du i7 2600k, qui était top à sa sortie et est resté un modèle de longévité, au 7700k qui est devenu obsolète à une vitesse folle🙄
Kabylake n'était déjà qu'un refresh frileux de Skylake. Après les i3 et i5 de cette époque restent toujours des processeurs très intéressants pour du home server et media center du fait que y a pas vraiment de solution équivalente à la fois en terme de puissance, de modularité et de consommation idle.
@@ZERARCHIVE2023 ça c'est classique des upgrades ultimes de chaque plate-forme, en particulier celles d'Intel. Mais en vrai ce CPU n'a d'intérêt que pour les collectionneurs.
Le problème sst que cette série de processeurs "grand public" était déjà dépassée, ils avaient déjà des 8 cœurs hyperthreadés mais seulement réservé au domaine plus professionnel qui coûtait très cher ! (J'ai payé plus de 1000 euros pour mon i7 5960X à l'époque !) Clairement le problème est qu'intel prennent les clients pour des c**s !
@@totocoulina9778 bah depuis le Phenom II et l'Opteron, Intel avait le champ libre pour segmenter le marché à leur guise. N'oublions pas non plus que les éditeurs de logiciels ont aussi beaucoup tardé à utiliser plus de 8 threads, ce qui n'a pas arrangé la situation d'AMD.
Merci beaucoup pour ton screen à 11:52 car il m'a poussé à faire des recherches, ce qui m'a permis de répondre à une question que je m'étais toujours posé: c'est quoi le mieux entre "2 barrettes de ram" (en dual channel) ou carrément utiliser les 4 slots de ram que j'ai sur ma carte mère? Ça m'a aussi permis d'apprendre l'existence et la différence entre les ram single/double rank (1R 2R) + de comprendre un peu le contrôleur mémoire d'un processeur.. C'est vachement intéressant et surtout fascinant
Saloperies d'actionnaires. Se sont des vampires. Ils ne produisent rien et sont obnubilés par le fric. Tout pour leur gueule et rien pour les autres. Ils sont même assez cons pour scier la branche sur laquelle ils sont assis, juste pour faire plus de fric tout de suite. C'est pathétique. C'est comme ça dans toutes les boîtes qui sont dirigés par des comptables et non des ingénieurs. En me relisant, j'ai l'impression de lire le com d'un communiste 😀 et pourtant non. Pendant mes études, à une époque où je ne payais pas encore les factures... j'étais très intéressé par la bourse. Une fois devenu actif, je me suis constitué un portefeuille... Bref, j'ai tout revendu et maintenant j'ai compris que la finance est à la cause de bien des soucis. Les politiques devraient intervenir pour assainir, réguler les marchés, mais ils ne sont que les pantins des financiers, alors forcément... ces rapaces et les wokes nous dessinent vraiment une société de merde.
Ne réagit pas en tant que français basique, tu parles d'une entreprise américaine leader du marché, qui n'hésitera pas à licencier en masse pour se maintenir. Aucun doute sur leur réaction. Avec le développement de l'IA, attendons avant de les enterrer, la dernière gen est peut être déjà un coup d'avance sur les développements futurs de leur puce.
Intel Intel.. J'aime bien la marque sans être fanboy, car AMD sont vraiment des bon sur ce coté là Mais clairement le prix, la communication et le changement de socket tout les ans ca commence à bien faire. Et tu as oublié tu as le soket 2011.1 différent du 2011 classique qui propose la prise en charge de la DDR4. Ca me manque l'époque du socket 775. Lui il a durée longtemps, très longtemps et avec une maj de bios tu pouvais tenir des années. Maintenant tu as déjà aussi le problème de l'overclock avec les fréquences bloqué, je trouve ça stupide que seule les versions K ou KF peuvent être OC. Mais pk ? Forcer les gens à prendre une gamme au dessus ? bah super aussi la communication et le forging.. Ca aussi ça peu joué. A l'époque tu prend une gamme juste en dessous moins cher, un petit OC et hop, des perf de la gamme au dessus, plus maintenant.. Pour les ARC ca me fait chié.. Car oui on n'a réellement besoin de concurrence en GPU Nvidia il y en n'a marre de leur monopole, et ça, ça dure depuis trop longtemps ( prix abusif, peu d'évolution en Vram (coucou 8Go) le marché milieu de gamme abandonnée par cette marque avec des prix hors sol etc. ) Seul le DLSS compte maintenant avec leur Raytracing que j'active jamais, car trop gourmand pour ce que ça propose. Et je pointe du doigt que le DLSS est le fautif du manque d'optimisation dans nos jeux actuellement, avec tout les outils de upcaling. Ou est la vrai puissance en NATIF , c'est ça qui compte Pour l'IA bah ouais mais madame Michou, ou Mr bébére, ils s'en foutent quoi. Foutre de l'IA sur toute les gammes de CPU/GPU on s'en fiche, faites ça pour ceux qui on le besoin mais moi perso je m'en tape, j'utilise juste Aria de Opera de temps en temps, c'est tout. Les soucis de n'importe quelle marque, c'est que une fois ou elles rentre dans une phase ou elles est en monopole ou trop à l'aise en manque d'impact de la concurrence, c'est là, qu'elles accumule les erreurs. Nvidia et AMD peuvent eux aussi à leur tour, se cassé les dents à force d'être dans leur petits oreillers en monopole. Ca fait longtemps que pour AMD ou Nvidia par exemple en GPU je demande la création de Gamme sans RT core comme les GTX 1660/1650 Le RT sur les milieux de gamme n'a AUCUNE utilité. Enlever le pour baisser les prix vers le bas et une porte ouverte pour le milieu de gamme et l'entré de gamme une RX 6600/7600 avec RT ou RTX 3050/3060 utilité ZERO le RT Pour les CPU c'est la même pourquoi forcé les Ultra (qui n'existe pas en entré de gamme en i3 Ultra... Elles sont ou ?) Bah retirez les NPU. proposez ça pour ceux qui on besoin, mais comme je dis bébére il s'en fou. Bref on force des techno que pas mal de gens s'en contre fiches, et l'import de ces techno là, ne fait que alourdir le prix, et donc bah les vente.. désolé mais a l'époque je mettait pas 400 balles sur un CPU et le double sur un GPU. Pourtant mon pouvoir d'achat n'a pas spécialement monté alors l'excuse de l'inflation... ca va 5 minutes
@@guillaumeguitarian9642 Oh t'inquiète pas, avant j'avais un crossfire de HD 3870 x2 + 3870 normal avec un AMD X4 bien OC comme un porc, ca fait juste un sacré moment que je suis sur plateforme Intel, mais je te l'accorde je commence en avoir gros. mdr
@@nierautofana7710 Ha ouais quand même 😅 Quoi qu'il en soit peut importe AMD ou Intel tant que le matos est bon mais c'est certains qu'avec un acteur en moins ce n'est pas bon pour le consommateur...
Je vais te contredire et avec un argument factuel. Aucune gpu, à prix raisonnable ou pas, ne permet le jeu en 4k(sur tous les jeux) aujourd'hui et donc oui les techniques de résolution dynamique/framegen etc sont nécessaires MAINTENANT. Et cela n'a aucun rapport avec le manque d'optimisation, c'est juste que ça nécessite une puissance de calcul de malade et que les process de gravures stagnent pour l'atteindre cette puissance. Donc à défaut d'avoir la puissance à un prix raiso disponibles, il faut bien permettre aux joueurs de faire tourner leurs jeux en 4k.
Good deal 24 : méfiance. Il faut préférer l'achat d'une clé USB prête à l'emploi avec Windows et ou Office dessus. Une telle clef constitue la preuve du non fonctionnement et permet la réparation de Windows dans de très bonnes conditions.
Super vidéo avec une bonne analyse, je me demande tout simplement si l'architecture x86/AMD64 n'est pas en fin de vie, et donc sa disparition progressive entraînerait l'émergence d'une évolution vers ARM....
j'ai toujours été chez intel, je voulais justement changer mon proco et prendre un 13eme ou 14eme gen comme depuis toujours quand j'upgrade. Mais j'ai vu les soucis de perfs du coup je me suis rabbatu sur le 7800 x3d, pile le cas que tu décris dans ta vidéo haha
perso tout début 2017 j'avais choisi Intel parce la sortie des premiers Ryzen n'était pas sans déceptions et inconvénients : problèmes de qualité de la première gen de cartes-mères, changements de ventirad et de RAM obligatoires, sortie des APUs trop tardive, peu d'applis qui exploitaient autant de threads, etc. Pour un budget build le tarif du g4560 était aussi très intéressant. Puis j'ai pu trouver une CM qui proposait des ports PCI legacy pour des vieilleries qui auraient été très chères à renouveler. Finalement c'est une upgrade que j'ai vraiment pas payé cher et qui reste encore une partie intégrante de mon infra. Donc pour moi c'est plutôt à partir de la deuxième génération de Ryzen que ça a commencé à devenir compliqué pour Intel.
@@patricklabregere2437 non c'est juste des point de vues différents. Les préoccupations en terme de hardware ne sont pas les mêmes selon l'usage ou le budget. Dans la hype du moment c'était très facile de ne pas voir les inconvénients de la première gen Ryzen, encensée par les reviewers. Si j'avais pu attendre encore un an (j'attendais déjà depuis 2011…) j'aurais certainement pas fait le même choix.
J'ai une carte mère de première génération avec un zen3 16cores actuellement, j'avais au départ un ryzen 1600 et je n'ai jamais eu de problème avec cet ensemble. La plupart des retours sur les cartes mère étaient l'UEFI. Au début de la sortie de ryzen certaines cartes mère ont été distribuées par les fabricant sans l'uefi compatible ryzen. Ce qui obligeait avec ces cartes d'utiliser une apu basée nième gen de bulldo/piledriver pour la mettre à jour. Oui les premiers cpu sorti sur am4 n'étaient pas des ryzen.
@@MrDesillu Il y a eu les problèmes de jeunesse de l'AGESA mais le plus important c'est la qualité des CM. Les constructeurs n'y croyaient pas et ont réduit les coûts sur la série des chipset 300. Beaucoup de modèles ont des problèmes de VRM lowcost et en nombre insuffisant pour les CPU haut de gamme. Et oui quand je parlais d'APU, c'était ceux avec une archi Zen. J'ai volontairement passé Bulldozer sur AM3 donc pour moi ça n'avait aucun sens sur AM4.
J'ai commencé a me sentir dépassé avec mon Core i7 920 (Acheté en 2009) qu'a partir du 7700k... Cette machine je l'utilise toujours en 2024 (pour regarder par exemple cette vidéo UA-cam), probablement le PC le plus rentable que j'aurai de toute ma vie. Un coté positif avec la stagnation, c'est pour la planète, changer de machine tous les an ou 2 ans, c'est pas terrible ! Mais oui voir Intel sombrer, ce n'est pas une bonne nouvelle, et pour personne.
Idem avec mon i7-950 acheté en 2010 je crois et monté sur une Asrock X58 Xtreme, et qui tourne toujours aujourd'hui pour mes gamins auquel j'ai récemment ajouté une rx 6600 ( y'a eu une GTX 970 en milieu de parcours ). C'est clairement pas le haut du panier aujourd'hui, mais ça fait tourner Elden Ring ( sur Linux ! ) avec des performances tout à fait correctes en high ( et plein d'autres trucs évidemment ). Bref une archi qui a 14 ans aujourd'hui... Franchement ayant connu la micro des années 80-90 j'aurai jamais imaginé ça à l'époque XD
@@aristoxenedagonie9316 Je vous rejoint avec mes 2 configs encore en 1155, ma principale avec le i7 3770 et la secondaire avec un xeon e3 1240v2 (équivalent au i7 mais moins gourment) le i7 avec une rx590 et le xeon avec une rx570 toutes 2 de chez Sapphire avec 8gb de vram... Pleinement satisfait des mes machines qui tournent tous les jours! Aucuns soucis pour jouer en 1080p avec la rx590!
Je suis toujours sur mon 920. Seul le gpu et ma ram ont évolués depuis 2010 😅 Je l'utilise pour faire de la m.a.o, de la d.a.o, de l'IA en local (même si là c'est plus le gpu et la vram qu'elle embarque qui joue vraiment), du JV... Mon Q6600 datant de 2 ans avant galère vraiment à côté. Je ne le trouve pas vraiment lent, au contraire, et c'est cette longévité qui me surprend avec ce CPU.
C'est depuis les Core 2 Duo qu'Intel à pris les devant sur son concurrent, AMD a été largué après les K8 (Athlon 64) pour ne revenir en course qu'à partir de Zen, soit 11 ans plus tard, en recrutant le même ingénieur en plus, Jim Keller.
Les phenom II et Athlon II étaient bien plus intéressants que ce qu'il y avait en face. Perf/prix, arrivée en premier du sata III et de l'USB 3.0 et un socket qui a duré très longtemps. 10 ans après le pc était réparable. Chez intel c'était mort pour avoir une CM après 2/3 ans. Les pauvres ayant "investi" dans le 1366😅
@TheFredom1989 J'étais sur 1366 justement, d'abord avec un i7 920 et ensuite avec un 980X acheté d'occaz, en plus de leur possibilité doverclocking, ses performances étaient tellement bonnes qu'il n'y avait aucune utilité à changer de plate-forme sur plusieurs années à tel point que je suis passé directement sur Zen en 2017. Le X58 a été une des plus belles réussites d'Intel.
@@nonodu09200 Idem. I7 920, ensuite X5650. J'ai changé il y a 3 mois pour un 7800X3D à 200€ sur une plateforme encore valable quelques années pour un drnier upgrade de processeur. J'achete malin et le 1366 fut mon meilleur investissement.
@@TheFredom1989 à fréquence égale ils étaient 25% inférieurs, et en plus chez intel, ça prenait des Ghz à ne plus savoir quoi en faire. Par contre les cartes mères étaient un vrai problème... Les phenom étaient surtout intéressants comme choix éco, surtout si on avait la chance de pouvoir débloquer un coeur désactivé
Si j'ai une rtx 3070 ou 3080, est-ce que cela vaut le coup de passer à une rtx 4070 et/ou ti juste parce qu'elles consomment 100 watts de moins à performances plus ou moins similaire ? Est-ce que 100 watts d'écart, c'est énorme et très économique ?
Passer de la 3070 à la 4070 te fera gagner pas mal de perf que ce soit en rasterisation ou en raytracing. Tu auras aussi en plus le frame gen de nvidia et 4go de vram supplémentaires. Sans parler de la consommation et de la chauffe nettement revues à la baisse. Pareil pour le passage de la 3080 à la 4070. Sauf que là tu auras 2go de vram supplémentaires et non 4go. Et si tu as la chance d'avoir le modèle 12go de la 3080, là aucun gain en vram.
Je suis passé d’une 3070ti à une 4070ti et j’ai eu un assez bon gain surtout dans les jeux ou les 8go de vram n’étaient pas suffisants en 1440p. Et sur les jeux ou le dlss 3 est dispo ca fait presque du x2 en éliminant des drops à 20fps quand la vram est saturée
19:55 Je pense que ton point de vue n'est pas tout à fait assez complet concernent intel ARC : ce ne sont pas des cartes destiné aux joueux à la base, ce sont des cartes qui ont été conçut pour faire une concurrence frontal a Nvidia concernant l'usage des logiciels qui sont acceléré via notamment les instruction CUDA chez nvidia. Et de ce point de vue là elles sont parfois ( tout dépends des logiciels) tout a fait compétitive et d'ailleurs ils en vendent. J'ai beaucoup hésité a en prendre une ( pas de jeu) et finalement j'ai pris une Nvidia a 550 balles qui me donnent a peu près les même performance sur le logiciel que j'utilise qu'une ARC dans les même prix.
Souvenirs des 386, 486.. Puis Pentium 2 et 3, Core 2duo. Le dernier Intel que j'ai acheter c'est un 4670k qui fonctionne encore très bien. Mon premier Pc neuf avait un Pentium 100mhz. Pas terrible si Nvidia prend le monopole sur les CG et les CPU. 👍
@@cece1391 j'ai la même chez moi, mais bon je ne suis pas un gros gamer, malgré cela il ne rame jamais. Il y a mieux évidemment mais ce i7 est équivalent au 7700k. La gen4 de intel I est pour moi la limite suffisante pour faire le taf.
Moi mon 1er pc c'était un 486 DX il me semble avec un quartz de 66 ou 166 avec MS-DOS 2.35 couplé avec windows 3.11 a l'époque je n'aimais pas linux car pas trop d'interface. a
J'ai encore mon ryzen 1600, pour l'instant je ne voit pas l'intérêt de changer, ça convient encore à mes besoins, et je suis bien content de pouvoir upgrader plus tard vers un ryzen de 5eme génération sans avoir à changer ma carte mère et ma Ram.
Pour un usage Gaming, il est inutile de changer de processeur, ils sont généralement à 10% d'usage en 4K 60fps sur un AAA, la seule exception que je connaisse est Flight Simulator.
@@ludofast1 le 5800x ne me quittera plus ne t'en fait pas ... j'ai changé le 1800x car pas éligible win11 et en plus j'ai besoin de puissance multi cœur pour logiciel calcul de structure. Ya cyberpunk aussi je crois mais oui tu as raison sa passe crème le reste
A mon avis, les nouveaux cpu intel sont prévu pour etre pleinement fonctionnels pour windows12. L'ia a titre amateur/gamer ca va etre pour faire des recherche sur l'ordi ou sur le net directement en vocal, la traduction automatique en temps reel en vocal sur toute source video/sonore, la retouche d'image et de son, pourquoi pas par voie vocal.... genre "détoure moi cette objet là, et colle le sur cette autre image ici".... Et puis pourquoi pas la sécurité du poste via l'ia... Quant aux déboires d'intel, je pense que vous avez une bonne analyse.... Mais j'ai l'impression que c'est un peu plus compliqué que cela.... je pense a une histoire de guerre de monopole entre nvidia, amd, intel. En efet, je trouve tres bizarre que les youtubeurs parlent de guerre entre nvidia et amd alors que les dirigeants de ces 2 sociétés sont de la meme famille... jusque vers 2015 amd etait dans les choux avec ses cpu, et avait obtenu une avance considerable par rapport a nvidia sur le marché du gpu... curieusement depuis environ 2014-2015, amd n'arrive plus qu'a suivre nvidia... Mais curieusement, il sont devenus petit a petit meilleurs qu'intel, notamment et comme par hasard, depuis que l'on sait qu'intel a eu de gros problemes d'architecture/microcode. Pour moi on a affaire, en plus de votre analyse, un faux duopole sur le marché des cartes graphiques, qui est en réalité un monopole "déguisé"... Un peu comme Asrock et Asus (mais il y en a d'autres), ou les produit les plus innovants et haut de gammes sont réservés en 1er pour Asus... j'ai l'impression que c'est la meme entre nvidia et amd. Et intel dans tout ca ? Ben... Intel est l'obstacle 'actuel" le plus direct (il y a qualcomm aussi mais pour l'instant sur d'autres marchés... cpu smartphone et norme wifi principalement) pour le monopole, d'autant plus que l'on vient d'apprendre que nvidia se lance aussi sur le marché du cpu.... Tient tient vous avez dit bizarre? comme c'est bizarre. J'ai peur que intel subisse du sabotage destiné a l'affaiblir....
Normal, quand on rogne sur le budget recherche pour distribuer des dizaines de milliards de dividendes aux actionnaires chaque année... Voilà le résultat ! Intel qui occupait 32% de PDM des Semi -conducteurs (pas que les CPUs) au début des années 2000, ne représentait plus qu'un peu plus de 8% en 2023. Et maintenant ils pleurnichent auprès du gouvernement américains pour qu'on les aide face à la concurrence, tout en continuant à distribuer des dividendes. Pendant cette lente descente destinés à favoriser les pauvres actionnaires, les sociétés chinoises, comme SIMC, ont investit 150 milliards de dollars pour rattraper leur retard. Comme le dit Rémi Gaillard... c'est en faisant n'importe quoi que l'on devient n'importe qui.
@@LeJuste12 C'est pas une limite : c'est juste un problème de mauvaise gestion court-termistes de la part d'Intel. Ce qui favorise ses concurrents, elles aussi sociétés à capitaux privés, AMD, NVidia et Qualcom.
Bonjour, d'ailleurs par rapport aux instabilités des processeurs 14ème génération d'Intel, j'ai posé la question à mon fournisseur de PC Acer qui a choisi ce type de processeur. Silence radio, pas de réponse...
On ne s'inquiète pas trop pour Intel puisque l'entreprise est bien trop importante pour l'état Américain qui fera tout pour l'empêcher de couler. Pareil pour ce qui est d'un éventuel rachat, je pense que les autorités de régulation de la concurrence bloqueront le truc au maximum. Par contre c'est sûr qu'il y a beaucoup de travail pour redresser la barre, et le pire truc qu'il pouvaient faire c'est se rater sur la 1er génération de core Ultra alors qu'ils viennent de créer l'appellation... Peut-être qu'ils enterreront ça rapidement et reviendront à des Core i 😆
Bonjour, je partage entièrement ton analyse sur le fait que sans concurrence, le leader imposera les prix qu'il veut. Nous avons déjà connu cela avec les GPU. Nvidia pratiquait des prix démesurés lorsque AMD était dans les choux. Très bonne vidéo, intéressante et instructive. Continue ! Dans l'attente de ta prochaine analyse. J'ai utilisé ton code promo concernant les clés Windows 11. Tout c'est très bien passé. Merci, @ plus
Intel peut remercier leur ancien CEO Brian Krzanich pour les avoir foutu dans cette position. C'est sa politique de refresh et non innovation couplé à des rachats de société juste pour acheter (McAfee, Altera etc..) et des échecs tonitruants sur d'autres domaines (de mémoire en télécommunications) qui ont mis Intel dans cette position avec 10 ans de léthargie. Puis faut pas oublier qu'Intel s'était déjà délesté de 10% de ses effectifs en 2015 !
Contrairement à Intel, AMD avait une botte secrète pour subsister pendant ses années difficiles : les consoles. La Xbox one et la PS4 étaient basées sur les FX ce qui a probablement dû leur garantir des milliards en ventes. Je ne sais pas comment Intel va faire pour subsister en l'état ...
Je suis du même avis que toi sur l'avenir de Intel après il ne peuvent que s'en prendre qu'à eux même pendant des années comme tu le souligne dans ta vidéo ils n'ont pas vraiment fait de grosse évolution et même vers la fin la gén 13 & 14 ne sont que du refrech du 12, je parle même pas du 11 qui était pire que la gén 10 surtout dans le haut de gamme, le plus gros défaut d'Intel c'est de s'être endormi sur ces lauriers et ne pas avoir su rebondir au tacle d'AMD en 2017.
Il y a d'autres aspects importants qui n'ont pas été abordés : - le choix d'Apple de développer ses propres processeurs au détriment de ceux d'Intel - les retards des processus de gravure par rapport à TSMC. AMD a su très vite anticiper et a vendu ses fonderies et s'est concentré sur la conception - l'arrivée de ARM en concurrence directe avec les x86 sur le marché des laptops, et bientôt des desktops - et enfin, et non des moindres, l'annonce de NVIDIA qui fabriquera des CPU ARM ce qui est une très mauvaise nouvelle pour l'architecture x86
Salut, bonne analyse, bravo, intel et ses multiples changements de socket, c'est pénible et une grosse erreur pour moi ! Juste une chose, on dit "se reposer sur ses lauriers" et pas loriers..... Peux-tu faire une vidéo sur les différents OS (opérating system) qui sont sortis pour les x8086 depuis leur début ? (dos, drdos,os2 ibm etc...) Bonne continuation.
Le problème dans le milieux du développement c'est que les logiciel principaux sont bâtis autour d'intel et de Nvidea comme par exemple le CUDA de blender et le Nvidea Iray de daz studio. Il à parfaitement raison lorsqu'il parle de stabilité, sur des machines à plusieurs milliers d'euros qui n'ont pour fonction que de compiler des scènes complexe, ça fait un bout de temps que l'on utilise plus de format vidéo mais des formats d'image puisqu'à pleine charge, un proc intel est une horreur en terme de stabilité, donc si ça crache, ont recommence là ou ça à planter mais ça fait une charge de travaille supplémentaire et comme il le dit une nouvelle fois ( bravo l'artiste ) sur chaque nouvelle installation un downgrade est systématique pour les proc intel mais peu à peu, la stratégie change au profit de l'amd avec de nouveaux outils développer pour AMD sur Blender qui remplace peu à peu les fonctionnalité d'intel et bien que moins performent la stabilité est incomparable. Pour ma machine perso, la même, j'ai downgrade mon proc sinon mon pc ne fait que chanter lorsque je fait la création d'asset haut poly. Mais c'est claire, des que je peu, je passe du côté d'AMD des que les fonctionnalité sur Blender seront présente. Je pense au cycle et au Nvidea Iray de daz studio.
11:48 je crois c'est juste un problème d'interférences c'est pour ça tu pouvais pas trop oc ta ram si tu avais 4 barrettes car le signal devenait trop inutilisable.
4:30 Comment peut-on affirmer que les différentes générations de processeurs n'ont pas d'améliorations significatives? Chaque modèle améliore énormément la vitesse d'exécution en réduisant le nombre de cycles nécessaires pour faire les mêmes calculs. On a pas pu améliorer la vitesse en Hertz des processeurs mais on a mis des circuits qui permettent de faire les calculs toujours plus proche de 1 cycle. C'est énorme. Voir Intel Intrinsics Guide, spécifications Latency et Throughput.
Second commentaire un peu hors du commun, mais en tant que Linuxien, Intel est synonyme de sérénité. Le constructeur fait des pilotes libres intégrés dans le noyau depuis quasiment toujours. Donc ça "marche" sans rien faire, sans installer aucun pilote, et toutes les fonctionalités sont accessibles. AMD fait pareil depuis quelques années, et NVIDIA vient tout juste de s'y mettre. Donc sur Linux on doit beaucoup à Intel !
Mmmouais, j'utilise linux depuis environ 2006 et je n''ai jamais vu autant de bugs que chez intel pour leur pilote vidéo donc je suis moyennement convaincu par l'utilisation de leurs produits. Du coté d'amd, l'affichage est leur coeur de métier, contrairement à intel avant la série ARC, donc le support (notamment des api 3d) est un cran au dessus. De mémoire amd fait ça depuis bien plus que "quelques années" mais au moins une décénnie passé. J'observe de très rares bugs chez amd dans leur pilote d'affichage en comparaison à Intel. J'espère que ça va changer avec ARC.
Bulldozer n etait pas vraiment un 8 coeur. y avait je crois 8 unites pour les entiers et 4 unites pour les floating points . C etait plus un hybride. Une tres bonne idee selon moi. Mais apparemment, ils se sont plantes dans l implementation.
14 днів тому
le problème principal vient du fait que les jeunes pensent toujours meilleurs que les anciens, alors qu'ils leur doivent ce qu'ils savent ! De fait les ingénieurs d'aujourd'hui n'appartiennent pas à la génération innovante qui a créé Intel au cours des seventy's : Ayant eu la chance de faire mes stages d'ingénieur chez Intel peu de temps après la création à l'époque des premiers processeurs 8 bits, alors que le 8086 était encore à l'étude j'ai connu des projets dont certains ne sont pas sortis faute de clientèle: par exemple l'IAPX432 qui était un quadruple-processeur parallèles équipés du système d'exploitation et du langage de programmation ADA implantés au niveau du silicium ! mais ça remonte à 50 ans en arrière et les génies du départ ne sont plus là...
Salut ! Je prends la vidéo avec un peu de retard. Je suis toujours impressionné par ton décors et ton flot très clair de paroles :) Pour casser un peu de sucre sur le dos d'Intel: 1) Ils ont pris les consommateurs pour des vaches à lait pendant quasiment 10 ans (jusqu'à la sortie de Ryzen). Tu te rappelle des processeurs "K" ? En gros l'overclocking était INTERDIT et IMPOSSIBLE sur les processeurs Intel, sauf si tu prenais les modèles "K", plus chers bien sûr. Ca et le fait qu'ils segmentaient artificiellement leurs gammes et bloquaient à 4 cores maximum pour le grand public. 2) Intel a été condamné en 2009 pour abus de position dominante car ils avaient passé des accords avec des constructeurs. Ces derniers devaient acheter du 100% Intel en échange de ristournes. C'est un coup bas qui a probalment fragilisé AMD (heureusement qu'ils avaient les consoles). Pour AMD: 1) Tu dis que Bulldozer faisait du "vrai 8 cores". Je me souviens au contraire qu'il y avait des polémiques là dessus. Certains disaient que c'étaient des 4 cores et que le marketing les vendaient comme des 8 cores. Wikipedia semble dire qu'AMD a été condamné pour ça. En tous cas les benchmarks montraient que c'était naze, voire même inférieur aux Phenom II, un comble. 2) Je me souviens du Bulldozer AMD FX9590 et son TDP de 225W, démentiel ! C'était une puce overclockée à mort pour tenir face aux Intel. Oui, Bullzdozer c'est vraiment de la m****. L'ironie c'est qu'aujourd'hui Intel vend des processeurs eux aussi overclockés à l'extrême pour tenir tête aux Ryzen. Pour défendre un peu Intel, ils ont subit l'inflation ainsi que la concurrence d'ARM. Apple les a laissés tomber pour passer sur des puces maison, et au niveau des serveurs on commence à voir arriver de l'ARM64 (par exemple sur Azure). Mais le capitale sympathie d'AMD joue beaucoup, comme tu le dis. Par contre j'avoue que déléguer à TSMC, ça pue. Cela montre qu'Intel n'arrive pas à maitriser les processus de gravure les plus bas :(
Ils ont abusé de pratiques anti concurrentielles et n'ont pas innové durant une longue période. Le management, la financiarisation ont tué la marque tt simplement. Comme Boeing, ... Le futur c'est Arm.
Ce qui est bien c’est qu’avec la concurrence actuelle très féroce le prix des processeur baisse et les performances augmentent à un rythme très soutenu… en ce moment entre Qualcomm et Apple ça dépote !
Tu ne parles pas aussi des proc intel en "K" qui sont dédiés à l'overcloking, ce sont les meilleurs proc actuels (evidemment il ya aussi AMD et qui je pense y sont pour quelquechose sur la descente: le prix ?) mais sur ce point ils sont performants :) edit : tu en parles plus tard ^^
"Thread" ce prononce "frêd", pas "trêd", quelle idée ? Je ne suis pas du tout de ton avis sur AMD. J'en utilise depuis plus de 25, en commençant par un DX266, sauf une fois où j'ai eu un Celeron en dépannage : je les ai toujours trouvé très bons, avec un excellent rapport qualité prix. Partant de là, évidemment que le plus cher d'Intel a été longtemps meilleur que le plus cher d'AMD, mais celui-ci est bien meilleur que Intel pour un même prix. Le meilleur CPU ne le reste pas longtemps...
@@ludofast1 Ah parce que corriger une faute grossière dans la prononciation d'un mot (courant dans le domaine...) ça s’appelle de la morale ? Je te suggère de consulter le site du CRTL pour découvrir le sens du mot. PS : on s'en fout que "anglais adorent quand on prononce à la française" vu que ce n'est pas une vidéo en anglais.
C'est une mauvaise "manie" qu'ont les français de prononcer le "th" anglais de façon erronée en le remplaçant carrément par un "z" ou "f"... en occultant totalement le "t" qui doit rester présent mais faible dans la vraie prononciation anglaise.
Étant déjà sur la plateforme AMD avec un r7 3700x, il est temps pour moi d'upgrade et l'idée d'aller vers Intel est présent mais avec tout ce qu'il se passe (fiabilité des processeurs notamment, même si c'est réglé avec une MAJ BIOS (à priori)) je ne suis pas rassuré d'aller vers Intel et je vais rester sur AMD avec la plateforme AM5... Même si, le prix du R7 7800x3D fait mal actuellement...😮💨 (Petit indications, je veux faire principalement du gaming, stream et montage vidéo)
Merci pour cette vidéo très instructive qui m'a fait me souvenir d'une vieille histoire d'Intel aussi qui avait fait le buzz aussi vers 1996 je crois avec si j'ai bonne mémoire son fameux Pentium MMX qui était bugué dans ses calculs à partir du 8ème chiffre après la virgule je crois... La presse spécialisée en avait pas mal parlé à l'époque et déjà Intel s'était retrouvé dans la tourmente.
Je me souviens d'un mec (puriste Intel) au lycée qui avait choisis des composants pour un pote et dont la carte mère n'était pas compatible avec le proc. Une histoire de version ou compatibilité pour une malheureuse ligne dans la fiche technique... J'étais déjà pro Amd à l'époque possédant toujours un vieux FX-8350 et n'ayant pas encore les moyen pour changer. Mais je savais que je resterais chez Amd. (En plus j'y comprend rien dans les socket, je viens de découvrir d'ailleurs que les LGA 1366, 2011 & 2066 étaient "grand public"; Formidable... ils s'ajoutent aux LGA 1155, 1150, 1151, 1151-V2, 1200, 1700)
J'étais passé au Ryzen en 2019/2020 pour le rapport performence/prix que je voyais bien plus intéressant que chez Intel et aussi pour l'évolutivité du socket. Et bien que je voyais ca avant meme d'imaginer un seul instant qu'Intel se retrouverait au plus mal, tout ce qui s'y passe est purement logique au final. Si intel tombait (ou se faisait racheter) preuve que "too big to fail" n'est qu'une théorie. Du coup merci pour cette vidéo bien complète. Je l'enverrai aux personnes à qui j'avais discuté de ca qui ne saisissait pas trop de quoi il en est.
Il y a un article de canard pc qui date des serie 7 ou 8 je ne sais plus... De mémoire ils pointaient des pbs de management en interne. En gros les gars du marketing ont pris les rennes et n'ont chercher qu'à faire du cash avec moins de R&D.
Belle analyse Il aurait fallu parler de la montée en puissance de ARM. L'architecture x86 n'a pas d'avenir, elle n'est plus adaptée aux usages présents et futurs. Un rachat par Qualcomm permettrait d'injecter les brevets arm dans intel, et sauver la boite d'un désastre
Intel s'est effectivement trop reposé sur ses lauriers à l'époque ou AMD pédalait dans la semoule. Et même après, AMD avait commencé à parler longtemps à l'avance de leur nouvelle architecture Ryzen qui avait l'air très prometteuse et ils n'ont pas réagi immédiatement notamment car Intel gardait une bonne avance pour les jeux vidéos et qu'AMD essuyait quelques plâtres sur sa première génération de Ryzen. Mais dès la deuxième génération, ça ne rigolait déjà plus du tout. Le retard était rattrapé et l'avance en applicatif commençait à être stratosphérique avec en plus une consommation défiant toute concurrence. Dans un premier temps on a eu le droit à une augmentation brute du nombre de coeur et depuis la 12ème génération l'apparition des coeurs à haute efficacité énergétique pour revenir dans la course. Si on additionne ça à la hausse des consommations et des problèmes de stabilité en plus du fait que les nouveaux processeurs Ultra soient décevant alors que pourtant ça fait longtemps qu'ils bossent dessus, on comprend que ça commence à se casser la gueule. Côté carte graphique, on aurait pu penser qu'ils avaient un boulevard pour l'entrée/milieu de gamme vu les tarifs pratiqués par les concurrents ainsi que les performances sur ce segment qui n'est franchement pas très glorieux mais même là ils sont à la ramasse sur tout les points et si pendant une période on les voyait sortir des drivers qui amélioraient drastiquement les performances, on observe depuis quelques temps que ce n'est plus le cas alors qu'il y a toujours du retard à ce niveau. Les prochaines années vont être compliqué pour Intel. J'ai vu passé des news comme quoi Nvidia se lancerait dans les processeurs x86, à voir si ça se vérifie mais c'est possible que ça pousse Intel encore plus vers la sortie.
Si j'ai bien compris les Core Ultra ont améliorés l’efficacité thermique du coup avec a peine plus de perf en fait ils auraient du sortir de processeurs en jouant à mort sur la "faible" (comparé aux génération précédentes) conso et un prix ultra concurrentiel, ce qui est l'avenir, déjà avec les processeurs ARM c'est déjà le principal avantage et va commencer a bien concurrencer intel et amd.
J'ai toujours été AMD depuis que je monte, je n'ai jamais été déçu, et en ce moment, vu que chez Intel c'est un peu une loterie qu'on n'est pas sûr de gagner ...
Entre les triches sur bench, sur leur compilateur et les tentatives d'étouffer leur concurrent, je trouve pas ça dommage du tout. D'autant qu'avec l'échec de bulldozer, ils se sont gavés sur votre dos sans se fouler avec des puces minuscules à seulement 4 cores à 300 eur et + Ils se prennent encore une fessée avec la sortie du 9800x3d et c'est tant mieux pour nous. De plus Intel ne sait pas gérer correctement sa barque depuis des années, donc ce serait une bonne chose que la direction change via un achat.
Je ne suis pas du tout d'accord avec l'analyse des causes. AMHA elles sont bien plus anciennes (dès les Core II Duo), avec une conjonction de causes : une série de failles hardware (Meltdown et autres), le manque de maitrise de la conso, l'abandon de l'architecture par Apple, la concurrence de RISC V, etc.
Il y a le problème aussi des barrettes soudées, les fameuses lpddr5 et 4... 😢 Qui limitent l'évolution même juste d'un niveau sur les laptops de dernières générations, et toujours la gourmandise du système d'exploitation principal...
Je garde mon I7-8086k qui fait le taf avec sa rtx3060ti. Et quand je vois de quoi mon ancien i7-3770 avec sa rtx2080 est encore capable, vraiment pourquoi changer ?
@MarcfromParis bof, je ne joue plus vraiment. A vrai dire, je n'ai même pas besoin d'une rtx2080 dans ce pc, une gt730 ferait tout aussi bien l'affaire. Et puis j'ai 55 ans. Non seulement je n'ai plus les réflexes de mes 20 ans, mais en plus un écran 1080p est bien suffisant pour mon usage quotidien. J'ai essayé le 4k, les pixels sont trop fins et finalement c'est inconfortable
@ Mon premier PC a été un ZXSpectrum en 1982 donc on est de la même génération. J’ai un 9700K OC comme un porc sur une 3080, et je suis en bottleneck dans tous les jeux AAA. Ton processeur « anniversaire » et malheureusement lui aussi a l’agonie avec sa 3060ti…
@ et bien si pourtant, et en 1440P. Mon CPU tourne à 100% dans Avatar et The Last of Us par exemple. Mon 9700K est à 5.2Ghz, la 3080 et a 2100Mhz et tout est sous watercooling custom
Salut ! tout a fait d'accord avec ton analyse sur intel, je dirai que la roue tourne et intel s'est cru invincible. Actuellement je suis sur le point de changer ma config , encore sous am4 qui fonctionne très bien mais j'ai hésiter entre intel et amd am5 mais au vu des problèmes avec intel 13 ou 14e gen et les prix de folie sur nouvelle génération intel ultra qui sert e rien j'ai choisi de rester chez amd en am5 . LEs cartes graphique intel c'est un peu comme a l'époque la gamme amd fx , ratage complet . en attendant on sort le popcorn et on regarde 🙂. il ne faut pas oublier que amd possede un grand marché des consoles également.
Salut, il y a clairement des erreurs stratégiques face à un concurrent en mode rouleau compresseur actuellement… c’est triste pour le consommateur qui va pâtir des prix ! Si je renouvelle ma config l’année prochaine, je passerai chez les rouge pour le processeur !
Le problème de la disparition d'Intel c'est déjà la fin du seul concurrent de CPU x86. Et j'ai pas vraiment envie de les voir finir. La fin d'un concurrent potentiels de carte graphique surtout qu'il y en a bien besoin. AMD ayant abandonné le marché. Enfin la fin d'un des dernier fondeur de microprocesseurs indépendans.. C'est incroyable !! Alors que ce sont des bons fondeurs. (Au passage seul les dernier Intel core PORTABLE sont fondus par tsmc. Probablement car ils sont les seuls a savoir faire des CPU non energivorre. Mais ça va mécaniquement monté les prix. Et franchement surtout pas Qualcomm. C'est une purge cette marque ! Triste triste.
Je me souviens de 2015-2016, quand je disais qu'il manque de concurrence et que je croyais en AMD pour les prochains CPU pour avoir plus de concurrences et qu'ils allait rattraper leurs retard, les gens me riaient au nez. Je voyer bien qu'Intel profitait de la situation et se tourner les pouces. Nouveaux CPU + socket + augmentation de prix... Quand AMD a sorti les 1ers AMD Ryzen 7, en à peine 1 mois après, j'ai acheté le Ryzen 7 1700 que j'ai overclocké et que j'ai toujours dans le PC avec lequel j'écris ce commentaire.
Pour moi, il n'y a qu'un seul problème... le prix. Tous les produits Intel pourraient trouver leur marché mais à la condition d'une forte baisse de prix car le rapport qualité/prix n'est pas bon du tout.
Tu as oublié de parler des Ryzen X3D qui cloquait, précisément sur les pins servant à la gestion du voltage. Très bonne vidéo Clément. Mais comme dis dans un autre commentaire, je trouve que tu tournes parfois trop autour du pot. En tout cas, j'espère qu'Intel va s'en sortir. Croisons les doigts. 🤞
pas vraiment non. Le Pentium 4 était une impasse comme le sera Bulldozer. Ils ont fait avec ce qu'ils avaient le temps de finaliser l'architecture Core.
Le truc c'est que y'a un vrai problème au management chez intel car c'est quand même terrible de se foirer autant... Je pense que les gens n'en parle plus trop car c'est la même chose depuis quelque année... Et pour moi la 14th gen est ridicule en therme de consomation et de fiabilité... Les ultra c'est le tombeau malheureusement ou alors les intégrations sur pc portable vont les faire encore survivre mais c'est sur que c'est encore mal parti... En tout cas j'espère qu'il y'aura un nouveau concurrent pour pas que AMD prenne aussi la grosse tête ^^ Merci pour cette belle vidéo et effectivement les gens n'en parle pas assez de intel :)
Super la vidéo, je sais pas quand elle est sortie mais je trouve ça dommage de pas avoir parlé des processeurs pour pc portables. Surtout que Intel est bien plus présent sur ce secteur que amd. Et je pense Intel finira par s’en sortir mais ça va être très long. De plus ce serais cool une vidéo sur NVIDIA ou amd qui retrace un peu leur histoire et les dernières choses qu’ils ont fait. Par exemple je trouve que NVIDIA fait vraiment des mauvaises cg depuis la sortie des RTX. Perso j’ai une RTX 3070 et je suis très déçu.
Merci pour cette vidéo, un bon résumé de l'état actuel des cpu. Par contre je serai moins alarmiste sur le futur de intel, il a certes des difficultés sur la 13 et 14ème gen, mais la nouvelle gen part totalement sur autre chose (adieu l'hyper threading), donc wait & see. Intel est également une entreprise très stratégique pour l'état américain, notamment à cause du regain de tension en Asie, ce qui fait que l'entreprise partage un gros contrat avec l'armée USA comme sous-traitant en puces électroniques. Donc pour moi, Intel a un gros garant derrière lui et le rachat amd-intel je n'y crois pas trop à cause des lois anti-trust. Je pense que Qualcomm s'intéressait surtout à la division foundry (pour ça que certain actionnaire voulait diviser Intel pour vendre à la découpe) car ils ont besoin aussi de produire bcq de puce ARM. Fin de l'année, on aura surement la sortie des Lunar Lake en portable ce qui devraient redonner de l'oxygène à la compagnie si les rumeurs de performance/watt sont bien établies. A part ça, je suis d'accord AMD avec ses X3D, c'est une tuerie en ce moment. (je viens d'ailleurs de me procurer un 5700x3d en am4 vu l'impossibilité de trouver du 5800x3D à prix décent).
Intel et ses Xeon restent quand même bien en avant et bien plus vendu que les EPYC non? C'est aussi là qu'ils font du pognon. En tout cas j'suis en AMD et j'compte pas changer avant un moment.
Merci pour ton analyse assez objective, et surtout d'avoir rappelé que s'il y a moins de concurrence c'est le consommateur qui en souffre Une grosse remonté d'Intel pour l'IA lui permettrait de remonter face à Nvidia sur ce secteur et rebattrait les carte, mais difficile à croire
Vidéo intéressante (comme d'hab 😄 ) ! Je suis majoritairement d'accord avec toi sauf sûrs certains points : Au lancement des CPU 7000, ce n’était pas foufou du côté d'AMD. Entre les BIOS en version "bêta" avec divers soucis comme des temps de boot super long, une gestion de la RAM pire que du côté d'Intel, les 7800X3D qui cloquaient (certes, ce n'était pas directement AMD qui en était la cause.) et j'en passe... Le prix des cartes-mères AMD était ABUSIF !!! C'est pour ça que j'ai choisi en janvier 2023 un 13600k alors que j'étais intéressé par le 7700X. Aujourd'hui, AMD a gommé tous ces défauts, qui certes sont loin d'être aussi grave que ceux concernant le Microcode des CPU de 13e et 14e générations d’Intel (qui semble à présent, je l'espère corrigé). J'ai simplement l'impression que la majorité des constructeurs nous prennent pour des bêta-testeurs... 🤦♂ Aujourd’hui, mon choix se porterais vers un 9700X, car les X3D sont beaucoup TROP CHÈRES. Si je ne faisais pas d’applicatif un 7600/9600X serait amplement suffisant surtout en 2160p 😊
je ne fais pas partie de la team intel ou AMD ,cela dit je constate avec les divers soucis rencontrer avec les processeur intel ou sa as créer énormément de soucis pour les utilisateur de processeur de certaine génération ,et aussi au vu de la revisite dans un sens des processeurs ARM ,que ce soit intel ou AMD ,il va falloir qu'ils fassent de nouvelle puces innovantes. A titre d'information et pas comparatif ,les micro pc format carte de crédit ,certain savent de quoi je parle ,les fabriquant l'ont déjà bien compris ,comme MAC aussi ,après ,il faut laisser du temps pour que les utilisateurs se réhabitue a ses nouvelles technologie "revisiter" dans un sens. Et comme préciser dans la vidéo ,il faut qu'il y est de la concurrence ,pour continuer a faire progresser les technologies. Apres il ne faut pas oublier ,du moins a mon gout ,on achète un produit pour une tache ,et il faut qu'il l'as fasse point peu importe ce qu'il y a sous le capot . Merci pour cette vidéo. Amicalement
A l'époque je ne m'y connaissais pas trop, lorsque j'ai acheté mon I3 560 en socket 1156, je pensais que j'allais pouvoir le faire évoluer car il y avait les 1155 (je pensais que c'était une génération d'avant 😅), j'ai vite déchanté. Surtout que je préférais AMD mais à cette époque là les I donnaient plus envie. Ce petit I3 (que j'ai toujours en config complète) m'a suivi de 2011 à 2020 puis on m'a filé un 3800X que j'ai changé en 2023 par un 5800X3D 😂.
J’étais tout le temps chez Intel sur mes ancien PC. Là en début d’année je suis passé chez AMD, je n’ai aucun regret, au contraire, j’aurais aimé y passer plus tôt.
J'ai pris un 7600X pour ma tour :) 32GB DDR5 6000Mhz, 512GB SSD de PNY, GT1030 de ma première config low-end gaming (DDR4, oui... ouch, ça me sert de display port) Et je vois quoi ? 9800X3D qui overclock à 7.2GHZ ? Je vois quoi ? 6.9Ghz "facilement atteignable" ?????? AVEC LE X3D ? Mdr meilleur choix
Je trouve ça dingue de faire toute une vidéo sur le crash d'Intel sans avoir perçu l'importance et la place des procédés de gravure / leur impact. Check quand Intel à dominé et leur node. AMD a pris le dessus avec les difficultés d'Intel à garder son avance (qui est maintenant un retard) dans les procédés de gravure et leurs rendements.
Tu tappes assez juste sur tout, mais je pense que tu te trompe sur les CG: les CG fixes sont probablement à voir comme un sous-produit de la conception des circuits graphiques des APU, en effet en 2024 il ne serait plus possible pour Intel de vendre des APU avec un circuit graphique complètement à la ramasse ... et ca tombe bien, ils viennent de loin mais ils ont fait d'immense progrès dans le domaine: La dernière gen mobile atteint les perf graphiques des meilleurs apu amd ... pr une conso bien plus raisonnable ... Dans ce domaine c'est amd le dino sclerosé et ils faut esperer qu'ils innovent un peu pour leur prochaine gen d'APU car là on doit etre sur un progression moyenne de moins de 10% par an... Les moteurs video des cpu mobiles d'Intel sont aussi bien meilleurs... En conclusion j'imagine qu'il est difficile de faire un scale up de l'APU vers un bonne CG dediée mais je pense qu'intel a maintenant la capacité de sortir un bon millieu de gamme ...
Chalut, il n'y pas que ça, par exemple le mega-bug du prefetch, auquel Intel a répondu : "will not fix" et juste issu un nouveau microcode le désactivant, entraînant une perte de perfs d'en moyenne 25%, une paille - aujourd'hui il y a également le problème de corruption des vias, auquel Intel ne répond rien avec encore une fois juste un changement de microcode et aucune solution pour ceux dont le CPU est déjà touché. En conséquence, tant les particuliers que les professionnels ont bien évidemment extrapolé la prochaine réponse d'Intel sur le prochain probléme : "rien à foutre, comme d'hab" - par opposition, AMD fait des efforts, améliore plus ou moins son architecture Zen à chaque itération et a des CPU pour les particuliers qui tiennent la route, d'autant plus que pour ceux qui ne sont ne jouent qu'occasionnellement ou pas du tout, les dernier Ryzen intègrent un GPU plus que correct. On notera également l'arrivée de CPU EPYC à faible nombre de cores utilisant le même socket que les Ryzen (AM5), qui viennent boucher le trou du marché SOHO. Il y a aussi la concurrence de l'architecture ARM, qui grignote tranquillement des parts de marché et dont le principal argument est le rapport performance/consommation, et grâce aux génies qui nous gouvernent et ne pigent que dalle à l'économie réelle (valable pour toute l'uerSS, mis à part les Icelandais, les Suédois et les zallemands), le curseur énergie est devenu prédominant dans les achats euro-P4 ces derniers temps pour cause de prix prohibitifs de l'énergie. RISC-V restera anecdotique, puisqu'il reproduit les mêmes erreurs que ARM, à moins que ARM ne continue dans la voie sans issue où il se trouve aujourd'hui en continuant à multiplier les procès en tous genres sous des prétextes souvent fallacieux. À toutes fins utilies, tappelons une vérité qui est souvent ignorée par les commentateurs lambda, la différence entre CPU CISC et RISC est pratiquement inexistante, simplement parce que CISC n'est qu'une couche intermédiaire qui désassemble CISC pour le réassembler vers RISC. Qu'en sera-t-il demain ? Wait and see, mais AMD et ARM sont en train de grignoter le marché du cloud, ce qui n'augure rien de bon pour Intel.
J'ai eu le problème des 4 barrettes RAM avec AMD impossible à faire tourner à plus de 2400Mhz (les 4 barrettes étaient identiques et certifiés AMD. Pour moi, c'est de la pub mensongère pour les CM, car à aucun moment nous sommes prévenu. Intel, j'espère aussi qu'ils vont s'en sortir pour pas qu'AMD perdent leur mentalité, mais c'est bien mérité, à prendre les gens pour des pigeons, on fini par les perdre. Et vu comme ils ont traité leurs clients qui ont eu un CPU HS, c'est amplement mérité.
@@hardwarearchive7406 En effet, je sais que c'est le contrôleur mémoire du CPU, mais même si c'est la "faute de AMD", les fabricants de CM le savaient,... Et là, je me pose la question : était ce avec mon 2600X ou mon 5600X ? 😁 je pourrais faire le test, mais la flemme m’empêche et à la fois, si résultat négatif, il ne pourra être certain vu que mes barrettes ne sont pas identiques, il y a du 2x8Go single rank et du 2x16Go dual rank de marques différentes,... ET quand même la flemme !! 🤣le jour où je serais limiter par ma RAM, je ferais le test 🙃😂)
@@hardwarearchive7406 Les CU-DIMMs ont un contrôleur intégré à la barrette et pourront monter jusqu'à 8000Mhz ! ça va résoudre ce problème mais ça va coûter un max
2400mhz c'est très bas, peut-être un problème avec la qualité des kits de mémoire (même certifiés) ? J'ai pendant assez longtemps été sur du 8+8+8+16go sur ma carte mère AMD, et ça tournait en 3200mhz sans broncher (alors que ce genre de config avec plein de marques et modèles et tailles différentes de barrettes est plus probable de causer des problèmes).
@@vad35 çà fonctionnait avec 3 en 3200Mhz et dès que je mettais la quatrième,plus moyen, quelque soit la place des barrettes, je les ai testé des heures sous memtest 86 et aucune n'avait de problème. Je ne me souvient plus si c'était avec mon Asus Prime B450 ou ma Tuf gaming B550 et si c'était avec mon Ryzen 5 2600x ou mon 5600X. J'ai préféré renvoyer les 2 barrettes fraichement acheté et en recommandé un kit en 2x 16Go. Si j'avais eu les moyens, j'aurais fait les tests jusqu'au bout. Je me dis que je vais testé le 2x8Go + 2x16Go pour voir (marques différentes), maintenant que je me pose la question vu ton commentaire, merci lol
Excellent point sur la situation d'Intel. C'est sur que le monde du PC sans Intel serait bizarre. Avoir était aussi dominant et être autant dans l'ornière... . C'est vraiment pas bon pour l'architecture X86 avec arm qui doit regarder ça avec délectation !.
Je suis passé sur une plateforme AMD, d'abord avec le Ryzen 2700x, j'ai pu upgrader avec le 5800x3D et j'en suis très content, et pour les CG je vais sûrement passer à une carte AMD, marre aussi des foutages de gueule d'nVidia
21:00. j'abandonne ; je ne sais pas toujours pas pourquoi intel se casse la figure. On peut survivre à une telle curiosité non renseignée. Quand on veut délivrer une information, on doit donner en introduction l'information essentielle ; puis en second temps, on peut faire un développement historique. Si on met le développement historique avant l'information, alors, le but de la vidéo n'est pas d'informer le public mais de capter son attention. Ce genre de procédé est généralisé ici ; il relève de la volonté d'aliénation qui ne dit pas son nom.
J'ai toujours été un rouge avec un Athlon x2 à l'epoque et j'ai continuer avec un AMD Phenom x6 Black Edition qui était une tuerie à mon sens et là j'ai un AMD Ryzen 7 3700X qui malgré un peu la vieillesse à encore des années devant lui
AMD a broyé son fer noir à l'époque des Bulldozer et sa série FX dans les années 2014 / 2015, ils ont réussi à s'en sortir, à Intel de s'en sortir, c'est comme ça.
Pourtant Intel a bénéficié des talents de Jim Keller qui est à l'origine des Ryzen. Il est ensuite parti chez Intel pour les série 12 qui sont un succès mais depuis c'est la chute
Hors-sujet, mais l'expression n'est-elle pas plutôt "broyé son pain noir" ?
@@guyg.8529, non c’est « manger son pain noir »
Il y a une différence, amd à bénéficié des bonnes ventes des Radeon HD ainsi que la vente des APU pour consoles de salon pour garder la tête hors de l'eau.
Intel n'a rien de tout ça.
@@hardwarearchive7406après avoir autant abusé que Nvdia, sur le rapport prix/perf/consommation, un juste retour de bâton
Pour ma part, la mesquinerie de trop d'Intel c'était l'abandon des joints à l'indium après les Sandy bridge. Cela avait augmenté la chauffe pour gratter mojns de 1$ par CPU alors que les 4/8 étaient vendus plus de 400€...
@@laurentlefellic : Pareil à partir de 7th gen j'avais déjà des doute (j'étais encore sur du Intel d'ailleurs) , puis avec la 9th gen puis le succès de l'architecture ZEN . Je suis donc passé aux Ryzen et là j'ai vite vu la différence. Intel nous ont clairement banané pendant trop longtemps. Et donc la roue tourne c'est le jeu .
Même si j'espère qu'ils feront comme AMD , et donc finiront par ce relevé. Mais quand je vois la 15th gen d'Intel pourtant grzvé par TSMC ... Je comprends pourquoi AMD n'est pas du tout inquiet pour le moment ! Mais faut aussi remercier la nouvelle dirigeante et je suppose ces collaborateurs d'AMD (en 2016/2017) qui ont su remettre AMD sur le droit chemin . Et moi j'ai connu plusieurs périodes de gloire (début 2000 c'était AMD puis 6 ans plus tard le retour d'Intel) et là je vois que cela fait quasiment 7 ans qu'AMD sont revenu dans le game (pour un tas de raisons pas seulement le changement des dirigeants d'AMD) , comme le pari de faire les consoles de salons (enfin les composants internes) , des Ryzen a des tarifs attractifs et compatible sur minimum 4 génération voir 5 génération (si on prend en compte les Ryzen 4000 qui étaient plutôt fait pour les laptop mais on pouvait aussi en avoir sur PC mais l'impact était minine , un peu comme les Ryzen 8000G qui intégré pour la première fois la fonctionnalité AI Engine mais comme AMD sont un peu nul en marketing on en avait pas trop entendu parler pourtant cela montre qu'ils sont aussi dans la course à l'IA mais ils sont un peu plus discret on va dire). Pourtant ils ont re-signé des contrats avec Apple (déjà avec Apple c'est 15 ans de partenariat avec AMD Radeon) mais là c'est du partenariat AMD Radeon sur les puces ARM d'Apple , mais aussi avec Samsung sur les puces ARM Exynos certe ce n'est que le début (2 ou 3 ans déjà quand même mdr) mais ils sont sur tout les fronts. Et ça c'est qqch qu'intel à complètement foiré , chaque fois qu'intel ont subi un échec comme avec l'architecture ARM en son temps et bien ils ont préféré abandonner au lieux de persister . Pareil pour les cartes graphiques c'est pas la première fois qu'intel mise dessus mais à chaque fois ils ont abandonné. Même si pour le coup là ils avaient vraiment mis le paquet sur les Intel ARC mais niveau vente c'est désastreux sans oublier que niveau perf on est encore très loin des GPU AMD/NVIDIA. Même là ils ont repoussé la sortie de la seconde génération des puces Intel ARC car ont décidé de revoir la conception de leurs GPU ... Ce qui n'est pas du tout bon signe .
T'ajoute à cela le manque de différence de performances entre la 13th/14th et la 15th gen d'Intel dont la 15th étaient censé être "révolutionnaire" ... C'est surtout censé vous faire changer de carte mère 🤣.
Bref AMD ont tout compris même si parfois ils ce plante mais ils ce relève toujours . Et là ils ne sont pas prêts de s'arrêter en si bon chemin . Mais il faut quand même qu'il y ait de la concurrence sinon le prix des CPU d'AMD vont commencer à augmenter (ce qui est d'ailleurs déjà un peu le cas avec les Ryzen 9000) , et ils ne faut surtout pas qu'ils prennent la grosse tête. Bref faut faire tout l'inverse d'Intel quoi ! 🤣👍
@@t1m-kintek2k49 Mon dernier INTEL a été le i7 6850K sur plateforme X99 LGA2011. Sur leur plateforme semi-pro INTEL avait conservé le joint à l'indium. Mon 6850K en 6/12 chauffait moins que le 6700K en 4/8 sans indium. La carte mère coutait cher (pour l'époque : 200€) mais largement compensé par le fait que la DDR4 3200 mhz coutait un bras (300€ les 16Go). Je m'étais orienté vers 4x4 Go de 2400Mhz C15 et, grâce au quad bank, pas de perte de performances, surtout pour 150€... Et enfin, j'avais dégoté le 6850K à 300€ en promo alors que le 6700K était à 400€ minimum. Au final, j'avais en 2017 un CPU 6/12 qui ne chauffait pas avec 16Go ram et la carte mère qui va avec pour 650€. Une plateforme 6700K m'aurait couté au minimum 100 à 150€ de plus sans compter la chauffe plus importante. Les INTEL 12e génération étaient pas mal, et auraient pu me convaincre. Dommage que INTEL ait caché si longtemps que les 13e et 14e génération aient des problèmes de fiabilité. Ca ne respire pas la transparence... De retour sur AMD après mes premiers amours sur ATHLON XP et BARTON tant que l'AM5 vivra.
Avec un CA en 2023 à plus de 54Mds de dollars, je ne m'inquiète pas trop pour INTEL. Début des années 2000, AMD était devant avec ses Duron et Athlon, pendant qu'INTEL nous sortait de bouzes de P4. Vers 2006/2007 INTEL est repassé devant avec ses Core2Duo ! Ces 2/3 dernières années, AMD est repassé devant, jusqu'au moment où INTEL reviendra plus fort, c'est le jeu... A mon sens, le danger vient plutôt de NVIDIA...
Il s'agit d'un chiffre d'affaires, et non d'une entrée de trésorerie réelle. J'ai également hâte de découvrir ce que NVIDIA pourra proposer en matière de processeurs (CPU)
le probleme c'est qu'intel est à la traine par rapport a AMD en terme de GPU, la ou AMD a tout son écosystème, Intel dépends de Nvidia.
Le pentium 4 était un véritable four a pain mais il était vraiment pas mal niveau perf
Bonjour, il est vrai que Nvidia entre dans la voie des cpu mais il est bon d'avoir de la concurrence,. J'avoue que mon I9 13900kf m'en a fait voir et le patch qui ne répare absolument rien n'a pas arrangé les choses. Devant travailler, j'ai racheté une carte mère am5 et le dernier Ryzen 9950x mais je me suis bien documenté avant. Ce cpu n'est pas prévu pour jouer quoique cela fonctionne mais la version 3D qui est 50€ plus chère le permet.
@@gazoubo ah non, le pentium 4 était moins performant que le pentium 3 à même fréquence, par contre c'êtait les premiers à être overclocké à 4.2 ghz.
Tes vidéos sont toujours pertinentes sur le fond. Néanmoins, dans la forme, je trouve que tu tournes autour du pot, les vidéos pourraient être plus courte en allant droit au but sans faire de répétition.
Oui c'est vrai, j'ai également ressenti ça.
Exact, beaucoup trop de répétitions en boucle.
perso je suis dans la team AMD sans être fanboy pour autant , AMD a su relever la tête parce qu'il y avait intel en face ,la concurrence est la meilleur chose que l'ont puisse avoir sur le marché de l'informatique , même si je ne suis pas particulièrement fan d'intel , sa serait un véritable désastre s'il venait a disparaitre , on commence a voir se que sa donne par exemple avec nvidia qui a un quasi monopole sur le marché des gpu
Intel et nvidia sont d'horribles entreprises, amd sont moins mauvais, en tous cas pour l'instant.
Intel ne sert à rien actuellement sinon à continuer de cracher à la gueule de ses fans.
Intel, s'ils arrivent à s'en sortir un jour risqueraient de devenir pire encore qu'ils le sont actuellement.
S'ils coulent, moi ça me va. Faudra juste espérer que la concurrence reviendra vite.
@@BreizhSharkFR sa se défend , pour moi si intel disparait , se que je doute , avec AMD sa seras la foire a la saucisse , on vas se retrouver avec des proco qui auront peut évolué et hors de prix vue qu'il n'y auras aucune concurrence en face , c'est pour sa que pour moi , intel doit s'en sortir et je dirais même vivement que Qualcomm arrive aussi sur le marché du x86
@@Le_lorrain prions pour qu'on l'ai pas dans l'os 🙏
@@Le_lorrain Qualcomm sont en proces avec arm, c'est paradoxal :), question de de prix de license, jtoffre un yatch de 24 metre et un jet privé on en parle plus ? (humour) .
si on regarde le cours de laction des 2 arm est entrain de gagné le proces :p
@@BreizhSharkFRben j'espère pour toi d'Intel se casse la figure de façon à ce que tu payes tes prochains processeur 2000 balles car pas de concurrence en face 😂😂😂😂
14:20
J'ai perso toujours plus lorgné chez AMD ces dernières années après qu'un de mes laptops Intel avait de problèmes de chauffe/throttle et a cané prématurémrnt (0 souris sur le remplaçant Ryzen + meilleure autonomie), mais avec les PB d'instabilité d'Intel c'est ciao, les PCs du taf qui font de la grosse 3D crashent en compilant le projet une fois sur deux constamment...
Difficile de faire confiance à Intel après tout ça, et c'est pas leur derniers Core moins performant que la gen d'avant qui va changer ça...
Il n’y a seulement que le cpu dans cette histoire. La conception de l’ordinateur si elle n’a pas été optimisée pour bien évacuer la chaleur peut aussi poser des problèmes
Salut , c'est vrai qu'ils ont cumulés les erreurs stratégiques .
Ils ont fait récemment des erreurs de communication catastrophiques ,que ce soit sur les problèmes liés aux processeurs de 13 et 14e gen ,ou encore sur leur gamme Arc .
Ces gpus étaient au tout début, sensés concurrencer la RTX 3070 ,mais on voient que même 2 ans après leurs sortie ,on restent assez loin des performances annoncées .
Décevant donc .
Décevant aussi leurs processeurs Ultra avec un rapport perf/prix vraiment pas avantageux , si on les compares à la concurrence et encore plus si on prend en compte le changement de socket +
la RAM adéquat pour pouvoir en profiter pleinement .
Donc tout ça n'augure rien de bon pour la marque et tu fait bien de souligner que ce n'est pas bon signe pour les consommateur non plus .
Ce qui est encore plus triste c'est que Intel risque quand même de disparaitre alors qu'il ont énormément contribués à bâtir le hardware que nous avons aujourd'hui .
Le 14nm ++++ les a mis dans sauce ils ont rebondi avec la 12th gen mais la 13 et 14 gen avec le microcode les a mis au tapis
bah oui, changer de socket tous les 2 ans pour gagner 15% de perf, j'appele ça se foutre du client
@@user352-k2v ils l'ont toujours fait, ceux qui parlent de 775 ont mauvaise mémoire, même si le socket restait le même il fallait changer de carte maman.
C'est normal il veulent aller toujours plus vite et là il vont droit dans le mur.
Pendant des années il nous on bloquer a 4 coeurs aussi en 2017 c est la que tous a changer il se sont mis a sortir tous les 6 mois.
Grave 4 générations de CPU avec 2 changements de socket pour 2 génération CPU pour AMD sans changement de socket 😂
Et tout ça pour un gain inutile 😅
J'ai commencé avec un AMD K6 en 266 MHz sur Socket 7 et je n'ai toujours acheté que du AMD par la suite. Cette entreprise fait rêver par son évolution. Un bel exemple : Le 25 juillet 2006 , AMD rachète ATI pour 5,4 milliards de dollars ! AMD rentrait de plein pied dans le temple des gamers et depuis c'est la success story que nous connaissons tous ! J'espère évidemment que Intel trouvera des solutions mais j'en doute. Ce marché est très rude, car les gens veulent de la performance et des prix. C'est fini le temps où les gens voyaient "Intel" sur un PC et l'achetaient sans regarder la concurrence. De plus, Internet facilite la vision du marché et des produits, y compris pour des néophytes.
Ne faut il pas aussi prendre en compte aussi la montée en puissance des processeurs RISC (modèle ARM utilisé par Apple), au détriment d'intel et de son architecture CISC?
Les ARM ne sont pas encore populaire, tant que Windows, Intel et AMD n’auront pas migré, ça sera pour une niche de personnes
Ah, les années 2010 chez Intel... Je le souviens être passé sans conviction du i7 2600k, qui était top à sa sortie et est resté un modèle de longévité, au 7700k qui est devenu obsolète à une vitesse folle🙄
Kabylake n'était déjà qu'un refresh frileux de Skylake. Après les i3 et i5 de cette époque restent toujours des processeurs très intéressants pour du home server et media center du fait que y a pas vraiment de solution équivalente à la fois en terme de puissance, de modularité et de consommation idle.
Et qui est encore vendu BIEN TROP CHERE pour sa capacité le 7700K :)
@@ZERARCHIVE2023 ça c'est classique des upgrades ultimes de chaque plate-forme, en particulier celles d'Intel. Mais en vrai ce CPU n'a d'intérêt que pour les collectionneurs.
Le problème sst que cette série de processeurs "grand public" était déjà dépassée, ils avaient déjà des 8 cœurs hyperthreadés mais seulement réservé au domaine plus professionnel qui coûtait très cher ! (J'ai payé plus de 1000 euros pour mon i7 5960X à l'époque !)
Clairement le problème est qu'intel prennent les clients pour des c**s !
@@totocoulina9778 bah depuis le Phenom II et l'Opteron, Intel avait le champ libre pour segmenter le marché à leur guise.
N'oublions pas non plus que les éditeurs de logiciels ont aussi beaucoup tardé à utiliser plus de 8 threads, ce qui n'a pas arrangé la situation d'AMD.
Merci beaucoup pour ton screen à 11:52 car il m'a poussé à faire des recherches, ce qui m'a permis de répondre à une question que je m'étais toujours posé: c'est quoi le mieux entre "2 barrettes de ram" (en dual channel) ou carrément utiliser les 4 slots de ram que j'ai sur ma carte mère?
Ça m'a aussi permis d'apprendre l'existence et la différence entre les ram single/double rank (1R 2R) + de comprendre un peu le contrôleur mémoire d'un processeur..
C'est vachement intéressant et surtout fascinant
Intel, encore une société où les actionnaires ont bouffé tout le pognon au détriment des produits. Commodore est mort, Boeing est mal aussi...
Saloperies d'actionnaires. Se sont des vampires. Ils ne produisent rien et sont obnubilés par le fric. Tout pour leur gueule et rien pour les autres. Ils sont même assez cons pour scier la branche sur laquelle ils sont assis, juste pour faire plus de fric tout de suite. C'est pathétique. C'est comme ça dans toutes les boîtes qui sont dirigés par des comptables et non des ingénieurs.
En me relisant, j'ai l'impression de lire le com d'un communiste 😀 et pourtant non. Pendant mes études, à une époque où je ne payais pas encore les factures... j'étais très intéressé par la bourse. Une fois devenu actif, je me suis constitué un portefeuille... Bref, j'ai tout revendu et maintenant j'ai compris que la finance est à la cause de bien des soucis. Les politiques devraient intervenir pour assainir, réguler les marchés, mais ils ne sont que les pantins des financiers, alors forcément... ces rapaces et les wokes nous dessinent vraiment une société de merde.
Commodore est mort car ils ont été noyés par l'arrivée du PC, comme bien d'autres.
Pas les actionnaires mais les planqués😉
@@FlyBy2507 mouais c'est discutable, Apple a survécu
Ne réagit pas en tant que français basique, tu parles d'une entreprise américaine leader du marché, qui n'hésitera pas à licencier en masse pour se maintenir. Aucun doute sur leur réaction. Avec le développement de l'IA, attendons avant de les enterrer, la dernière gen est peut être déjà un coup d'avance sur les développements futurs de leur puce.
Intel Intel..
J'aime bien la marque sans être fanboy, car AMD sont vraiment des bon sur ce coté là
Mais clairement le prix, la communication et le changement de socket tout les ans ca commence à bien faire.
Et tu as oublié tu as le soket 2011.1 différent du 2011 classique qui propose la prise en charge de la DDR4.
Ca me manque l'époque du socket 775.
Lui il a durée longtemps, très longtemps et avec une maj de bios tu pouvais tenir des années.
Maintenant tu as déjà aussi le problème de l'overclock avec les fréquences bloqué, je trouve ça stupide que seule les versions K ou KF peuvent être OC.
Mais pk ? Forcer les gens à prendre une gamme au dessus ? bah super aussi la communication et le forging..
Ca aussi ça peu joué.
A l'époque tu prend une gamme juste en dessous moins cher, un petit OC et hop, des perf de la gamme au dessus, plus maintenant..
Pour les ARC ca me fait chié..
Car oui on n'a réellement besoin de concurrence en GPU
Nvidia il y en n'a marre de leur monopole, et ça, ça dure depuis trop longtemps ( prix abusif, peu d'évolution en Vram (coucou 8Go) le marché milieu de gamme abandonnée par cette marque avec des prix hors sol etc. )
Seul le DLSS compte maintenant avec leur Raytracing que j'active jamais, car trop gourmand pour ce que ça propose.
Et je pointe du doigt que le DLSS est le fautif du manque d'optimisation dans nos jeux actuellement, avec tout les outils de upcaling.
Ou est la vrai puissance en NATIF , c'est ça qui compte
Pour l'IA bah ouais mais madame Michou, ou Mr bébére, ils s'en foutent quoi.
Foutre de l'IA sur toute les gammes de CPU/GPU on s'en fiche, faites ça pour ceux qui on le besoin mais moi perso je m'en tape, j'utilise juste Aria de Opera de temps en temps, c'est tout.
Les soucis de n'importe quelle marque, c'est que une fois ou elles rentre dans une phase ou elles est en monopole ou trop à l'aise en manque d'impact de la concurrence, c'est là, qu'elles accumule les erreurs.
Nvidia et AMD peuvent eux aussi à leur tour, se cassé les dents à force d'être dans leur petits oreillers en monopole.
Ca fait longtemps que pour AMD ou Nvidia par exemple en GPU je demande la création de Gamme sans RT core comme les GTX 1660/1650
Le RT sur les milieux de gamme n'a AUCUNE utilité.
Enlever le pour baisser les prix vers le bas et une porte ouverte pour le milieu de gamme et l'entré de gamme une RX 6600/7600 avec RT ou RTX 3050/3060 utilité ZERO le RT
Pour les CPU c'est la même pourquoi forcé les Ultra (qui n'existe pas en entré de gamme en i3 Ultra... Elles sont ou ?)
Bah retirez les NPU. proposez ça pour ceux qui on besoin, mais comme je dis bébére il s'en fou.
Bref on force des techno que pas mal de gens s'en contre fiches, et l'import de ces techno là, ne fait que alourdir le prix, et donc bah les vente..
désolé mais a l'époque je mettait pas 400 balles sur un CPU et le double sur un GPU.
Pourtant mon pouvoir d'achat n'a pas spécialement monté alors l'excuse de l'inflation... ca va 5 minutes
Tu es juste un futur fanboy AMD mais ça t'aurais pris plus de temps qu'à d'autres.
Je te charie hein 😅
@@guillaumeguitarian9642 Oh t'inquiète pas, avant j'avais un crossfire de HD 3870 x2 + 3870 normal avec un AMD X4 bien OC comme un porc, ca fait juste un sacré moment que je suis sur plateforme Intel, mais je te l'accorde je commence en avoir gros. mdr
@@nierautofana7710 Ha ouais quand même 😅
Quoi qu'il en soit peut importe AMD ou Intel tant que le matos est bon mais c'est certains qu'avec un acteur en moins ce n'est pas bon pour le consommateur...
Je vais te contredire et avec un argument factuel.
Aucune gpu, à prix raisonnable ou pas, ne permet le jeu en 4k(sur tous les jeux) aujourd'hui et donc oui les techniques de résolution dynamique/framegen etc sont nécessaires MAINTENANT.
Et cela n'a aucun rapport avec le manque d'optimisation, c'est juste que ça nécessite une puissance de calcul de malade et que les process de gravures stagnent pour l'atteindre cette puissance.
Donc à défaut d'avoir la puissance à un prix raiso disponibles, il faut bien permettre aux joueurs de faire tourner leurs jeux en 4k.
Good deal 24 : méfiance.
Il faut préférer l'achat d'une clé USB prête à l'emploi avec Windows et ou Office dessus. Une telle clef constitue la preuve du non fonctionnement et permet la réparation de Windows dans de très bonnes conditions.
Super vidéo avec une bonne analyse, je me demande tout simplement si l'architecture x86/AMD64 n'est pas en fin de vie, et donc sa disparition progressive entraînerait l'émergence d'une évolution vers ARM....
j'ai toujours été chez intel, je voulais justement changer mon proco et prendre un 13eme ou 14eme gen comme depuis toujours quand j'upgrade. Mais j'ai vu les soucis de perfs du coup je me suis rabbatu sur le 7800 x3d, pile le cas que tu décris dans ta vidéo haha
perso tout début 2017 j'avais choisi Intel parce la sortie des premiers Ryzen n'était pas sans déceptions et inconvénients : problèmes de qualité de la première gen de cartes-mères, changements de ventirad et de RAM obligatoires, sortie des APUs trop tardive, peu d'applis qui exploitaient autant de threads, etc. Pour un budget build le tarif du g4560 était aussi très intéressant. Puis j'ai pu trouver une CM qui proposait des ports PCI legacy pour des vieilleries qui auraient été très chères à renouveler. Finalement c'est une upgrade que j'ai vraiment pas payé cher et qui reste encore une partie intégrante de mon infra.
Donc pour moi c'est plutôt à partir de la deuxième génération de Ryzen que ça a commencé à devenir compliqué pour Intel.
Quel manque d’objectivité… on dirait une vidéo sponsorisée…
@@patricklabregere2437 non c'est juste des point de vues différents. Les préoccupations en terme de hardware ne sont pas les mêmes selon l'usage ou le budget. Dans la hype du moment c'était très facile de ne pas voir les inconvénients de la première gen Ryzen, encensée par les reviewers. Si j'avais pu attendre encore un an (j'attendais déjà depuis 2011…) j'aurais certainement pas fait le même choix.
J'ai une carte mère de première génération avec un zen3 16cores actuellement, j'avais au départ un ryzen 1600 et je n'ai jamais eu de problème avec cet ensemble. La plupart des retours sur les cartes mère étaient l'UEFI. Au début de la sortie de ryzen certaines cartes mère ont été distribuées par les fabricant sans l'uefi compatible ryzen. Ce qui obligeait avec ces cartes d'utiliser une apu basée nième gen de bulldo/piledriver pour la mettre à jour. Oui les premiers cpu sorti sur am4 n'étaient pas des ryzen.
@@MrDesillu Il y a eu les problèmes de jeunesse de l'AGESA mais le plus important c'est la qualité des CM. Les constructeurs n'y croyaient pas et ont réduit les coûts sur la série des chipset 300. Beaucoup de modèles ont des problèmes de VRM lowcost et en nombre insuffisant pour les CPU haut de gamme.
Et oui quand je parlais d'APU, c'était ceux avec une archi Zen. J'ai volontairement passé Bulldozer sur AM3 donc pour moi ça n'avait aucun sens sur AM4.
@PainterVierax j ai sûrement échappé à ça pcq j ai pris une prime x370-pro. Je n achete jamais de carte mère d entrée de gamme.
Hey, le lien d'invitation vers ton serveur discord ne fonctionne plus.
J'ai commencé a me sentir dépassé avec mon Core i7 920 (Acheté en 2009) qu'a partir du 7700k...
Cette machine je l'utilise toujours en 2024 (pour regarder par exemple cette vidéo UA-cam), probablement le PC le plus rentable que j'aurai de toute ma vie.
Un coté positif avec la stagnation, c'est pour la planète, changer de machine tous les an ou 2 ans, c'est pas terrible !
Mais oui voir Intel sombrer, ce n'est pas une bonne nouvelle, et pour personne.
Idem avec mon i7-950 acheté en 2010 je crois et monté sur une Asrock X58 Xtreme, et qui tourne toujours aujourd'hui pour mes gamins auquel j'ai récemment ajouté une rx 6600 ( y'a eu une GTX 970 en milieu de parcours ). C'est clairement pas le haut du panier aujourd'hui, mais ça fait tourner Elden Ring ( sur Linux ! ) avec des performances tout à fait correctes en high ( et plein d'autres trucs évidemment ).
Bref une archi qui a 14 ans aujourd'hui... Franchement ayant connu la micro des années 80-90 j'aurai jamais imaginé ça à l'époque XD
@@aristoxenedagonie9316 Je vous rejoint avec mes 2 configs encore en 1155, ma principale avec le i7 3770 et la secondaire avec un xeon e3 1240v2 (équivalent au i7 mais moins gourment) le i7 avec une rx590 et le xeon avec une rx570 toutes 2 de chez Sapphire avec 8gb de vram... Pleinement satisfait des mes machines qui tournent tous les jours! Aucuns soucis pour jouer en 1080p avec la rx590!
920 avec sabertooth il est au grenier depuis quelques années
Je suis en 3770k depuis 10 ans et je joue en 1080p. Intel sort de bon processeur, il ne faut pas regarder que le tres haut de gamme.
Je suis toujours sur mon 920. Seul le gpu et ma ram ont évolués depuis 2010 😅 Je l'utilise pour faire de la m.a.o, de la d.a.o, de l'IA en local (même si là c'est plus le gpu et la vram qu'elle embarque qui joue vraiment), du JV...
Mon Q6600 datant de 2 ans avant galère vraiment à côté. Je ne le trouve pas vraiment lent, au contraire, et c'est cette longévité qui me surprend avec ce CPU.
C'est depuis les Core 2 Duo qu'Intel à pris les devant sur son concurrent, AMD a été largué après les K8 (Athlon 64) pour ne revenir en course qu'à partir de Zen, soit 11 ans plus tard, en recrutant le même ingénieur en plus, Jim Keller.
Les phenom II et Athlon II étaient bien plus intéressants que ce qu'il y avait en face.
Perf/prix, arrivée en premier du sata III et de l'USB 3.0 et un socket qui a duré très longtemps. 10 ans après le pc était réparable. Chez intel c'était mort pour avoir une CM après 2/3 ans. Les pauvres ayant "investi" dans le 1366😅
@TheFredom1989 J'étais sur 1366 justement, d'abord avec un i7 920 et ensuite avec un 980X acheté d'occaz, en plus de leur possibilité doverclocking, ses performances étaient tellement bonnes qu'il n'y avait aucune utilité à changer de plate-forme sur plusieurs années à tel point que je suis passé directement sur Zen en 2017.
Le X58 a été une des plus belles réussites d'Intel.
@@nonodu09200 Idem. I7 920, ensuite X5650. J'ai changé il y a 3 mois pour un 7800X3D à 200€ sur une plateforme encore valable quelques années pour un drnier upgrade de processeur. J'achete malin et le 1366 fut mon meilleur investissement.
@@TheFredom1989 à fréquence égale ils étaient 25% inférieurs, et en plus chez intel, ça prenait des Ghz à ne plus savoir quoi en faire.
Par contre les cartes mères étaient un vrai problème...
Les phenom étaient surtout intéressants comme choix éco, surtout si on avait la chance de pouvoir débloquer un coeur désactivé
Si j'ai une rtx 3070 ou 3080, est-ce que cela vaut le coup de passer à une rtx 4070 et/ou ti juste parce qu'elles consomment 100 watts de moins à performances plus ou moins similaire ? Est-ce que 100 watts d'écart, c'est énorme et très économique ?
Non inutile pour la diff de performance
Passer de la 3070 à la 4070 te fera gagner pas mal de perf que ce soit en rasterisation ou en raytracing. Tu auras aussi en plus le frame gen de nvidia et 4go de vram supplémentaires. Sans parler de la consommation et de la chauffe nettement revues à la baisse. Pareil pour le passage de la 3080 à la 4070. Sauf que là tu auras 2go de vram supplémentaires et non 4go. Et si tu as la chance d'avoir le modèle 12go de la 3080, là aucun gain en vram.
Je suis passé d’une 3070ti à une 4070ti et j’ai eu un assez bon gain surtout dans les jeux ou les 8go de vram n’étaient pas suffisants en 1440p. Et sur les jeux ou le dlss 3 est dispo ca fait presque du x2 en éliminant des drops à 20fps quand la vram est saturée
Bah les 100W c'est surtout utile l'été et pour les oreilles, le bruit est indirectement lié à la consommation (sauf waterC)
@@carmelpereke5909 il parle de 3080 ou 3070 oui pour la 3070 non pour la 3080
19:55 Je pense que ton point de vue n'est pas tout à fait assez complet concernent intel ARC : ce ne sont pas des cartes destiné aux joueux à la base, ce sont des cartes qui ont été conçut pour faire une concurrence frontal a Nvidia concernant l'usage des logiciels qui sont acceléré via notamment les instruction CUDA chez nvidia. Et de ce point de vue là elles sont parfois ( tout dépends des logiciels) tout a fait compétitive et d'ailleurs ils en vendent. J'ai beaucoup hésité a en prendre une ( pas de jeu) et finalement j'ai pris une Nvidia a 550 balles qui me donnent a peu près les même performance sur le logiciel que j'utilise qu'une ARC dans les même prix.
Intel atteint du syndrome Boeing ?
Tiens j'ai pensé la même chose, je suis allé voir la page dédiée au DEI chez Intel...
Souvenirs des 386, 486.. Puis Pentium 2 et 3, Core 2duo. Le dernier Intel que j'ai acheter c'est un 4670k qui fonctionne encore très bien. Mon premier Pc neuf avait un Pentium 100mhz. Pas terrible si Nvidia prend le monopole sur les CG et les CPU. 👍
Je suis chez AMD depuis 2022, Ryzen 5600x, puis Ryzen 5900x.
Salut . Ma copine tourne avec un i7 4790k , avec 32go ddr3 et rtx 3060 12go
@@cece1391 j'ai la même chez moi, mais bon je ne suis pas un gros gamer, malgré cela il ne rame jamais. Il y a mieux évidemment mais ce i7 est équivalent au 7700k. La gen4 de intel I est pour moi la limite suffisante pour faire le taf.
Moi mon 1er pc c'était un 486 DX il me semble avec un quartz de 66 ou 166 avec MS-DOS 2.35 couplé avec windows 3.11 a l'époque je n'aimais pas linux car pas trop d'interface. a
J'ai encore mon ryzen 1600, pour l'instant je ne voit pas l'intérêt de changer, ça convient encore à mes besoins, et je suis bien content de pouvoir upgrader plus tard vers un ryzen de 5eme génération sans avoir à changer ma carte mère et ma Ram.
Pareil avec 1800x mais je l'ai revendu 100eu... par contre j'ai craqué pour un 5800x waaaa ! Pour 150eu jakpot ! 2x plus de perf
Pour un usage Gaming, il est inutile de changer de processeur, ils sont généralement à 10% d'usage en 4K 60fps sur un AAA, la seule exception que je connaisse est Flight Simulator.
@@ludofast1 le 5800x ne me quittera plus ne t'en fait pas ... j'ai changé le 1800x car pas éligible win11 et en plus j'ai besoin de puissance multi cœur pour logiciel calcul de structure. Ya cyberpunk aussi je crois mais oui tu as raison sa passe crème le reste
Bonne analyse. Il manque juste le côté serveur qui doit représenter pas mal des revenus d'Intel.
A mon avis, les nouveaux cpu intel sont prévu pour etre pleinement fonctionnels pour windows12.
L'ia a titre amateur/gamer ca va etre pour faire des recherche sur l'ordi ou sur le net directement en vocal, la traduction automatique en temps reel en vocal sur toute source video/sonore, la retouche d'image et de son, pourquoi pas par voie vocal.... genre "détoure moi cette objet là, et colle le sur cette autre image ici".... Et puis pourquoi pas la sécurité du poste via l'ia...
Quant aux déboires d'intel, je pense que vous avez une bonne analyse.... Mais j'ai l'impression que c'est un peu plus compliqué que cela.... je pense a une histoire de guerre de monopole entre nvidia, amd, intel. En efet, je trouve tres bizarre que les youtubeurs parlent de guerre entre nvidia et amd alors que les dirigeants de ces 2 sociétés sont de la meme famille... jusque vers 2015 amd etait dans les choux avec ses cpu, et avait obtenu une avance considerable par rapport a nvidia sur le marché du gpu... curieusement depuis environ 2014-2015, amd n'arrive plus qu'a suivre nvidia... Mais curieusement, il sont devenus petit a petit meilleurs qu'intel, notamment et comme par hasard, depuis que l'on sait qu'intel a eu de gros problemes d'architecture/microcode.
Pour moi on a affaire, en plus de votre analyse, un faux duopole sur le marché des cartes graphiques, qui est en réalité un monopole "déguisé"... Un peu comme Asrock et Asus (mais il y en a d'autres), ou les produit les plus innovants et haut de gammes sont réservés en 1er pour Asus... j'ai l'impression que c'est la meme entre nvidia et amd.
Et intel dans tout ca ? Ben... Intel est l'obstacle 'actuel" le plus direct (il y a qualcomm aussi mais pour l'instant sur d'autres marchés... cpu smartphone et norme wifi principalement) pour le monopole, d'autant plus que l'on vient d'apprendre que nvidia se lance aussi sur le marché du cpu.... Tient tient vous avez dit bizarre? comme c'est bizarre.
J'ai peur que intel subisse du sabotage destiné a l'affaiblir....
Normal, quand on rogne sur le budget recherche pour distribuer des dizaines de milliards de dividendes aux actionnaires chaque année... Voilà le résultat ! Intel qui occupait 32% de PDM des Semi -conducteurs (pas que les CPUs) au début des années 2000, ne représentait plus qu'un peu plus de 8% en 2023. Et maintenant ils pleurnichent auprès du gouvernement américains pour qu'on les aide face à la concurrence, tout en continuant à distribuer des dividendes. Pendant cette lente descente destinés à favoriser les pauvres actionnaires, les sociétés chinoises, comme SIMC, ont investit 150 milliards de dollars pour rattraper leur retard. Comme le dit Rémi Gaillard... c'est en faisant n'importe quoi que l'on devient n'importe qui.
Les limites du capitalisme
@@LeJuste12 C'est pas une limite : c'est juste un problème de mauvaise gestion court-termistes de la part d'Intel. Ce qui favorise ses concurrents, elles aussi sociétés à capitaux privés, AMD, NVidia et Qualcom.
Bonjour, d'ailleurs par rapport aux instabilités des processeurs 14ème génération d'Intel, j'ai posé la question à mon fournisseur de PC Acer qui a choisi ce type de processeur. Silence radio, pas de réponse...
On ne s'inquiète pas trop pour Intel puisque l'entreprise est bien trop importante pour l'état Américain qui fera tout pour l'empêcher de couler. Pareil pour ce qui est d'un éventuel rachat, je pense que les autorités de régulation de la concurrence bloqueront le truc au maximum.
Par contre c'est sûr qu'il y a beaucoup de travail pour redresser la barre, et le pire truc qu'il pouvaient faire c'est se rater sur la 1er génération de core Ultra alors qu'ils viennent de créer l'appellation... Peut-être qu'ils enterreront ça rapidement et reviendront à des Core i 😆
Je pense que les core ultra seront intéressants d'ici quelques années, cette génération est trop en avance
J'ai failli bloqué la chaîne le début était en anglais et souvent ne pus sommes trompés par UA-cam avec titres en français
Bonjour, je partage entièrement ton analyse sur le fait que sans concurrence, le leader imposera les prix qu'il veut. Nous avons déjà connu cela avec les GPU. Nvidia pratiquait des prix démesurés lorsque AMD était dans les choux.
Très bonne vidéo, intéressante et instructive. Continue ! Dans l'attente de ta prochaine analyse.
J'ai utilisé ton code promo concernant les clés Windows 11. Tout c'est très bien passé.
Merci, @ plus
Intel peut remercier leur ancien CEO Brian Krzanich pour les avoir foutu dans cette position. C'est sa politique de refresh et non innovation couplé à des rachats de société juste pour acheter (McAfee, Altera etc..) et des échecs tonitruants sur d'autres domaines (de mémoire en télécommunications) qui ont mis Intel dans cette position avec 10 ans de léthargie. Puis faut pas oublier qu'Intel s'était déjà délesté de 10% de ses effectifs en 2015 !
Excellente vidéo exhaustive et pleine de bon sens. GG 😊
Excellente vidéo ! Sympa le récapitulatif des dernières années...
Contrairement à Intel, AMD avait une botte secrète pour subsister pendant ses années difficiles : les consoles. La Xbox one et la PS4 étaient basées sur les FX ce qui a probablement dû leur garantir des milliards en ventes.
Je ne sais pas comment Intel va faire pour subsister en l'état ...
Je suis du même avis que toi sur l'avenir de Intel après il ne peuvent que s'en prendre qu'à eux même pendant des années comme tu le souligne dans ta vidéo ils n'ont pas vraiment fait de grosse évolution et même vers la fin la gén 13 & 14 ne sont que du refrech du 12, je parle même pas du 11 qui était pire que la gén 10 surtout dans le haut de gamme, le plus gros défaut d'Intel c'est de s'être endormi sur ces lauriers et ne pas avoir su rebondir au tacle d'AMD en 2017.
Il y a d'autres aspects importants qui n'ont pas été abordés :
- le choix d'Apple de développer ses propres processeurs au détriment de ceux d'Intel
- les retards des processus de gravure par rapport à TSMC. AMD a su très vite anticiper et a vendu ses fonderies et s'est concentré sur la conception
- l'arrivée de ARM en concurrence directe avec les x86 sur le marché des laptops, et bientôt des desktops
- et enfin, et non des moindres, l'annonce de NVIDIA qui fabriquera des CPU ARM ce qui est une très mauvaise nouvelle pour l'architecture x86
A une époque où tout périme en 6 mois, le x86 est le plus vieux dinosaure au monde.
C'est sévère sur les cartes ARC. Tout dépend ce qu'on veut en faire, on a quand même l'encodage AV1 à un prix très bas.
Salut, bonne analyse, bravo, intel et ses multiples changements de socket, c'est pénible et une grosse erreur pour moi !
Juste une chose, on dit "se reposer sur ses lauriers" et pas loriers.....
Peux-tu faire une vidéo sur les différents OS (opérating system) qui sont sortis pour les x8086 depuis leur début ? (dos, drdos,os2 ibm etc...)
Bonne continuation.
Je viens de corriger, pour les OS, je t'avoue que je maîtrise pas spécialement le sujet donc je ne pense pas le faire.
Egalement, reposé et pas reposer
dommage c'est bien "se reposer" la bonne réponse 😅
Le problème dans le milieux du développement c'est que les logiciel principaux sont bâtis autour d'intel et de Nvidea comme par exemple le CUDA de blender et le Nvidea Iray de daz studio.
Il à parfaitement raison lorsqu'il parle de stabilité, sur des machines à plusieurs milliers d'euros qui n'ont pour fonction que de compiler des scènes complexe, ça fait un bout de temps que l'on utilise plus de format vidéo mais des formats d'image puisqu'à pleine charge, un proc intel est une horreur en terme de stabilité, donc si ça crache, ont recommence là ou ça à planter mais ça fait une charge de travaille supplémentaire et comme il le dit une nouvelle fois ( bravo l'artiste ) sur chaque nouvelle installation un downgrade est systématique pour les proc intel mais peu à peu, la stratégie change au profit de l'amd avec de nouveaux outils développer pour AMD sur Blender qui remplace peu à peu les fonctionnalité d'intel et bien que moins performent la stabilité est incomparable.
Pour ma machine perso, la même, j'ai downgrade mon proc sinon mon pc ne fait que chanter lorsque je fait la création d'asset haut poly. Mais c'est claire, des que je peu, je passe du côté d'AMD des que les fonctionnalité sur Blender seront présente. Je pense au cycle et au Nvidea Iray de daz studio.
11:48 je crois c'est juste un problème d'interférences c'est pour ça tu pouvais pas trop oc ta ram si tu avais 4 barrettes car le signal devenait trop inutilisable.
4:30 Comment peut-on affirmer que les différentes générations de processeurs n'ont pas d'améliorations significatives? Chaque modèle améliore énormément la vitesse d'exécution en réduisant le nombre de cycles nécessaires pour faire les mêmes calculs. On a pas pu améliorer la vitesse en Hertz des processeurs mais on a mis des circuits qui permettent de faire les calculs toujours plus proche de 1 cycle. C'est énorme. Voir Intel Intrinsics Guide, spécifications Latency et Throughput.
Second commentaire un peu hors du commun, mais en tant que Linuxien, Intel est synonyme de sérénité. Le constructeur fait des pilotes libres intégrés dans le noyau depuis quasiment toujours. Donc ça "marche" sans rien faire, sans installer aucun pilote, et toutes les fonctionalités sont accessibles. AMD fait pareil depuis quelques années, et NVIDIA vient tout juste de s'y mettre. Donc sur Linux on doit beaucoup à Intel !
Intel fait des drivers pour linux😂 c'est la meilleure celle là !
C'est les développeurs linux qui font tout le job.
Mmmouais, j'utilise linux depuis environ 2006 et je n''ai jamais vu autant de bugs que chez intel pour leur pilote vidéo donc je suis moyennement convaincu par l'utilisation de leurs produits.
Du coté d'amd, l'affichage est leur coeur de métier, contrairement à intel avant la série ARC, donc le support (notamment des api 3d) est un cran au dessus.
De mémoire amd fait ça depuis bien plus que "quelques années" mais au moins une décénnie passé.
J'observe de très rares bugs chez amd dans leur pilote d'affichage en comparaison à Intel.
J'espère que ça va changer avec ARC.
Bulldozer n etait pas vraiment un 8 coeur. y avait je crois 8 unites pour les entiers et 4 unites pour les floating points . C etait plus un hybride. Une tres bonne idee selon moi. Mais apparemment, ils se sont plantes dans l implementation.
le problème principal vient du fait que les jeunes pensent toujours meilleurs que les anciens, alors qu'ils leur doivent ce qu'ils savent ! De fait les ingénieurs d'aujourd'hui n'appartiennent pas à la génération innovante qui a créé Intel au cours des seventy's : Ayant eu la chance de faire mes stages d'ingénieur chez Intel peu de temps après la création à l'époque des premiers processeurs 8 bits, alors que le 8086 était encore à l'étude j'ai connu des projets dont certains ne sont pas sortis faute de clientèle: par exemple l'IAPX432 qui était un quadruple-processeur parallèles équipés du système d'exploitation et du langage de programmation ADA implantés au niveau du silicium ! mais ça remonte à 50 ans en arrière et les génies du départ ne sont plus là...
J'ai acheté du INTEL à19 $ l'action il y a deux mois, elle est à 26 $ ce jour, la descente aux enfers ne se passe pas trop mal pour l'instant.
Salut ! Je prends la vidéo avec un peu de retard. Je suis toujours impressionné par ton décors et ton flot très clair de paroles :) Pour casser un peu de sucre sur le dos d'Intel:
1) Ils ont pris les consommateurs pour des vaches à lait pendant quasiment 10 ans (jusqu'à la sortie de Ryzen). Tu te rappelle des processeurs "K" ? En gros l'overclocking était INTERDIT et IMPOSSIBLE sur les processeurs Intel, sauf si tu prenais les modèles "K", plus chers bien sûr. Ca et le fait qu'ils segmentaient artificiellement leurs gammes et bloquaient à 4 cores maximum pour le grand public.
2) Intel a été condamné en 2009 pour abus de position dominante car ils avaient passé des accords avec des constructeurs. Ces derniers devaient acheter du 100% Intel en échange de ristournes. C'est un coup bas qui a probalment fragilisé AMD (heureusement qu'ils avaient les consoles).
Pour AMD:
1) Tu dis que Bulldozer faisait du "vrai 8 cores". Je me souviens au contraire qu'il y avait des polémiques là dessus. Certains disaient que c'étaient des 4 cores et que le marketing les vendaient comme des 8 cores. Wikipedia semble dire qu'AMD a été condamné pour ça. En tous cas les benchmarks montraient que c'était naze, voire même inférieur aux Phenom II, un comble.
2) Je me souviens du Bulldozer AMD FX9590 et son TDP de 225W, démentiel ! C'était une puce overclockée à mort pour tenir face aux Intel. Oui, Bullzdozer c'est vraiment de la m****. L'ironie c'est qu'aujourd'hui Intel vend des processeurs eux aussi overclockés à l'extrême pour tenir tête aux Ryzen.
Pour défendre un peu Intel, ils ont subit l'inflation ainsi que la concurrence d'ARM. Apple les a laissés tomber pour passer sur des puces maison, et au niveau des serveurs on commence à voir arriver de l'ARM64 (par exemple sur Azure). Mais le capitale sympathie d'AMD joue beaucoup, comme tu le dis.
Par contre j'avoue que déléguer à TSMC, ça pue. Cela montre qu'Intel n'arrive pas à maitriser les processus de gravure les plus bas :(
@@ordinobsolete2035 merci pour les précisions 😉
Ils ont abusé de pratiques anti concurrentielles et n'ont pas innové durant une longue période. Le management, la financiarisation ont tué la marque tt simplement. Comme Boeing, ... Le futur c'est Arm.
Ce qui est bien c’est qu’avec la concurrence actuelle très féroce le prix des processeur baisse et les performances augmentent à un rythme très soutenu… en ce moment entre Qualcomm et Apple ça dépote !
Tu ne parles pas aussi des proc intel en "K" qui sont dédiés à l'overcloking, ce sont les meilleurs proc actuels (evidemment il ya aussi AMD et qui je pense y sont pour quelquechose sur la descente: le prix ?) mais sur ce point ils sont performants :) edit : tu en parles plus tard ^^
"Thread" ce prononce "frêd", pas "trêd", quelle idée ?
Je ne suis pas du tout de ton avis sur AMD. J'en utilise depuis plus de 25, en commençant par un DX266, sauf une fois où j'ai eu un Celeron en dépannage : je les ai toujours trouvé très bons, avec un excellent rapport qualité prix. Partant de là, évidemment que le plus cher d'Intel a été longtemps meilleur que le plus cher d'AMD, mais celui-ci est bien meilleur que Intel pour un même prix. Le meilleur CPU ne le reste pas longtemps...
Les anglais adorent quand on prononce à la française, alors pourquoi faire la morale?
@@ludofast1 Ah parce que corriger une faute grossière dans la prononciation d'un mot (courant dans le domaine...) ça s’appelle de la morale ? Je te suggère de consulter le site du CRTL pour découvrir le sens du mot.
PS : on s'en fout que "anglais adorent quand on prononce à la française" vu que ce n'est pas une vidéo en anglais.
C'est une mauvaise "manie" qu'ont les français de prononcer le "th" anglais de façon erronée en le remplaçant carrément par un "z" ou "f"... en occultant totalement le "t" qui doit rester présent mais faible dans la vraie prononciation anglaise.
Étant déjà sur la plateforme AMD avec un r7 3700x, il est temps pour moi d'upgrade et l'idée d'aller vers Intel est présent mais avec tout ce qu'il se passe (fiabilité des processeurs notamment, même si c'est réglé avec une MAJ BIOS (à priori)) je ne suis pas rassuré d'aller vers Intel et je vais rester sur AMD avec la plateforme AM5... Même si, le prix du R7 7800x3D fait mal actuellement...😮💨 (Petit indications, je veux faire principalement du gaming, stream et montage vidéo)
Merci pour cette vidéo très instructive qui m'a fait me souvenir d'une vieille histoire d'Intel aussi qui avait fait le buzz aussi vers 1996 je crois avec si j'ai bonne mémoire son fameux Pentium MMX qui était bugué dans ses calculs à partir du 8ème chiffre après la virgule je crois... La presse spécialisée en avait pas mal parlé à l'époque et déjà Intel s'était retrouvé dans la tourmente.
Je découvre votre chaine aujourd'hui. Je n'y connais pas grand chose mais c'est très bien expliqué. 👍
Je me souviens d'un mec (puriste Intel) au lycée qui avait choisis des composants pour un pote et dont la carte mère n'était pas compatible avec le proc. Une histoire de version ou compatibilité pour une malheureuse ligne dans la fiche technique... J'étais déjà pro Amd à l'époque possédant toujours un vieux FX-8350 et n'ayant pas encore les moyen pour changer. Mais je savais que je resterais chez Amd.
(En plus j'y comprend rien dans les socket, je viens de découvrir d'ailleurs que les LGA 1366, 2011 & 2066 étaient "grand public"; Formidable... ils s'ajoutent aux LGA 1155, 1150, 1151, 1151-V2, 1200, 1700)
J'étais passé au Ryzen en 2019/2020 pour le rapport performence/prix que je voyais bien plus intéressant que chez Intel et aussi pour l'évolutivité du socket.
Et bien que je voyais ca avant meme d'imaginer un seul instant qu'Intel se retrouverait au plus mal, tout ce qui s'y passe est purement logique au final.
Si intel tombait (ou se faisait racheter) preuve que "too big to fail" n'est qu'une théorie.
Du coup merci pour cette vidéo bien complète. Je l'enverrai aux personnes à qui j'avais discuté de ca qui ne saisissait pas trop de quoi il en est.
Il y a un article de canard pc qui date des serie 7 ou 8 je ne sais plus...
De mémoire ils pointaient des pbs de management en interne. En gros les gars du marketing ont pris les rennes et n'ont chercher qu'à faire du cash avec moins de R&D.
Belle analyse
Il aurait fallu parler de la montée en puissance de ARM. L'architecture x86 n'a pas d'avenir, elle n'est plus adaptée aux usages présents et futurs.
Un rachat par Qualcomm permettrait d'injecter les brevets arm dans intel, et sauver la boite d'un désastre
Merci, je l'ignorais. Et je découvre ta chaîne. 😊 Je me souviens également du fondeur Cyrix 😢
Intel s'est effectivement trop reposé sur ses lauriers à l'époque ou AMD pédalait dans la semoule. Et même après, AMD avait commencé à parler longtemps à l'avance de leur nouvelle architecture Ryzen qui avait l'air très prometteuse et ils n'ont pas réagi immédiatement notamment car Intel gardait une bonne avance pour les jeux vidéos et qu'AMD essuyait quelques plâtres sur sa première génération de Ryzen. Mais dès la deuxième génération, ça ne rigolait déjà plus du tout. Le retard était rattrapé et l'avance en applicatif commençait à être stratosphérique avec en plus une consommation défiant toute concurrence.
Dans un premier temps on a eu le droit à une augmentation brute du nombre de coeur et depuis la 12ème génération l'apparition des coeurs à haute efficacité énergétique pour revenir dans la course. Si on additionne ça à la hausse des consommations et des problèmes de stabilité en plus du fait que les nouveaux processeurs Ultra soient décevant alors que pourtant ça fait longtemps qu'ils bossent dessus, on comprend que ça commence à se casser la gueule.
Côté carte graphique, on aurait pu penser qu'ils avaient un boulevard pour l'entrée/milieu de gamme vu les tarifs pratiqués par les concurrents ainsi que les performances sur ce segment qui n'est franchement pas très glorieux mais même là ils sont à la ramasse sur tout les points et si pendant une période on les voyait sortir des drivers qui amélioraient drastiquement les performances, on observe depuis quelques temps que ce n'est plus le cas alors qu'il y a toujours du retard à ce niveau.
Les prochaines années vont être compliqué pour Intel. J'ai vu passé des news comme quoi Nvidia se lancerait dans les processeurs x86, à voir si ça se vérifie mais c'est possible que ça pousse Intel encore plus vers la sortie.
@@Nattfog hello pour info nvidia prévoie de l’amr et non du x86
Si j'ai bien compris les Core Ultra ont améliorés l’efficacité thermique du coup avec a peine plus de perf en fait ils auraient du sortir de processeurs en jouant à mort sur la "faible" (comparé aux génération précédentes) conso et un prix ultra concurrentiel, ce qui est l'avenir, déjà avec les processeurs ARM c'est déjà le principal avantage et va commencer a bien concurrencer intel et amd.
J'ai toujours été AMD depuis que je monte, je n'ai jamais été déçu, et en ce moment, vu que chez Intel c'est un peu une loterie qu'on n'est pas sûr de gagner ...
Entre les triches sur bench, sur leur compilateur et les tentatives d'étouffer leur concurrent, je trouve pas ça dommage du tout.
D'autant qu'avec l'échec de bulldozer, ils se sont gavés sur votre dos sans se fouler avec des puces minuscules à seulement 4 cores à 300 eur et +
Ils se prennent encore une fessée avec la sortie du 9800x3d et c'est tant mieux pour nous.
De plus Intel ne sait pas gérer correctement sa barque depuis des années, donc ce serait une bonne chose que la direction change via un achat.
Je ne suis pas du tout d'accord avec l'analyse des causes. AMHA elles sont bien plus anciennes (dès les Core II Duo), avec une conjonction de causes : une série de failles hardware (Meltdown et autres), le manque de maitrise de la conso, l'abandon de l'architecture par Apple, la concurrence de RISC V, etc.
Il y a le problème aussi des barrettes soudées, les fameuses lpddr5 et 4... 😢 Qui limitent l'évolution même juste d'un niveau sur les laptops de dernières générations, et toujours la gourmandise du système d'exploitation principal...
Je garde mon I7-8086k qui fait le taf avec sa rtx3060ti. Et quand je vois de quoi mon ancien i7-3770 avec sa rtx2080 est encore capable, vraiment pourquoi changer ?
Ton 3770 est en bottleneck dans les jeux …
@MarcfromParis bof, je ne joue plus vraiment. A vrai dire, je n'ai même pas besoin d'une rtx2080 dans ce pc, une gt730 ferait tout aussi bien l'affaire. Et puis j'ai 55 ans. Non seulement je n'ai plus les réflexes de mes 20 ans, mais en plus un écran 1080p est bien suffisant pour mon usage quotidien. J'ai essayé le 4k, les pixels sont trop fins et finalement c'est inconfortable
@ Mon premier PC a été un ZXSpectrum en 1982 donc on est de la même génération.
J’ai un 9700K OC comme un porc sur une 3080, et je suis en bottleneck dans tous les jeux AAA.
Ton processeur « anniversaire » et malheureusement lui aussi a l’agonie avec sa 3060ti…
@@MarcfromParis bottleneck avec un 9700K, ce qu'il faut pas voir x)
@ et bien si pourtant, et en 1440P. Mon CPU tourne à 100% dans Avatar et The Last of Us par exemple.
Mon 9700K est à 5.2Ghz, la 3080 et a 2100Mhz et tout est sous watercooling custom
J'ai l'impression que t'as des actions chez AMD.. j'utilise du xeon et ça va pas mal solide. les nouveau programmes et jeux exploitent le multicore
Salut ! tout a fait d'accord avec ton analyse sur intel, je dirai que la roue tourne et intel s'est cru invincible. Actuellement je suis sur le point de changer ma config , encore sous am4 qui fonctionne très bien mais j'ai hésiter entre intel et amd am5 mais au vu des problèmes avec intel 13 ou 14e gen et les prix de folie sur nouvelle génération intel ultra qui sert e rien j'ai choisi de rester chez amd en am5 . LEs cartes graphique intel c'est un peu comme a l'époque la gamme amd fx , ratage complet . en attendant on sort le popcorn et on regarde 🙂. il ne faut pas oublier que amd possede un grand marché des consoles également.
Salut, il y a clairement des erreurs stratégiques face à un concurrent en mode rouleau compresseur actuellement… c’est triste pour le consommateur qui va pâtir des prix ! Si je renouvelle ma config l’année prochaine, je passerai chez les rouge pour le processeur !
Le problème de la disparition d'Intel c'est déjà la fin du seul concurrent de CPU x86. Et j'ai pas vraiment envie de les voir finir.
La fin d'un concurrent potentiels de carte graphique surtout qu'il y en a bien besoin. AMD ayant abandonné le marché.
Enfin la fin d'un des dernier fondeur de microprocesseurs indépendans.. C'est incroyable !! Alors que ce sont des bons fondeurs. (Au passage seul les dernier Intel core PORTABLE sont fondus par tsmc. Probablement car ils sont les seuls a savoir faire des CPU non energivorre. Mais ça va mécaniquement monté les prix.
Et franchement surtout pas Qualcomm. C'est une purge cette marque !
Triste triste.
Je me souviens de 2015-2016, quand je disais qu'il manque de concurrence et que je croyais en AMD pour les prochains CPU pour avoir plus de concurrences et qu'ils allait rattraper leurs retard, les gens me riaient au nez. Je voyer bien qu'Intel profitait de la situation et se tourner les pouces. Nouveaux CPU + socket + augmentation de prix...
Quand AMD a sorti les 1ers AMD Ryzen 7, en à peine 1 mois après, j'ai acheté le Ryzen 7 1700 que j'ai overclocké et que j'ai toujours dans le PC avec lequel j'écris ce commentaire.
Pour moi, il n'y a qu'un seul problème... le prix. Tous les produits Intel pourraient trouver leur marché mais à la condition d'une forte baisse de prix car le rapport qualité/prix n'est pas bon du tout.
Tu as oublié de parler des Ryzen X3D qui cloquait, précisément sur les pins servant à la gestion du voltage.
Très bonne vidéo Clément. Mais comme dis dans un autre commentaire, je trouve que tu tournes parfois trop autour du pot.
En tout cas, j'espère qu'Intel va s'en sortir. Croisons les doigts. 🤞
Est ce qu'on étais pas dans le même cas avant l'arrivé du Core2Duo ?(se reposer sur ses lauriers)
pas vraiment non. Le Pentium 4 était une impasse comme le sera Bulldozer. Ils ont fait avec ce qu'ils avaient le temps de finaliser l'architecture Core.
Le truc c'est que y'a un vrai problème au management chez intel car c'est quand même terrible de se foirer autant... Je pense que les gens n'en parle plus trop car c'est la même chose depuis quelque année... Et pour moi la 14th gen est ridicule en therme de consomation et de fiabilité... Les ultra c'est le tombeau malheureusement ou alors les intégrations sur pc portable vont les faire encore survivre mais c'est sur que c'est encore mal parti... En tout cas j'espère qu'il y'aura un nouveau concurrent pour pas que AMD prenne aussi la grosse tête ^^
Merci pour cette belle vidéo et effectivement les gens n'en parle pas assez de intel :)
Super la vidéo, je sais pas quand elle est sortie mais je trouve ça dommage de pas avoir parlé des processeurs pour pc portables. Surtout que Intel est bien plus présent sur ce secteur que amd. Et je pense Intel finira par s’en sortir mais ça va être très long. De plus ce serais cool une vidéo sur NVIDIA ou amd qui retrace un peu leur histoire et les dernières choses qu’ils ont fait. Par exemple je trouve que NVIDIA fait vraiment des mauvaises cg depuis la sortie des RTX. Perso j’ai une RTX 3070 et je suis très déçu.
Merci pour cette vidéo, un bon résumé de l'état actuel des cpu.
Par contre je serai moins alarmiste sur le futur de intel, il a certes des difficultés sur la 13 et 14ème gen, mais la nouvelle gen part totalement sur autre chose (adieu l'hyper threading), donc wait & see.
Intel est également une entreprise très stratégique pour l'état américain, notamment à cause du regain de tension en Asie, ce qui fait que l'entreprise partage un gros contrat avec l'armée USA comme sous-traitant en puces électroniques. Donc pour moi, Intel a un gros garant derrière lui et le rachat amd-intel je n'y crois pas trop à cause des lois anti-trust.
Je pense que Qualcomm s'intéressait surtout à la division foundry (pour ça que certain actionnaire voulait diviser Intel pour vendre à la découpe) car ils ont besoin aussi de produire bcq de puce ARM.
Fin de l'année, on aura surement la sortie des Lunar Lake en portable ce qui devraient redonner de l'oxygène à la compagnie si les rumeurs de performance/watt sont bien établies.
A part ça, je suis d'accord AMD avec ses X3D, c'est une tuerie en ce moment.
(je viens d'ailleurs de me procurer un 5700x3d en am4 vu l'impossibilité de trouver du 5800x3D à prix décent).
Trés intéressant et complet merci !
Intel et ses Xeon restent quand même bien en avant et bien plus vendu que les EPYC non? C'est aussi là qu'ils font du pognon.
En tout cas j'suis en AMD et j'compte pas changer avant un moment.
Merci pour ton analyse assez objective, et surtout d'avoir rappelé que s'il y a moins de concurrence c'est le consommateur qui en souffre
Une grosse remonté d'Intel pour l'IA lui permettrait de remonter face à Nvidia sur ce secteur et rebattrait les carte, mais difficile à croire
en jeux ils font moins pas a peine mieux je pense non ?
" Je suis triste d'in-tel descente aux enfers"
👍🏻
25:55
Vidéo intéressante (comme d'hab 😄 ) ! Je suis majoritairement d'accord avec toi sauf sûrs certains points :
Au lancement des CPU 7000, ce n’était pas foufou du côté d'AMD. Entre les BIOS en version "bêta" avec divers soucis comme des temps de boot super long, une gestion de la RAM pire que du côté d'Intel, les 7800X3D qui cloquaient (certes, ce n'était pas directement AMD qui en était la cause.) et j'en passe... Le prix des cartes-mères AMD était ABUSIF !!! C'est pour ça que j'ai choisi en janvier 2023 un 13600k alors que j'étais intéressé par le 7700X. Aujourd'hui, AMD a gommé tous ces défauts, qui certes sont loin d'être aussi grave que ceux concernant le Microcode des CPU de 13e et 14e générations d’Intel (qui semble à présent, je l'espère corrigé).
J'ai simplement l'impression que la majorité des constructeurs nous prennent pour des bêta-testeurs... 🤦♂
Aujourd’hui, mon choix se porterais vers un 9700X, car les X3D sont beaucoup TROP CHÈRES. Si je ne faisais pas d’applicatif un 7600/9600X serait amplement suffisant surtout en 2160p 😊
J'avait lu un article que les dernier processeur fait craché windows 11 et 10 il affiche l'écran bleu.
je ne fais pas partie de la team intel ou AMD ,cela dit je constate avec les divers soucis rencontrer avec les processeur intel ou sa as créer énormément de soucis pour les utilisateur de processeur de certaine génération ,et aussi au vu de la revisite dans un sens des processeurs ARM ,que ce soit intel ou AMD ,il va falloir qu'ils fassent de nouvelle puces innovantes.
A titre d'information et pas comparatif ,les micro pc format carte de crédit ,certain savent de quoi je parle ,les fabriquant l'ont déjà bien compris ,comme MAC aussi ,après ,il faut laisser du temps pour que les utilisateurs se réhabitue a ses nouvelles technologie "revisiter" dans un sens.
Et comme préciser dans la vidéo ,il faut qu'il y est de la concurrence ,pour continuer a faire progresser les technologies.
Apres il ne faut pas oublier ,du moins a mon gout ,on achète un produit pour une tache ,et il faut qu'il l'as fasse point peu importe ce qu'il y a sous le capot .
Merci pour cette vidéo.
Amicalement
A l'époque je ne m'y connaissais pas trop, lorsque j'ai acheté mon I3 560 en socket 1156, je pensais que j'allais pouvoir le faire évoluer car il y avait les 1155 (je pensais que c'était une génération d'avant 😅), j'ai vite déchanté.
Surtout que je préférais AMD mais à cette époque là les I donnaient plus envie.
Ce petit I3 (que j'ai toujours en config complète) m'a suivi de 2011 à 2020 puis on m'a filé un 3800X que j'ai changé en 2023 par un 5800X3D 😂.
J’étais tout le temps chez Intel sur mes ancien PC. Là en début d’année je suis passé chez AMD, je n’ai aucun regret, au contraire, j’aurais aimé y passer plus tôt.
J'ai pris un 7600X pour ma tour :)
32GB DDR5 6000Mhz, 512GB SSD de PNY, GT1030 de ma première config low-end gaming (DDR4, oui... ouch, ça me sert de display port)
Et je vois quoi ? 9800X3D qui overclock à 7.2GHZ ?
Je vois quoi ?
6.9Ghz "facilement atteignable" ?????? AVEC LE X3D ?
Mdr meilleur choix
Je trouve ça dingue de faire toute une vidéo sur le crash d'Intel sans avoir perçu l'importance et la place des procédés de gravure / leur impact.
Check quand Intel à dominé et leur node. AMD a pris le dessus avec les difficultés d'Intel à garder son avance (qui est maintenant un retard) dans les procédés de gravure et leurs rendements.
Tu tappes assez juste sur tout, mais je pense que tu te trompe sur les CG:
les CG fixes sont probablement à voir comme un sous-produit de la conception des circuits graphiques des APU, en effet en 2024 il ne serait plus possible pour Intel de vendre des APU avec un circuit graphique complètement à la ramasse ... et ca tombe bien, ils viennent de loin mais ils ont fait d'immense progrès dans le domaine:
La dernière gen mobile atteint les perf graphiques des meilleurs apu amd ... pr une conso bien plus raisonnable ...
Dans ce domaine c'est amd le dino sclerosé et ils faut esperer qu'ils innovent un peu pour leur prochaine gen d'APU car là on doit etre sur un progression moyenne de moins de 10% par an...
Les moteurs video des cpu mobiles d'Intel sont aussi bien meilleurs...
En conclusion j'imagine qu'il est difficile de faire un scale up de l'APU vers un bonne CG dediée mais je pense qu'intel a maintenant la capacité de sortir un bon millieu de gamme ...
Chalut, il n'y pas que ça, par exemple le mega-bug du prefetch, auquel Intel a répondu : "will not fix" et juste issu un nouveau microcode le désactivant, entraînant une perte de perfs d'en moyenne 25%, une paille - aujourd'hui il y a également le problème de corruption des vias, auquel Intel ne répond rien avec encore une fois juste un changement de microcode et aucune solution pour ceux dont le CPU est déjà touché. En conséquence, tant les particuliers que les professionnels ont bien évidemment extrapolé la prochaine réponse d'Intel sur le prochain probléme : "rien à foutre, comme d'hab" - par opposition, AMD fait des efforts, améliore plus ou moins son architecture Zen à chaque itération et a des CPU pour les particuliers qui tiennent la route, d'autant plus que pour ceux qui ne sont ne jouent qu'occasionnellement ou pas du tout, les dernier Ryzen intègrent un GPU plus que correct. On notera également l'arrivée de CPU EPYC à faible nombre de cores utilisant le même socket que les Ryzen (AM5), qui viennent boucher le trou du marché SOHO.
Il y a aussi la concurrence de l'architecture ARM, qui grignote tranquillement des parts de marché et dont le principal argument est le rapport performance/consommation, et grâce aux génies qui nous gouvernent et ne pigent que dalle à l'économie réelle (valable pour toute l'uerSS, mis à part les Icelandais, les Suédois et les zallemands), le curseur énergie est devenu prédominant dans les achats euro-P4 ces derniers temps pour cause de prix prohibitifs de l'énergie. RISC-V restera anecdotique, puisqu'il reproduit les mêmes erreurs que ARM, à moins que ARM ne continue dans la voie sans issue où il se trouve aujourd'hui en continuant à multiplier les procès en tous genres sous des prétextes souvent fallacieux.
À toutes fins utilies, tappelons une vérité qui est souvent ignorée par les commentateurs lambda, la différence entre CPU CISC et RISC est pratiquement inexistante, simplement parce que CISC n'est qu'une couche intermédiaire qui désassemble CISC pour le réassembler vers RISC.
Qu'en sera-t-il demain ? Wait and see, mais AMD et ARM sont en train de grignoter le marché du cloud, ce qui n'augure rien de bon pour Intel.
vi vi c est pour cela qu ils vont acheter 4 ou 5 nouvelles machines de lithographie 2 nm a plus de xxx millions de $ à ASML plus que tsmc et samsung
J'ai eu le problème des 4 barrettes RAM avec AMD impossible à faire tourner à plus de 2400Mhz (les 4 barrettes étaient identiques et certifiés AMD. Pour moi, c'est de la pub mensongère pour les CM, car à aucun moment nous sommes prévenu.
Intel, j'espère aussi qu'ils vont s'en sortir pour pas qu'AMD perdent leur mentalité, mais c'est bien mérité, à prendre les gens pour des pigeons, on fini par les perdre. Et vu comme ils ont traité leurs clients qui ont eu un CPU HS, c'est amplement mérité.
Le problème ce n'est pas la carte mère, c'est le contrôleur mémoire du cpu, mais effectivement c'est pas normal que personne ne communique la dessus.
@@hardwarearchive7406 En effet, je sais que c'est le contrôleur mémoire du CPU, mais même si c'est la "faute de AMD", les fabricants de CM le savaient,...
Et là, je me pose la question : était ce avec mon 2600X ou mon 5600X ? 😁 je pourrais faire le test, mais la flemme m’empêche et à la fois, si résultat négatif, il ne pourra être certain vu que mes barrettes ne sont pas identiques, il y a du 2x8Go single rank et du 2x16Go dual rank de marques différentes,... ET quand même la flemme !! 🤣le jour où je serais limiter par ma RAM, je ferais le test 🙃😂)
@@hardwarearchive7406 Les CU-DIMMs ont un contrôleur intégré à la barrette et pourront monter jusqu'à 8000Mhz !
ça va résoudre ce problème mais ça va coûter un max
2400mhz c'est très bas, peut-être un problème avec la qualité des kits de mémoire (même certifiés) ? J'ai pendant assez longtemps été sur du 8+8+8+16go sur ma carte mère AMD, et ça tournait en 3200mhz sans broncher (alors que ce genre de config avec plein de marques et modèles et tailles différentes de barrettes est plus probable de causer des problèmes).
@@vad35 çà fonctionnait avec 3 en 3200Mhz et dès que je mettais la quatrième,plus moyen, quelque soit la place des barrettes, je les ai testé des heures sous memtest 86 et aucune n'avait de problème. Je ne me souvient plus si c'était avec mon Asus Prime B450 ou ma Tuf gaming B550 et si c'était avec mon Ryzen 5 2600x ou mon 5600X. J'ai préféré renvoyer les 2 barrettes fraichement acheté et en recommandé un kit en 2x 16Go. Si j'avais eu les moyens, j'aurais fait les tests jusqu'au bout. Je me dis que je vais testé le 2x8Go + 2x16Go pour voir (marques différentes), maintenant que je me pose la question vu ton commentaire, merci lol
Excellent point sur la situation d'Intel. C'est sur que le monde du PC sans Intel serait bizarre. Avoir était aussi dominant et être autant dans l'ornière... . C'est vraiment pas bon pour l'architecture X86 avec arm qui doit regarder ça avec délectation !.
Je suis passé sur une plateforme AMD, d'abord avec le Ryzen 2700x, j'ai pu upgrader avec le 5800x3D et j'en suis très content, et pour les CG je vais sûrement passer à une carte AMD, marre aussi des foutages de gueule d'nVidia
21:00. j'abandonne ; je ne sais pas toujours pas pourquoi intel se casse la figure. On peut survivre à une telle curiosité non renseignée.
Quand on veut délivrer une information, on doit donner en introduction l'information essentielle ; puis en second temps, on peut faire un développement historique.
Si on met le développement historique avant l'information, alors, le but de la vidéo n'est pas d'informer le public mais de capter son attention.
Ce genre de procédé est généralisé ici ; il relève de la volonté d'aliénation qui ne dit pas son nom.
J'ai toujours été un rouge avec un Athlon x2 à l'epoque et j'ai continuer avec un AMD Phenom x6 Black Edition qui était une tuerie à mon sens et là j'ai un AMD Ryzen 7 3700X qui malgré un peu la vieillesse à encore des années devant lui