In realtà l'architettura RISC non è iniziata con il mondo mobile ma era utilizzata in ambito server da IBM e poi su HP. Ed è appunto proprio sulla serie di server HP3000 dotata di processori RISC che ho iniziato ad occuparmi di sistemistica. Era la fine degli anni '80 (del secolo scorso... sigh!) Ciao!
non ho detto che è "INIZIATA" con il mondo mobile, ho detto che si è DIFFUSA con il mondo mobile, infatti il mondo PC classico è stato CISC per una vita, per i motivi indicati
@@donotunderstand Apple fu costretta a cambiare architettura poiché Motorola terminò lo sviluppo della serie 68000 fino al 68060 per concentrarsi sulla implementazione Power di IBM. Nacque il consorzio IBM/Apple/Motorola e crearono le cpu PowerPc, architettura utilizzata da tanti satelliti, dai robot andati su Marte, modem, centraline d'auto ecc.
Scusa se mi permetto, ma l'HP3000 utilizzava una architettura CISC, prima di diventare PA-Risc all'inizio degli anni '80. Ma parlando di computer e microcomputer desktop e non di Server, le cpu Risc nascono dopo la metà degli anni '70 con il MOS6502 ( in parte Risc e in parte CISC) utilizzato per emulare l'architettura ARM dalla Acorn stessa che la portò allo sviluppo delle cpu ARM e dei computer....
Comunque il core del video è sbagliato, ormai x86 e ARM sono entrambe CISC, anche se ormai la definizione ha perso molto senso. La differenza vera è che ARM è diventata CISC di recente andando ad evitare gli errori fatti da x86. Ad esempio le istruzioni AVX ci sono in entrambe le architetture. Inoltre la vera differenza è che ARM è formata da decine di aziende in concorrenza tra loro mentre X86 da un duopolio che è quasi un monopolio, e questo rallenta l'innovazione
@@alexroot1980 non confondere CISC con Intel: 1- Apple usa un processo produttivo di 5 nm (m1 e m2) e 3nm (m3), l'ultima generazione intel è su intel 7, e parliamo di 2 o 3 gen di processo produttivo di differenza. 2- Intel per anni è stata monopolista e come sempre accade si è seduta sugli allori (ha usato lo stesso processo produttivo dal 2015 al 2020) 3- l'ultima generazione AMD (la 7000) ha performance per watt leggermente superiori rispetto agli M2, gli m3 sono avanti ma hanno l'esclusiva sul processo produttivo a 3nm. 4- uno dei cavalli di battaglia di x86 è l'assoluta volotà di mantenere la compatibilità. ad oggi su un pc attuale con windows attuale puoi far girare un software del 2000 in modo nativo pensato per windows xp. questa retrocompatibilità la paghi in termini di transistor necessari e quindi di consumi. ARM, al contrario, avendo da sempre avuto come cavallo di battaglia i bassi consumi, piu volte nel corso della storia ha resettato l'ISA rendendo necessaria la riscrittura di tutto il software. (sono arrivati ad ARMv8, che è la prima versione retrocompatibile con ARMv7, tutte le altre 7 sono stati tagli netti) intel di recente ha introdotto a parole l'architettura "x86s" che dovrebbe essere una variamente che taglia tutto il superfluo, ti vai quindi a perdere la compatibilità con il software vecchio e ne guadagni in efficienza. vedremo se mai la concretizzeranno
Fascinante discussione sul passaggio alle CPU ARM! Hai spiegato in modo chiaro le ragioni dietro questa transizione e le potenziali implicazioni. È un momento entusiasmante nell'evoluzione tecnologica. Grazie per condividere queste informazioni illuminanti!
Bellissima spiegazione, ma lacunosa su un aspetto fondamentale, ossia i set di istruzioni delle CPU CISC sono brevetti che impediscono la realizzazione di CHIP di concorrenza, per ovvi motivi di costi di sviluppo, questo ha creato il duopolio di INTEL e AMD . Mentre invece qualunque produttore di microchip può produrre CPU RISC, con le istruzioni base.
@SalvatoreTocco73 X86 è una architettura Cisc brevettata ma non tutte le architetture di quella famiglia lo sono , domani potresti farne una nuova e non pagare nulla a nessuno. Arm la paghi per il progetto della cpu quindi paghi prima .
hai dimenticato due delle ragioni tecniche più importanti: 1) la dimensioni dei binari, che contrariamente alle attese, sono decisamente più piccole 2) il consumo, i RISC richiedendo meno transistor, consumano meno, e sviluppano un rapporto MIPS/Watt decisamente maggiore. Infine dovresti parlare dell'architettura RISC-V che si sta mangiando anche ARM
In effetti video piuttosto "vuoto" di contenuti e di veri motivi per cui ARM sta avendo questo successo...Su RISC-V...boh, la vedo ancora lunga prima che raggiunga ARM, vedremo :)
Gli x86 hanno goduto negli anni di un vasto supporto economico in regime di monopolio. Nulla di più lontano dagli aspetti tecnici che gli anni dovevano e potevano cominciare a far pesare. Perché come ti avrà insegnato bene il prof. in architettura degli elaboratori un’ISA influisce eccome sul design delle unità funzionali di una CPU. Anche attuale. Oggi x86 è un’ISA legacy che sopravvive grazie ad un vasto supporto software ma che rappresenta il principale limite del suo sviluppo. Perché se domani Intel decidesse di rompere la compatibilità per migliorare (a suo avviso) l’architettura non è detto che,a quel punto,sia più conveniente passare ad architetture alternative,più moderne e vantaggiose come ARM e RISCV. I vantaggi di x86 oramai li vede solo Intel e per ovvie ragioni.
@@BluCobalto Vero, però Apple, per esempio, se n'è un po' fregata e ha inserito layer di virtualizzazione/molteplici binary (e.s. dal passaggio a PowerPC a x86 e poi da X86 ad ARM) per la transizione. Vero, il parco software è molto minore però ad un certo punto se si vuole evolvere, alcune rinunce vanno fatte. E con le architetture software (e hardware) moderne, credo si possa fare quasi tutto...volendolo.
Non è vero che ARM é stata creata per i dispositivi mobile perché fu Acorn a volere questa architettura per i suoi computer Archimedes... Quindi già nel lontano 1987 c'era l'idea di fare computer desktop con quest'architettura. Inoltre a quel tempo era già a 32 bit. mentre tutte le altre CPU stavano prendendo quella strada.
Scusa Ferry... Apple ha portato sul mercato il primo device ARM-Based nell'estate del 1993: Intel ha portato la prima famiglia di processori basata su ARM (Xscale) a Febbraio 2002. La divisione è poi stata venduta a Marvell; il primo processore ARM è del 1981; ARM è più giovane di *tre anni* come architettura di x86 ed affonda le sue radici tecnologiche nel 1960, architettura RISC. Sono almeno due decenni che ci sono device consumer ARM sul mercato, e negli ultimi 15 anni grazie agli smartphone la multinazionale britannica ha potuto fare un quantitativo ciclopico di denaro, pagando dividendi molto succulenti ai suoi azionisti (tra cui una certa azienducola di Cupertino); XBox 360, PS3 e WII avevano processori RISC! XBox Series e PS4 son passate a x86, Switch è stata basata su ARM. Quello che ora secondo me sta succedendo è che x86 sta zoppicando troppo (anche grazie ai troppi anni di monopolio di fatto da parte di Intel), lasciando all'agile, flessibile ed efficient architettura basata su RISC lo spazio per espandere il proprio mercato.
Vero ma da quanto ho visto finora al momento sta venendo usato principalmente in IoT (i processori ESP32, per esempio). Non mi aspetto un grande supporto consumer entro minimo altri 10-15 anni.
Comunque a partire dal vecchio pentium pro l'architettura x86 non è più puramente cisc ma crisc ossia ibrida. Il set di istruzioni cisc viene tradotta internamente in risc e poi elaborata come risc. Altrimenti non avremmo avuto questa evoluzione di prestazioni.
@cosmonautisimulatorispazia4692 Ma anche le varie implementazioni di risc non sono pure , molte hanno operazioni su array che sarebbero lontane dalla filosofia. Sono differenze che si vanno ad assottigliare sempre di più
Una domanda, ipotizzando di avere un processore arm montato nel pc, i software attualmente sul mercato così come i videogiochi che se o ben capito sono programmati seguendo le istruzioni cisc, sarebbero incompatibili?
I software compilati per x86_64 non sono compatibili su processori arm64 e viceversa senza un adeguato layer di compatibilità, che introdurrebbe in ogni caso potenziali bug.
A oggi i processori arm, consumer, sono superati in performances dalle architetture cisc. E nemmeno di poco ..... E l'incremento di performances dei nuovi arm avvenute nell'ultimo triennio non sono state cosi' entusiasmanti, se non per i prezzi desiderati dai produttori.
Oltre alla presenza di tool di sviluppo molto evoluti quello che è cambiato dall'Archimedes ad oggi è che una volta la memoria era un bene preziosissimo, e quindi un codice ad esempio cinque volte più lungo poteva essere un problema significativo, mentre oggi anche su piattaforme minuscole la memoria abbonda comparata alle dimensioni del codice.
Molto interessante! Credo che l'architettura CISC rimanga (seppur in misura infima e a livello tendenziale e magari anche trascurabile per molte applicazioni pratiche) sempre più veloce rispetto all'architettura RISC. Del resto tutte le migliorie che portano ad un maggior efficientamento in termini "sociali" (time to market, costo della componentistica etc.) non possono sopperire alle carenze che generano per "natura".
I procesori ARM consumano poco e sono molto versatili. Il Game Boy Advance ne è forse una delle più grandi prove. Non mi stupisce che le CPU ARM stiano nuovamente rappresentando il futuro (l'introduzione delle CPU ARM non risale agli anni 80\90 ?).
@@Samo7900 no è che hanno fatto il consorzio freescale in cui confluirono motorola, ibm e apple...da lì è nato power pc che tutt'ora esiste e viene usato per certe applicazioni particolari essendo sparito dal mercato consumer. penso sia stata più che altro una scelta proprio aziendale.
@@cosmonautisimulatorispazia4692 Conosco bene il PowerPC, in casa ho due Amiga di nuova generazione equipaggiati con quell'architettura :-) Si il consorzio centra ovviamente, ma il 68k aveva comunque dei potenziali limiti evolutivi... Il PowerPC era un architettura più moderna e futuribile ..
@@Samo7900 Certamente, però per quel che ne so non penso che il 68k fosse più limitato del x86. Riguardo gli amiga con powerpc-...che peccato che le solite dinamiche legate ai diritti sui marchi sia stato stroncato come progetto. Aveva del potenziale, se lo avesse preso una bella multinazionale poteva esserci il ritorno di amiga.
Aggiungiamoci che il set di istruzioni dell'x86 fa pena, è una giungla che è meglio abbandonare (piuttosto che sprecare del microcodice come fa [o faceva?] AMD per far girare codice x86 con le sue CPU). Chissà che il passo successivo non sia abbandonare pure altra complessità per lasciare "tutto" in carico ai compilatori (mi vengono in mente branch prediction, superscalarità, …)
Le Stesse cose identiche le si dicevano 30 anni fa x86 contro risc e sappiamo come è andata… ormai il set di istruzioni è ininfluente almeno in campo desktop / laptop, x86 viene portato avanti per compatibilità e per motivi di mercato arm domina nei cellulari finché non diventerà troppo esosa come costi, e risc v è la vera architettura del futuro
@@DavidePremium-d4p come minimo il set di istruzioni non è ininfluente se ti piace smanettare scrivendo codice direttamente in assembly :) Scrivere assembly per 68k era un piacere; altri esplorati (mips, powerpc, … z80 :D, … mmix!) mi sono sempre apparsi "giusti"… x86, no: fa venire l'orticaria (che non vuol dire che non ti ci puoi divertire… ma non regge il paragone con la "bellezza" di altri).
sbagliatissimo l'assioma CISC=ARM. ARM è solo una azienda proprietaria di una specifica implementazione CISC. Esistono altre implementazioni CISC di cui la più importante è RISC-V, che essendo royalty-free è molto probabile manderà al macero ARM
Spero che in ambito PC desktop ci vogliano ancora parecchi anni per migrare anche lì su CPU non più "x86-64" ma bensì ARM. Questo perchè ho troppi plugins VST/VST3 che assolutamente non voglio perdere, coi quali produco la mia musica e che, ovviamente, richiederebbero di essere riscritti da capo per girare su CPU con differenti architetture. Ma potrei anche accontentarmi di una sorta di sandbox in grado di eseguire il vecchio codice X86...a me basta poter usare i plugins poi facciano ciò che vogliono. Non ci vedo nemmeno tutta questa urgenza, già il software attuale è in grado di usare solo una minima percentuale di una CPU x86 moderna, l'unico vero vantaggio si avrebbe sui notebook dove sì, la batteria durerebbe sensibilmente di più... ma sinceramente già quella del mio Lenovo, che non è nemmeno un TOP di gamma, dura parecchie ore e mi va più che bene così.
Diciamo che il discorso fatto nel video sui vantaggi sul guadagno di mercato dell'architettura arm è un discorso prettamente consumer, non si applica a vari settori professionali, il tuo probabilmente è uno di quelli. Nel mio mondo (progettazione elettronica) ci sono degli applicativi che hanno una complessità, in termini di algoritmi che girano dietro, che fa impallidire qualsiasi office word o finalcut di turno, dubito che le aziende che producono questi software possano migrare tutto, in un paio d'anni, su arm.
@@loregian9097 Dici bene. Esistono una miriade di applicativi professionali complessi di utilizzo settoriale che non subiranno mai la migrazione su sistemi Arm, semplicemente perché si rivolgono ad una fascia di utenti diversa. Sicuramente ci sarà una migrazione per tutte quelle applicazioni home e social style, ma a livello professionale la vedo molto poco probabile, o almeno dovrà passare ancora molto tempo.
@@CostaHhH Vero, ma non esiste solo la suite adobe........ Quello che trovo angoscioso è che alla fine la scelta del pc non dipenderà dalle caratteristiche dell'hardware, ma dai software che il SO permetterà di far girare. Non so come la pensi tu, ma per me è una questione decisamente triste.
A questa storia manca Motorola e il PowerPc, ma soprattutto manca Olivetti. ARM era incredibilmente di proprietà di Olivetti in tempi non sospetti. Poi quel "genio" di De Benedetti se l'è venduta...
ARM è ottima se c’è il supporto degli sviluppatori e di conseguenza l’ottimizzazione software. Apple ha fatto un capolavoro non scontato con serie M. Ma è Apple ed è perfetto per il suo ecosistema, inoltre ad avere l’appoggio di molti sviluppatori. Credo che la transizione (se dovesse essere) da x86 ad arm sarà molto più lunga di apple. Il 90% degli utenti non vedrà differenza se non forse per l’autonomia maggiore. Kmq lo sviluppo e l’ottimizzazione sono fondamentali sia per x86 che per arm come per qualsiasi tecnologia
Aggiungerei che arm già c'era, ma essendo che appunto più istruzioni = più memoria impiegata, e la memoria all'epoca era molto costosa... Comunque ragazzi, oggigiorno anche x86_64 spezzetta le istruzioni in parti più piccole, solo che appunto per fare questa cosa usa un po' più energia e genera più calore
RIASSUNTAZZO laptop anni 2005-2015 peso: se lo prendi con una mano sola, rischi che ti cade su un piede e devi andare al pronto soccorso. (si consigliano scarpe antinfortunistiche) prestazioni: 3 minuti per il boot ed un tempo indefinito per aprire chrome. (si consiglia di andare a fare altro nell'attesa) temperature: 90° stabili (ad agosto si consiglia di cuocerci le uova sopra) confort: ventole costantemente al 115% (si consigliano tappi protettivi per udito) batteria: 24 minuti interi di utilizzo (si consiglia di non andare oltre i 2 metri di distanza dalla presa) Laptop ARM (es. macbook m1) ultraleggeri, immediati, dissipazione passiva, nessun suono emesso, 12 ore di autonomia. Potremmo quasi dire che abbiamo inventato i portatili SOLO ADESSO.
La premessa di questo video è assurda: i RISC non solo non sono una novità in ambito desktop, ma anzi erano il vanto di Apple nel periodo pre-Intel. I processori G3, G4, fino al Dual-G5 erano tutti RISC nella pancia dei PowerMac fino al 2006! In questo video si fa passare l'idea che il mercato stia naturalmente virando da CISC a RISC, ma in realtà queste transizioni sono già avvenute... nella direzione opposta però! E la verità è che non ci sono ragioni logiche riconducibili ad un mercato in prevedibile evoluzione, non si possono trovare motivazioni razionali, perché la ragione di queste trasformazioni è sempre una stretta di mano tra gente di potere che non ha nessun interesse nello sviluppo tecnologico in sé, ma vuole solo dirottare il mercato verso il proprio conto in banca. L'idea che il mercato e l'industria si siano mossi (o si stiano muovendo) verso "la migliore delle tecnologie possibili" sul saldo binario di una selezione "naturale" della tecnologia più "logica" da utilizzare, è un'idea buona solo per la letteratura di fantascienza ;)
@@ferrystech Che tono! Non sono mica un hater. Verrebbe voglia di rispondere: "Mi indichi il minutaggio esatto dove il punto viene chiarito...", ma non ho nessuna concreta voglia di fare polemica perciò proporrei di finirla qui. Mi conceda almeno (per la mia vetusta età) di raccomandare a tutti voi giovani youtuber di aggiornare più spesso il driver della nonchalance ;) :) :)
Non necessariamente, spesso avendo un set di istruzioni ridotto il tasso di lancio di queste aumenta di d anche la loro risoluzione. Di conseguenza questo si traduce in un aumento dell’efficienza di calcolo ed energetica
ferry ferry ferry, tutti sono bravi a leggere su wikipedia, non sembra ma x86 da un pezzo in qua é un crisk e alla fine anche arm fuzina in maniera simile. Quello che cabbia nelle due architetture e lo schema di funzionamento della logica (come sono messi i transistor dentro) non lo schema di funzionamento logico (come funziona il programma interno)
Le descrizioni e le informazioni di RISC e CISC sono abbastanza fuorvianti, oltre che sbagliate. In particolare c'è da dire che i RISC non esistono più da tantissimo tempo (giusto qualche anno dopo la loro formulazione, grazie ai progressi della tecnologia). Praticamente tutti i processori sono ormai CISC. Cosa facilmente verificabile prendendo le fondamenta alla base delle architetture RISC e confrontandole con quella dei chip che vengono spacciati come tali: sono tutte inesistenti, a parte l'unica che è rimasta in piedi (l'uso di sole istruzioni Load/Store per accedere alla memoria). In breve: quelli che vengono spacciati come RISC in realtà sono processori L/S. I RISC, come concetto, hanno miseramente fallito.
Interessante e ben fatto video ma un paio di precisazioni devono essere fatte. Le cpu Arm sono utilizzate da anni, già sui Arcon Computer degli anni '80. I processori Cisc sono stati abbandonati dalle grandi aziende dalla fine degli anni '80; solo Intel ha portato avanti la sua architettura Cisc nata col capostipite Intel 4004 negli anni '70, che, per compatibilità e interesse di mercato è stata seguita più tardi da Amd, Via e Cyrix e badate bene, attraverso il Reverse Enginering. Acorn (Arm) Motorola, Apple, IBM con i PowerPc, HP, SGI con i Mips, Weitek, solo per citare i più conosciuti. Una cpu Risc è meno complessa da realizzare, utilizza meno transistor, anche se nel complesso Apple ne ha integrati quasi 100 miliardi in un singolo SoC (insieme di chip) e il software, oramai realizzato da compilatori sempre più efficienti già dagli anni '80, sembra più complesso ma solo relativamente; i Risc, eseguendo più operazioni per ciclo di clock, grazie alla architettura, lo calcolano più velocemente. Forse, a mio parere, quello che creava e crea costi maggiori nella produzione di chip Risc degli anni '90 è l'utilizzo ampie memorie cache di primo e secondo livello (fino a 4 megabyte di memoria veloce per processore). Silicon Graphics e IBM/Motorola dopo, e da Intel sfruttarono questa necessità d' integrazione hardware nelle loro cpu desktop per migliorare ulteriormente le prestazioni di queste cpu con software sempre più complessi.
Con le metafore non ci siamo proprio. Immagino inoltre che chi apre questo link già sappia che cosa sia x86 o arm. Quindi magari ci si sarebbe potuti concentrare sul titolo: perché?
x86 e' l'architettura con x64 si intendono i bit del processore, quindi quando leggi X86 X64 significa architettura X86 a 64 bit, o banalmente di solito abbreviano anche con X64 ma sappi che e' sempre architettura X86
Server per muovere il mercato. Farci cambiare macchine. x86 ha già dato e non muove più molto. Cambiando architettura si da una boccata d'ossigeno (economico) anche alle software house. Prevedo entro 10 anni un altro cambio verso RiscV stavolta.
Semplice problema di marketing. Si usa sempre di più risc perché costa poco e si mette ovunque. È solo una questione di bacino utenti. I computer desktop non lo compra più nessuno e quindi è ovvio che si passa a risc o comunque si vada a rimodulare le fabbriche. Questo passaggio è dovuto anche alle cpu sempre più veloci. C'entra veramente poco il compilatore.
X86 permette una retrocompatibilità EPICA e comunque ad oggi rappresenta il top delle performance. ARM bene sui dispositivi a basso consumo e breve longevità (software).
@@andreaciccarello Non stavo facendo riferimento ai videogiochi... In qualunque caso ARM ha già rivisto più volte istruzioni ecc. Non puoi lanciare applicazioni di 20 anni fa. Con gli x86 anche di 40.
@@massimocsw9455 Avere una compatibilità di istruzioni di 40 anni (che comunque non faresti girare con i moderni sistemi operativi) non è una feature così essenziale se poi le IPC che riesci ad ottenere e le prestazioni per Watt sono di gran lunga inferiori. Se devi far girare software di 40 anni fa o usi dispositivi molto più vecchi oppure vai di virtualizzazione, ma in quel caso è banale andare direttamente di emulazione per quando è poco prestante l'HW degli anni 80.
> X86 permette una retrocompatibilità EPICA vero ed è la ragione per cui ancora esiste > ad oggi rappresenta il top delle performance idealmente sì ma in pratica discutibile. Vero a livello di capacità di computazione ma potenzialmente inadeguato a sostenere grossi carichi per un lungo periodo a causa della temperatura più alta e BUS della memoria che fa da collo di bottiglia verso la cache. Odio Apple per le sue pratiche di marketing ma i loro processori ARM M1 sono ad oggi oggettivamente migliori dei moderni x86_64 per un gran numero di task.
Diciamo pure che rosetta funziona, sì, ma annulla tutti i vantaggi che avrebbe ARM su x86 (l'autonomia se fai girare qualcosa con rosetta si allontana di molto da quella di programmi nativi).
infatti rosetta e' stata messa su per avere una transizione il piu' possibile morbida. del resto quella su Mx e' rosetta2, la prima versione e' nata sugli x86 per far girare sw powerpc, e in qualche anno i produttori di sw hanno portato tutto sull'architettura nuova. tra qualche anno rosetta sara' pressoche' inutile perche' tutti i software saranno nativi mx
😂 Se avessi detto che le CPU RISC sono migliorate sarei d accordo perche con RISC-V che é implementabile e puo supportare stessa metodologia dei CISC insomma il risc-v e un ibrido tra Arm e x86 ARM se non migliora sara fuori come intel , amd ancora sviluppa e si tiene al passo.
RISC-V al momento lo sto vedendo utilizzato in IoT sui processori ESP32 ma non mi aspetto grandi novità prima di minimo altri 10-15 anni. La quantità di software per x86_64 è troppo massiccia per essere abbandonata e RISC-V è ancora troppo giovane per essere considerata una potenziale alternativa a livello professionale o militare.
@@telldo8016 Non vorrei contraddirti ma in ambito militare usano il RISC da decenni ormai, e il software che gira su ARM gira allo stesso modo su RISC-V perche l'architettura e uguale
@@grazianofalcone3093 Che venga usato il RISC è ovvio ma non so quanto oggi si possa ancora considerare safety/mission critical il software compilato per riscv. Se poi è solo mia ignoranza buono a sapersi (di norma lavoro sulla Mission Console Computer per x64 da un paio d'anni), non mi offendo.
@@telldo8016 Scusami non era mia intenzione darti dell'ignorante, ma considera una cosa importantissima, in ambito militare non importa quante istruzioni riesce a fare un PC e se è in grado di generare una immagine 3d renderizzata a 4K con 60 livelli di profondità, ai militari basta qualcosa che sia facilmente riparabile, difficilmente rintracciabile, in grado di fornire comunicazioni cifrate in tempo reale e che sia collegabile anche a un banalissimo televisore... Ho fatto la descrizione di un vecchio Commodore 64. Tutte le voci che dichiarano che la tecnologia militare è avanti decenni rispetto alla teconologia del mercato pubblico è vera solo parzialmente, se si parla di elettronica con altissima precisione allora si, ma se parliamo di informatica allora è no, i programmatori militari devono essere in grado di correggere bug in tempi brevi quindi l'aspetto grafico è trascurato di brutto, quando nei film vedi tutti gli effetti di tecnologia futuristica beh considera che in realtà i militari in missione operano con delle apparecchiature dove hanno pochissime opzioni e le usano esclusivamente per ricevere gli ordini e confermare che è stato compiuto, magari tutto su un display LCD di pochi Cm con un tastierino alfanumerico, attualmente l'unico mezzo militare che ha un sistema informatico avanzato rispetto a tutti gli altri è L'eurofighter ( Il che è risultato controproducente spingendo gli stessi piloti a disattivare il sistema informatico passando al manuale perchè lo stesso limita troppo le potenzialità del velivolo) Scusa sto divagando, ma è per far capire a chi legge che i militari cinematografici e quelli reali sono completamente diversi: Nei film gli ufficiali sono in grado di hackerare un pc entrare in una rete informatica e teletrasportarsi con un calcio volante. Nella realtà gli ufficiali hanno difficoltà a usare le applicazioni di base come Office e Browser, molti non hanno idea di come si accende un PC, e preferiscono l'uso di mezzi che siano tecnologicamente vecchi ma funzionali, figurati che ho conosciuto due colonnelli che continuano a usare il Nokia 3410 perche il 3310 non era dual band e non ne vogliono sapere di smartphone che hanno GPS, Internet Fotocamera ecc,ecc Anzi ora che ci penso nessuno degli ufficiali usa un cellulare SMARTPHONE quando sono in servizio, tutte le comunicazioni vengono deviati dai loro centralinisti usando mezzi di comunicazioni militari e solo se sono autorizzati. Vabbeh ho scritto troppo adesso risulto pure noioso.
@@grazianofalcone3093 > Scusami non era mia intenzione darti dell'ignorante Infatti me lo sono dato da solo, nessun problema davvero, ero onestamente curioso e felice eventualmente di essere corretto. > ma se parliamo di informatica allora è no Esatto, il mio dubbio era sulla certificazione proprio perché lavorando su software avionico civile (GUI e bus di comunicazione) sono consapevole dei grossi limiti legati ai requisiti; quello militare sarà sicuramente ancora più rigido. Non so cosa fanno le altre aziende ma dove lavoro io non ho davvero sentito nessuno affermare di dover compilare per riscv32 o 64 nemmeno sui progetti più recenti. > Vabbeh ho scritto troppo adesso risulto pure noioso. Ci mancherebbe, è sempre utile imparare qualcosa.
In 20 nm il vecchio digital risc 21264 appare microscopico, i cinesi lo mettono gia' nei tablet. Ma, e' gia' previsto il 21664 con cache l1 tripla, con prestazioni monster.
Sarebbe da dire che verosimilmente ci si stanno buttando tutti perché é stata Apple a fare da apripista dimostrano che sia un’architettura valida e probabilmente superiore non solo per smartphone o tablet. Altresì sarebbe da ricordare come sia stata sempre Apple ad introdurla per la prima volta sul suo Newton negli anni ‘90 dimostrando come fosse veramente “avanti” come visione rispetto la concorrenza e l’epoca. Diciamo che oggi la diamo per scontata ma ad es chi avrebbe scommesso su di essa prima che Apple ad es ci mettesse mano con i primi M? La maggior parte pensava verosimilmente che fossero al massimo sock per smartphone o poco più.
Commento inesatto, prima di tutto i processori Apple silicon si basano sull'isa del processore ARM Cortex X1, quindi Apple non ha scoperto nulla, ci sono molti altri produttori (ad esempio Qualcomm) che producono processori ARM per desktop da molto prima della produzione di Apple silicon
@@andrearosanova6550chi ha detto che Apple abbia inventato il processore arm per desktop?. Ho detto che sono loro, come al solito, che hanno dato la spinta perché tutti ci si buttino con forza rischiando di fatto su questa tecnologia abbandonando Intel con una transizione velocissima (infatti Qualcomm ha accelerato per cercare di costruire un chip che possa fare concorrenza agli M così come mi pare loro stessi ammisero). Tant’é che Qualcom ci stava provando con scarsi risultati. Arriva Apple ed appena li presenta di fatto vanno a sostituire subito Intel in tutta la loro lineup (transizione completata in un paio di anni se non erro). Per quanto riguarda invece ARM rilegga la storia del Newton e degli accordi tra Apple ed ARM che risalgono a metà degli anni 90 (in tempi non sospetti)…tant’é che se non erro Apple ha degli accordi di licenza “particolari” essendo in qualche modo tra le “cofondatrici “ di quell’azienda che, preesistente, venne ribattezzata ARM appunto.
@@ddb4192beh qui non si parla di inventare il risc. Qua si tratta dell’intuizione di usare prima la tecnologia risc di fatto su dispositivi “palmari” (ma a metà degli anni ‘90 …in tempi non sospetti) e poi dimostrare che la tecnologia Arm potesse essere usata validamente per i computer desktop non alla pari ma addirittura con una resa superiore di quello che era lo status quo (AMD ed Intel con architettura CISC) fino a quel momento. Loro osano e lo fanno in maniera decisa. Questo è innegabile. Poi a “copiare” od emulare è molto più facile con una strada spianata
@marcopallotta1452 Quelli erano strong arm architettura Intel . Apple in quei anni non progettava chip quindi faceva con quello che gli forniva il mercato
semplifichiamo... Praticamente il nostro pc non avra' piu' una forza di calcolo propria ma sara' dipendente da cosa ci permettera di fare l''IA... Benvenuti nel nuovo mondo di totale controllo da parte di pochi sulla massa !!! Tutto dipendera` da un codice di programmazione...
Grazie per i contenuti. Mi piacerebbe ( a meno che tu non lo abbia già fatto ) un videone dove riassume la storia delle architetture ( i 386, i 486, i primi pentium cosa erano? E i primi chip Motorola che erano dentro i Commodore e le console 8-16 bit? ) con i loro punti di forza e punti deboli. Per come l’ho capita io la cosa, per i computer “da vita normale” ( uso uffici, videogame, fotocomposizione, musica ) al di là se sono desktop o laptop, un chip con architettura risc dei giorni nostri e’ fin troppo per le prestazioni ( vedi l’M1 di Apple ) che deve offrire; mi da l’idea che se adeguatamente sfruttate, in un chip “ben progettato”, le architetture cisc possano offrire di più ( ai programmatori? A chi lo usa per ricerche mediche/scentifiche ? ). Secondo te in un futuro relativamente breve in quali settori le architetture cisc non potranno essere sostituite dalle risc?
Devi fare una considerazione su M1; questo chip, di base, quindi escludendo le versioni Pro e Max, è potente almeno quanto un Corei7 di media generazione, ha una architettura video integrata molto più potente di qualsiasi GPU integrata nelle cpu da Intel e ha una efficenza energetica che Intel/AMD/nVidia per ora, possono solo sognarsi; meno di 20 watt totali alla massima potenza tra cpu/GPU/memoria/unità disco SSD interna/BT e WI-FI. Utilizzato in ambito desktop scopriresti che la suite ADOBE/ WORD/EXEL funzionano molto velocemente rispetto qualsiasi cpu Core i5, senza contare il sistema operativo....( su M2 e M3 l'efficienza e la potenza sono ulteriormente aumentate mediamente dal 20 al 50%) e tutto con soli 8Gb di ram condivisi in qualsiasi versione BASE. Le versioni con 16Gb aumentano considerevolmente la loro efficenza e potenza....per questo motivo Apple se le fa pagare!!! Ma con un MacMini M2 base scopriresti di avere un PC molto efficiente e potente con un OS ben ottimizzato.....provare per credere.
@Vlamat67 Mi spieghi come aumenta la potenza con l’aumento della ram ? Lasciando perdere il discorso above che usa pesantemente parti della cpu dedicata
@@ddb4192 non è difficile; i chip dell'ssd e della ram non sono uguali e non forniscono la stessa banda, malgrado l'ssd interno sia comunque molto più veloce di qualsiasi ssd sata (una media di 2,5Gbs sul Mini M2, 7Gbs sugli M1/2 Pro e Max, dipende dalle configurazioni). Tornando alla domanda, un M1/2/3 base con 8Gb di ram, se usato con tante app o peggio app che usano tanta memoria, costringeranno il sistema operativo a utilizzare il disco di sistema per lo swap rallentando le prestazioni massime (app come Blender fanno fatica se il progetto richiede molta ram), quindi avere 16Gb di memoria può migliorare le prestazioni e in certi casi aumentarla rispetto a un computer con meno ram. Osx, fin dai suoi albori ha sempre ottimizzato l'uso della memoria, ma se proprio se ne aveva poca era costretto a fare lo swap su disco; ma bastava aggiungere ram per vedere le prestazioni migliorare nettamente. Spero tu abbia compreso, ciao.
@Vlamat67 Dire che un os ottimizza l’uso della memoria risulta una castroneria unica. Un os ha bisogni fino di tot ram per funzionare , (reale o virtuale) e ne da hai vari processi che è ne fanno richiesta, non ottimizza nulla, vorrebbe dire entrare nei processi e modificarne il codice in run time. Riguardo alla memoria virtuale tutto gli os moderni ne fanno uso e la fruttano. Questo rallenta le prestazioni per il semplice motivo che un disco risulta molto più lento della ram
@@ddb4192 ,Ti ho risposto con gentilezza, QUINDI impara a esserlo anche TU senza bisogno di fare il saccente presuntuoso fin dalla prima domanda ! Ricordati una cosa, essere umili è importante....perchè, se nel mondo reale ti rivolgi con questo tuo modo di fare, di "vaffa" ne farai la collezione. Puntualizzato questo, SI un OS ottimizza l'uso della memoria, e l'ho spiegato bene sopra in quale modo - se hai letto con attenzione - pensa lo faceva anche il Commodore 64 se mai ne hai visto e usato uno. Ps. le "H" si usano con i verbi, rileggi prima di scrivere, ciao ne!
@@florixc non solo, ad oggi io posso scaricare da steam Half Life 1 di 25 anni ed avere la quasi certezza che funzioni sul mio PC attuale, questa cosa con ARM la perderesti.
Non vedo reali vantaggi da questa tecnologia perché quando devi lavorare seriamente devi stare attaccato alla 230 V e poi il lavoro in mobilità è pura utopia È roba che fanno solo i giornalisti o gli youtuber Io lavoro con la gpu e faccio rendering essenza l'alimentazione fissa non faccio niente Ho bisogno di una workstation grafica e quindi l'efficienza dell'architettura arm non mi serve a niente perché i software che utilizzo sono fortemente le singole core e sono più importanti le frequenze Dov'è arm è carente. Inoltre quello che alcuni hanno notato che nell'architettura Apple all'aumentare delle frequenze si arriva a un punto che non ci sono reali aumenti di prestazioni la tecnologia non è pensata per la forza bruta e poi i processori presentati fino adesso Montano sì CPU che sembrano potenti ma sono scarsi lato scheda video l'm3 Max non arriva le prestazioni di una 3080 e questi vogliono pure parlare di Ray tracing
Complimenti per la risposta: sei riuscito a centrare il bersaglio in pieno al primo colpo e allo stesso tempo mancarlo del tutto in tutti i colpi successivi! Quello che hai scritto è semplicemente VERISSIMO ma ti sei semplicemente dimenticato di scrivere che il 99% degli utilizzatori di un computer NON sa neppure cosa significhi la parola rendering (conoscono le parole word, excel, outlook, youtube e poche altre!). Ed è pure vero che altre persone con un lavoro più tecnico (me compreso) magari si trovano a dover collegare il computer ad un dispositivo elettronico per mezzo di una seriale da 9600 baud per inviare dei comandi da terminale o prendere dei log (tutto questo pero solamente dopo essere riusciti a far spazio per appoggiare il computer, cosa che solitamente tende ad essere la parte più difficile). Semplicemente stiamo parlando di mercati diversi che hanno esigenze differenti. Poi, ad ogni caso, con le nuove tecnologie di connessione a banda ultralarga si sta ritornando in parte al vecchio concetto di elaboratore centrale dove risiede la capacità di memoria e calcolo e terminali utenti stupidi connessi all' unità centrale: il tuo supercomputer di cui parli (rumoroso, energivoro e dalla elevata dispersione di calore) può tranquillamente stare rinchiuso un uno stanzino climatizzato insieme ad altri suoi simili ed i vari utilizzatori possono semplicemente collegarsi ad essi da remoto usando piccoli computer leggeri, economici, silenziosi e dal basso consumo.....
non sapevo che il rendering fosse una di quelle cose intrinsecamente non parallelizzabili e che i software non fossero in grado di sfruttare i core multipli delle cpu moderne. Vuol dire che chi ha queste esigenze dovrà comprarsi hardware dedicato extra.
Anche con le CPU x86 ci sono processori efficienti Basta guardare quello dei dispositivi handheld come Steam Deck o rog Ally che consumano da 10 a 30 W Se Microsoft vuole spingere sull'architettura arm Prima di tutto deve fare un Rosetta e non quella specie di emulazione che hanno fatto fino ad ora dove le prestazioni vengono ammazzate
Secondo me si stanno preparando al fatto che forse è vera la voce che in Corea sono vicini ad un superconduttore a temperatura ambiente, solo in termini di resa energetica e calore sarebbe rivoluzionario 😜
Penso che Microsoft non riuscirebbe mai ad ottenere l'ottimizzazione che ha avuto Apple, visto che Apple sa che sui suoi prodotti basati su ARM sono installati i chip M e quindi sviluppa il software appositamente. D'altro canto, Windows gira su una vasta gamma di dispositivi e architetture, quindi se arrivassero PC basati su ARM con Windows, l'ottimizzazione non sarebbe mai paragonabile.
Nel 1983 il mio professore di informatica all’università preconizzava già l’avvento di una architettura multi processore con più processori in parallelo…
Io non sopporto quando i programmi occupano tanto per "niente", tipo tra Gimp e Krita ho scelto il secondo che pesa "solo" sui 400 MB, mentre GIMP era arrivato ad 1GB. Chissà Photoshop a quanto sarà arrivato, non mi meraviglierebbe se stesse a 4GB oggi 🤣. Io conservo ancora la versione 6 dei primi anni 2000, che pesava 100 MB 😉. Ora con la scusa di questi ARM scommetto che faranno "pesare" tutto il doppio... 😥.
@@kentahirono Io in Photoshop facevo molto uso dei livelli di regolazione, in pratica sono dei filtri non distruttivi che si applicano come livelli sopra l'immagine, questo in Krita si può fare, anche se funziona in modo un pò diverso ripetto a Photoshop... mentre in Gimp l'ultima volta che ho provato non era possibile farlo, cioè ogni filtro andava applicato direttamente ad un livello bitmap, quindi ogni volta che lo vuoi modificare devi riduplicare il livello originale e riapplicare il filtro, io trovo molto più comodo usare i livelli di regolazione.
Perchè è più efficente, perchè non si pagano diritti elevati, perchè i poveretti della Microsoft si sono svegliati solo ora. Linux su Arm esiste da molto tempo. Pensa a quanto tempo perso per colpa di microsoft, lo stesso accadde nel passaggio 32-64bit.
In realtà l'architettura RISC non è iniziata con il mondo mobile ma era utilizzata in ambito server da IBM e poi su HP. Ed è appunto proprio sulla serie di server HP3000 dotata di processori RISC che ho iniziato ad occuparmi di sistemistica. Era la fine degli anni '80 (del secolo scorso... sigh!) Ciao!
Anche Apple ha utilizzato l'architettura RISC nei primi anni 90 con i chip PowerPC
Anche le prime due Playstation, la PSP e il Nintendo 64 avevano delle CPU RISC prodotte dalla MIPS Technologies.
non ho detto che è "INIZIATA" con il mondo mobile, ho detto che si è DIFFUSA con il mondo mobile, infatti il mondo PC classico è stato CISC per una vita, per i motivi indicati
@@donotunderstand Apple fu costretta a cambiare architettura poiché Motorola terminò lo sviluppo della serie 68000 fino al 68060 per concentrarsi sulla implementazione Power di IBM. Nacque il consorzio IBM/Apple/Motorola e crearono le cpu PowerPc, architettura utilizzata da tanti satelliti, dai robot andati su Marte, modem, centraline d'auto ecc.
Scusa se mi permetto, ma l'HP3000 utilizzava una architettura CISC, prima di diventare PA-Risc all'inizio degli anni '80. Ma parlando di computer e microcomputer desktop e non di Server, le cpu Risc nascono dopo la metà degli anni '70 con il MOS6502 ( in parte Risc e in parte CISC) utilizzato per emulare l'architettura ARM dalla Acorn stessa che la portò allo sviluppo delle cpu ARM e dei computer....
Comunque il core del video è sbagliato, ormai x86 e ARM sono entrambe CISC, anche se ormai la definizione ha perso molto senso. La differenza vera è che ARM è diventata CISC di recente andando ad evitare gli errori fatti da x86. Ad esempio le istruzioni AVX ci sono in entrambe le architetture.
Inoltre la vera differenza è che ARM è formata da decine di aziende in concorrenza tra loro mentre X86 da un duopolio che è quasi un monopolio, e questo rallenta l'innovazione
Come mai allora il mio Mac mini m1 consuma solo 28w in full load?
I cisc sono super energivori.
@@alexroot1980 non confondere CISC con Intel:
1- Apple usa un processo produttivo di 5 nm (m1 e m2) e 3nm (m3), l'ultima generazione intel è su intel 7, e parliamo di 2 o 3 gen di processo produttivo di differenza.
2- Intel per anni è stata monopolista e come sempre accade si è seduta sugli allori (ha usato lo stesso processo produttivo dal 2015 al 2020)
3- l'ultima generazione AMD (la 7000) ha performance per watt leggermente superiori rispetto agli M2, gli m3 sono avanti ma hanno l'esclusiva sul processo produttivo a 3nm.
4- uno dei cavalli di battaglia di x86 è l'assoluta volotà di mantenere la compatibilità. ad oggi su un pc attuale con windows attuale puoi far girare un software del 2000 in modo nativo pensato per windows xp. questa retrocompatibilità la paghi in termini di transistor necessari e quindi di consumi. ARM, al contrario, avendo da sempre avuto come cavallo di battaglia i bassi consumi, piu volte nel corso della storia ha resettato l'ISA rendendo necessaria la riscrittura di tutto il software. (sono arrivati ad ARMv8, che è la prima versione retrocompatibile con ARMv7, tutte le altre 7 sono stati tagli netti)
intel di recente ha introdotto a parole l'architettura "x86s" che dovrebbe essere una variamente che taglia tutto il superfluo, ti vai quindi a perdere la compatibilità con il software vecchio e ne guadagni in efficienza. vedremo se mai la concretizzeranno
@@xanScalecommento più esplicativo di tutta youtube italia. Grazie!
Fascinante discussione sul passaggio alle CPU ARM! Hai spiegato in modo chiaro le ragioni dietro questa transizione e le potenziali implicazioni. È un momento entusiasmante nell'evoluzione tecnologica. Grazie per condividere queste informazioni illuminanti!
Bellissima spiegazione, ma lacunosa su un aspetto fondamentale, ossia i set di istruzioni delle CPU CISC sono brevetti che impediscono la realizzazione di CHIP di concorrenza, per ovvi motivi di costi di sviluppo, questo ha creato il duopolio di INTEL e AMD . Mentre invece qualunque produttore di microchip può produrre CPU RISC, con le istruzioni base.
@SalvatoreTocco73
X86 è una architettura Cisc brevettata ma non tutte le architetture di quella famiglia lo sono , domani potresti farne una nuova e non pagare nulla a nessuno.
Arm la paghi per il progetto della cpu quindi paghi prima .
hai dimenticato due delle ragioni tecniche più importanti: 1) la dimensioni dei binari, che contrariamente alle attese, sono decisamente più piccole 2) il consumo, i RISC richiedendo meno transistor, consumano meno, e sviluppano un rapporto MIPS/Watt decisamente maggiore. Infine dovresti parlare dell'architettura RISC-V che si sta mangiando anche ARM
In effetti video piuttosto "vuoto" di contenuti e di veri motivi per cui ARM sta avendo questo successo...Su RISC-V...boh, la vedo ancora lunga prima che raggiunga ARM, vedremo :)
Risc-V non si sta mangiando Arm.
Parafrasando il mio prof di architettura dei sistemi di elaborazione, chiedere se è meglio x86 o arm è come chiedere se vuoi più bene a mamma o papà
Ottima similitudine. Io amplierei il discorso maschi vs femmine .. maschi = arm semplici, istruzioni semplici. Mangiare, bere, giocare, tromb…re 😂
Femmine = cisc 😮
Giustissimo, però tra 5 anni ci saranno 10 arm per un x86, se x86 non si rinnova pesantemente la vedo dura...😊
Gli x86 hanno goduto negli anni di un vasto supporto economico in regime di monopolio. Nulla di più lontano dagli aspetti tecnici che gli anni dovevano e potevano cominciare a far pesare. Perché come ti avrà insegnato bene il prof. in architettura degli elaboratori un’ISA influisce eccome sul design delle unità funzionali di una CPU. Anche attuale. Oggi x86 è un’ISA legacy che sopravvive grazie ad un vasto supporto software ma che rappresenta il principale limite del suo sviluppo. Perché se domani Intel decidesse di rompere la compatibilità per migliorare (a suo avviso) l’architettura non è detto che,a quel punto,sia più conveniente passare ad architetture alternative,più moderne e vantaggiose come ARM e RISCV.
I vantaggi di x86 oramai li vede solo Intel e per ovvie ragioni.
@@BluCobaltoperché arm non è di duo riscv?
@@BluCobalto Vero, però Apple, per esempio, se n'è un po' fregata e ha inserito layer di virtualizzazione/molteplici binary (e.s. dal passaggio a PowerPC a x86 e poi da X86 ad ARM) per la transizione. Vero, il parco software è molto minore però ad un certo punto se si vuole evolvere, alcune rinunce vanno fatte. E con le architetture software (e hardware) moderne, credo si possa fare quasi tutto...volendolo.
Non è vero che ARM é stata creata per i dispositivi mobile perché fu Acorn a volere questa architettura per i suoi computer Archimedes... Quindi già nel lontano 1987 c'era l'idea di fare computer desktop con quest'architettura. Inoltre a quel tempo era già a 32 bit. mentre tutte le altre CPU stavano prendendo quella strada.
Esattamente.
Scusa Ferry...
Apple ha portato sul mercato il primo device ARM-Based nell'estate del 1993: Intel ha portato la prima famiglia di processori basata su ARM (Xscale) a Febbraio 2002. La divisione è poi stata venduta a Marvell; il primo processore ARM è del 1981; ARM è più giovane di *tre anni* come architettura di x86 ed affonda le sue radici tecnologiche nel 1960, architettura RISC.
Sono almeno due decenni che ci sono device consumer ARM sul mercato, e negli ultimi 15 anni grazie agli smartphone la multinazionale britannica ha potuto fare un quantitativo ciclopico di denaro, pagando dividendi molto succulenti ai suoi azionisti (tra cui una certa azienducola di Cupertino); XBox 360, PS3 e WII avevano processori RISC! XBox Series e PS4 son passate a x86, Switch è stata basata su ARM.
Quello che ora secondo me sta succedendo è che x86 sta zoppicando troppo (anche grazie ai troppi anni di monopolio di fatto da parte di Intel), lasciando all'agile, flessibile ed efficient architettura basata su RISC lo spazio per espandere il proprio mercato.
Quoto aggiungendo che anche la PS1, la PS2, la PSP e pure il Nintendo 64 erano equipaggiati con CPU ad architettura RISC.
dici bene, PS3, Xbox 360 e Wii avevano processori PowerPC RISC, mentre da PS4 in poi si è passati a x86 CISC
ARM ha comunque il punto debole della società gestisce le licenze, immagino che molti stiano considerando anche RISC V...
Vero ma da quanto ho visto finora al momento sta venendo usato principalmente in IoT (i processori ESP32, per esempio). Non mi aspetto un grande supporto consumer entro minimo altri 10-15 anni.
Comunque a partire dal vecchio pentium pro l'architettura x86 non è più puramente cisc ma crisc ossia ibrida. Il set di istruzioni cisc viene tradotta internamente in risc e poi elaborata come risc. Altrimenti non avremmo avuto questa evoluzione di prestazioni.
@cosmonautisimulatorispazia4692
Ma anche le varie implementazioni di risc non sono pure , molte hanno operazioni su array che sarebbero lontane dalla filosofia.
Sono differenze che si vanno ad assottigliare sempre di più
A quando un video su RISC-V
Una domanda, ipotizzando di avere un processore arm montato nel pc, i software attualmente sul mercato così come i videogiochi che se o ben capito sono programmati seguendo le istruzioni cisc, sarebbero incompatibili?
I software compilati per x86_64 non sono compatibili su processori arm64 e viceversa senza un adeguato layer di compatibilità, che introdurrebbe in ogni caso potenziali bug.
@@telldo8016 Okay grazie tante.
A oggi i processori arm, consumer, sono superati in performances dalle architetture cisc.
E nemmeno di poco .....
E l'incremento di performances dei nuovi arm avvenute nell'ultimo triennio non sono state cosi' entusiasmanti, se non per i prezzi desiderati dai produttori.
Ho una domanda: la vulnerabilità PACMAN, che dovrebbe interessare Apple Silicon, riguarda tutti gli altri processori ARM?
Oltre alla presenza di tool di sviluppo molto evoluti quello che è cambiato dall'Archimedes ad oggi è che una volta la memoria era un bene preziosissimo, e quindi un codice ad esempio cinque volte più lungo poteva essere un problema significativo, mentre oggi anche su piattaforme minuscole la memoria abbonda comparata alle dimensioni del codice.
Molto interessante! Credo che l'architettura CISC rimanga (seppur in misura infima e a livello tendenziale e magari anche trascurabile per molte applicazioni pratiche) sempre più veloce rispetto all'architettura RISC. Del resto tutte le migliorie che portano ad un maggior efficientamento in termini "sociali" (time to market, costo della componentistica etc.) non possono sopperire alle carenze che generano per "natura".
4:46 l'automobile è stata generata da image creator di Bing o simili vero?😁💪
I procesori ARM consumano poco e sono molto versatili.
Il Game Boy Advance ne è forse una delle più grandi prove.
Non mi stupisce che le CPU ARM stiano nuovamente rappresentando il futuro (l'introduzione delle CPU ARM non risale agli anni 80\90 ?).
Se solo la famiglia 68000 di Motorola avesse continuato la sua evoluzione invece di morire con Commodore!
Su 68k credo ci fossero dei limiti oltre ai quali non si sarebbe potuto andare .. non a caso passarono a PowerPC ...
@@Samo7900 no è che hanno fatto il consorzio freescale in cui confluirono motorola, ibm e apple...da lì è nato power pc che tutt'ora esiste e viene usato per certe applicazioni particolari essendo sparito dal mercato consumer. penso sia stata più che altro una scelta proprio aziendale.
@@cosmonautisimulatorispazia4692 Conosco bene il PowerPC, in casa ho due Amiga di nuova generazione equipaggiati con quell'architettura :-)
Si il consorzio centra ovviamente, ma il 68k aveva comunque dei potenziali limiti evolutivi... Il PowerPC era un architettura più moderna e futuribile ..
@@Samo7900 Certamente, però per quel che ne so non penso che il 68k fosse più limitato del x86. Riguardo gli amiga con powerpc-...che peccato che le solite dinamiche legate ai diritti sui marchi sia stato stroncato come progetto. Aveva del potenziale, se lo avesse preso una bella multinazionale poteva esserci il ritorno di amiga.
Aggiungiamoci che il set di istruzioni dell'x86 fa pena, è una giungla che è meglio abbandonare (piuttosto che sprecare del microcodice come fa [o faceva?] AMD per far girare codice x86 con le sue CPU). Chissà che il passo successivo non sia abbandonare pure altra complessità per lasciare "tutto" in carico ai compilatori (mi vengono in mente branch prediction, superscalarità, …)
Le
Stesse cose identiche le si dicevano 30 anni fa x86 contro risc e sappiamo come è andata… ormai il set di istruzioni è ininfluente almeno in campo desktop / laptop, x86 viene portato avanti per compatibilità e per motivi di mercato arm domina nei cellulari finché non diventerà troppo esosa come costi, e risc v è la vera architettura del futuro
@@DavidePremium-d4p come minimo il set di istruzioni non è ininfluente se ti piace smanettare scrivendo codice direttamente in assembly :) Scrivere assembly per 68k era un piacere; altri esplorati (mips, powerpc, … z80 :D, … mmix!) mi sono sempre apparsi "giusti"… x86, no: fa venire l'orticaria (che non vuol dire che non ti ci puoi divertire… ma non regge il paragone con la "bellezza" di altri).
Ma a 0:37 è un 8086? Ho programmato roba in Assembly per quella architettura... Tanta roba!
qualcuno ha problemi su YT sul PC ? mi parte un doppio audio , sia su Chrome che su Edge anche provando a disattivare estensioni e script
Non è la prima volta che fu utilizzata da Apple e da Motorola come i RISC Power PC degli anni '90.
Molto Interessante Grazie Per la Condivisione....Un abbraccio Grande...
sbagliatissimo l'assioma CISC=ARM. ARM è solo una azienda proprietaria di una specifica implementazione CISC. Esistono altre implementazioni CISC di cui la più importante è RISC-V, che essendo royalty-free è molto probabile manderà al macero ARM
infatti ARM non usa CISC... che cosa hai ascoltato ?
sarebbe bello vedere delle cpu intel-arm e amd-arm removibili com'è oggi con le cpu x86. Anzì, spero che anche i telefoni diventano più modulari.
Spero che in ambito PC desktop ci vogliano ancora parecchi anni per migrare anche lì su CPU non più "x86-64" ma bensì ARM. Questo perchè ho troppi plugins VST/VST3 che assolutamente non voglio perdere, coi quali produco la mia musica e che, ovviamente, richiederebbero di essere riscritti da capo per girare su CPU con differenti architetture. Ma potrei anche accontentarmi di una sorta di sandbox in grado di eseguire il vecchio codice X86...a me basta poter usare i plugins poi facciano ciò che vogliono. Non ci vedo nemmeno tutta questa urgenza, già il software attuale è in grado di usare solo una minima percentuale di una CPU x86 moderna, l'unico vero vantaggio si avrebbe sui notebook dove sì, la batteria durerebbe sensibilmente di più... ma sinceramente già quella del mio Lenovo, che non è nemmeno un TOP di gamma, dura parecchie ore e mi va più che bene così.
Diciamo che il discorso fatto nel video sui vantaggi sul guadagno di mercato dell'architettura arm è un discorso prettamente consumer, non si applica a vari settori professionali, il tuo probabilmente è uno di quelli. Nel mio mondo (progettazione elettronica) ci sono degli applicativi che hanno una complessità, in termini di algoritmi che girano dietro, che fa impallidire qualsiasi office word o finalcut di turno, dubito che le aziende che producono questi software possano migrare tutto, in un paio d'anni, su arm.
@@loregian9097 Dici bene. Esistono una miriade di applicativi professionali complessi di utilizzo settoriale che non subiranno mai la migrazione su sistemi Arm, semplicemente perché si rivolgono ad una fascia di utenti diversa.
Sicuramente ci sarà una migrazione per tutte quelle applicazioni home e social style, ma a livello professionale la vedo molto poco probabile, o almeno dovrà passare ancora molto tempo.
dipende dal mercato, adobe ci ha messo 2 secondi per tutta la suite
@@CostaHhH Vero, ma non esiste solo la suite adobe........
Quello che trovo angoscioso è che alla fine la scelta del pc non dipenderà dalle caratteristiche dell'hardware, ma dai software che il SO permetterà di far girare.
Non so come la pensi tu, ma per me è una questione decisamente triste.
Mi pare che anche i vecchi apple, quando il processore era sviluppato da IBM, usavano processori RISC... Ricordo male?
A questa storia manca Motorola e il PowerPc, ma soprattutto manca Olivetti. ARM era incredibilmente di proprietà di Olivetti in tempi non sospetti. Poi quel "genio" di De Benedetti se l'è venduta...
C'è qualcosa che De Benedetti non abbia distrutto nella sua carriera, se si può definire tale?
ARM è ottima se c’è il supporto degli sviluppatori e di conseguenza l’ottimizzazione software. Apple ha fatto un capolavoro non scontato con serie M. Ma è Apple ed è perfetto per il suo ecosistema, inoltre ad avere l’appoggio di molti sviluppatori.
Credo che la transizione (se dovesse essere) da x86 ad arm sarà molto più lunga di apple. Il 90% degli utenti non vedrà differenza se non forse per l’autonomia maggiore.
Kmq lo sviluppo e l’ottimizzazione sono fondamentali sia per x86 che per arm come per qualsiasi tecnologia
"Kmq" è un titolo in borsa?
Aggiungerei che arm già c'era, ma essendo che appunto più istruzioni = più memoria impiegata, e la memoria all'epoca era molto costosa... Comunque ragazzi, oggigiorno anche x86_64 spezzetta le istruzioni in parti più piccole, solo che appunto per fare questa cosa usa un po' più energia e genera più calore
Bravissimo esaustivo e fa capire le varie differenze perché ancora non lo so grazie grande❤
Bravo spiegazione chiara e semplificata accessibile a tutti complimenti
C'era un tempo in cui ARM era nelle mani di Olivetti.
Perchè ARM e non RISK V?.. mi piacerebbe un video a tema
RIASSUNTAZZO
laptop anni 2005-2015
peso: se lo prendi con una mano sola, rischi che ti cade su un piede e devi andare al pronto soccorso. (si consigliano scarpe antinfortunistiche)
prestazioni: 3 minuti per il boot ed un tempo indefinito per aprire chrome. (si consiglia di andare a fare altro nell'attesa)
temperature: 90° stabili (ad agosto si consiglia di cuocerci le uova sopra)
confort: ventole costantemente al 115% (si consigliano tappi protettivi per udito)
batteria: 24 minuti interi di utilizzo (si consiglia di non andare oltre i 2 metri di distanza dalla presa)
Laptop ARM (es. macbook m1)
ultraleggeri, immediati, dissipazione passiva, nessun suono emesso, 12 ore di autonomia.
Potremmo quasi dire che abbiamo inventato i portatili SOLO ADESSO.
Molto chiaro grazie.
La premessa di questo video è assurda: i RISC non solo non sono una novità in ambito desktop, ma anzi erano il vanto di Apple nel periodo pre-Intel. I processori G3, G4, fino al Dual-G5 erano tutti RISC nella pancia dei PowerMac fino al 2006! In questo video si fa passare l'idea che il mercato stia naturalmente virando da CISC a RISC, ma in realtà queste transizioni sono già avvenute... nella direzione opposta però! E la verità è che non ci sono ragioni logiche riconducibili ad un mercato in prevedibile evoluzione, non si possono trovare motivazioni razionali, perché la ragione di queste trasformazioni è sempre una stretta di mano tra gente di potere che non ha nessun interesse nello sviluppo tecnologico in sé, ma vuole solo dirottare il mercato verso il proprio conto in banca. L'idea che il mercato e l'industria si siano mossi (o si stiano muovendo) verso "la migliore delle tecnologie possibili" sul saldo binario di una selezione "naturale" della tecnologia più "logica" da utilizzare, è un'idea buona solo per la letteratura di fantascienza ;)
magari se ascolti tutto il video.....
@@ferrystech Che tono! Non sono mica un hater. Verrebbe voglia di rispondere: "Mi indichi il minutaggio esatto dove il punto viene chiarito...", ma non ho nessuna concreta voglia di fare polemica perciò proporrei di finirla qui. Mi conceda almeno (per la mia vetusta età) di raccomandare a tutti voi giovani youtuber di aggiornare più spesso il driver della nonchalance ;) :) :)
scusate l'ignoranza ma le RISC non hanno anche performance molto inferiori alle CISC?
Non necessariamente, spesso avendo un set di istruzioni ridotto il tasso di lancio di queste aumenta di d anche la loro risoluzione. Di conseguenza questo si traduce in un aumento dell’efficienza di calcolo ed energetica
ferry ferry ferry, tutti sono bravi a leggere su wikipedia, non sembra ma x86 da un pezzo in qua é un crisk e alla fine anche arm fuzina in maniera simile. Quello che cabbia nelle due architetture e lo schema di funzionamento della logica (come sono messi i transistor dentro) non lo schema di funzionamento logico (come funziona il programma interno)
Le descrizioni e le informazioni di RISC e CISC sono abbastanza fuorvianti, oltre che sbagliate.
In particolare c'è da dire che i RISC non esistono più da tantissimo tempo (giusto qualche anno dopo la loro formulazione, grazie ai progressi della tecnologia).
Praticamente tutti i processori sono ormai CISC. Cosa facilmente verificabile prendendo le fondamenta alla base delle architetture RISC e confrontandole con quella dei chip che vengono spacciati come tali: sono tutte inesistenti, a parte l'unica che è rimasta in piedi (l'uso di sole istruzioni Load/Store per accedere alla memoria).
In breve: quelli che vengono spacciati come RISC in realtà sono processori L/S. I RISC, come concetto, hanno miseramente fallito.
Interessante e ben fatto video ma un paio di precisazioni devono essere fatte.
Le cpu Arm sono utilizzate da anni, già sui Arcon Computer degli anni '80. I processori Cisc sono stati abbandonati dalle grandi aziende dalla fine degli anni '80; solo Intel ha portato avanti la sua architettura Cisc nata col capostipite Intel 4004 negli anni '70, che, per compatibilità e interesse di mercato è stata seguita più tardi da Amd, Via e Cyrix e badate bene, attraverso il Reverse Enginering. Acorn (Arm) Motorola, Apple, IBM con i PowerPc, HP, SGI con i Mips, Weitek, solo per citare i più conosciuti. Una cpu Risc è meno complessa da realizzare, utilizza meno transistor, anche se nel complesso Apple ne ha integrati quasi 100 miliardi in un singolo SoC (insieme di chip) e il software, oramai realizzato da compilatori sempre più efficienti già dagli anni '80, sembra più complesso ma solo relativamente; i Risc, eseguendo più operazioni per ciclo di clock, grazie alla architettura, lo calcolano più velocemente. Forse, a mio parere, quello che creava e crea costi maggiori nella produzione di chip Risc degli anni '90 è l'utilizzo ampie memorie cache di primo e secondo livello (fino a 4 megabyte di memoria veloce per processore). Silicon Graphics e IBM/Motorola dopo, e da Intel sfruttarono questa necessità d' integrazione hardware nelle loro cpu desktop per migliorare ulteriormente le prestazioni di queste cpu con software sempre più complessi.
Quindi è pensabile credere che fra qualche anno troveremo intel e amd che produrranno solo processori consumer arm?
perchè non spieghi l'abbandono del motorola 68000
Estremamente interessante molto bravo!
Grazie ma anche i commenti sono interessantissimi per i diversi punti di vista 👍👍
Con le metafore non ci siamo proprio. Immagino inoltre che chi apre questo link già sappia che cosa sia x86 o arm. Quindi magari ci si sarebbe potuti concentrare sul titolo: perché?
grazie ma non ci ho capito molto. Io, e tutti quelli che conosco, installano x64 e non x86, quindi il confronto non dovrebbe essere tra x64 e ARM? BO
x86 e' l'architettura con x64 si intendono i bit del processore, quindi quando leggi X86 X64 significa architettura X86 a 64 bit, o banalmente di solito abbreviano anche con X64 ma sappi che e' sempre architettura X86
@@alessandropaliotto5415 ah, ecco, ora capisco. Grazie dell'aiuto ;)
Server per muovere il mercato. Farci cambiare macchine. x86 ha già dato e non muove più molto. Cambiando architettura si da una boccata d'ossigeno (economico) anche alle software house.
Prevedo entro 10 anni un altro cambio verso RiscV stavolta.
Semplice problema di marketing. Si usa sempre di più risc perché costa poco e si mette ovunque. È solo una questione di bacino utenti. I computer desktop non lo compra più nessuno e quindi è ovvio che si passa a risc o comunque si vada a rimodulare le fabbriche. Questo passaggio è dovuto anche alle cpu sempre più veloci. C'entra veramente poco il compilatore.
X86 permette una retrocompatibilità EPICA e comunque ad oggi rappresenta il top delle performance.
ARM bene sui dispositivi a basso consumo e breve longevità (software).
Anche ARM permette una vasta compatibilità (mica è nata ieri). Il mondo non è videogioco centrico fortunatamente
@@andreaciccarello Non stavo facendo riferimento ai videogiochi...
In qualunque caso ARM ha già rivisto più volte istruzioni ecc. Non puoi lanciare applicazioni di 20 anni fa. Con gli x86 anche di 40.
@@massimocsw9455 Avere una compatibilità di istruzioni di 40 anni (che comunque non faresti girare con i moderni sistemi operativi) non è una feature così essenziale se poi le IPC che riesci ad ottenere e le prestazioni per Watt sono di gran lunga inferiori.
Se devi far girare software di 40 anni fa o usi dispositivi molto più vecchi oppure vai di virtualizzazione, ma in quel caso è banale andare direttamente di emulazione per quando è poco prestante l'HW degli anni 80.
> X86 permette una retrocompatibilità EPICA
vero ed è la ragione per cui ancora esiste
> ad oggi rappresenta il top delle performance
idealmente sì ma in pratica discutibile. Vero a livello di capacità di computazione ma potenzialmente inadeguato a sostenere grossi carichi per un lungo periodo a causa della temperatura più alta e BUS della memoria che fa da collo di bottiglia verso la cache. Odio Apple per le sue pratiche di marketing ma i loro processori ARM M1 sono ad oggi oggettivamente migliori dei moderni x86_64 per un gran numero di task.
@telldo8016
Spiegami la storia del bus della memoria ad alta temperatura e della collo di bottiglia verso la chace
Diciamo pure che rosetta funziona, sì, ma annulla tutti i vantaggi che avrebbe ARM su x86 (l'autonomia se fai girare qualcosa con rosetta si allontana di molto da quella di programmi nativi).
infatti rosetta e' stata messa su per avere una transizione il piu' possibile morbida.
del resto quella su Mx e' rosetta2, la prima versione e' nata sugli x86 per far girare sw powerpc, e in qualche anno i produttori di sw hanno portato tutto sull'architettura nuova. tra qualche anno rosetta sara' pressoche' inutile perche' tutti i software saranno nativi mx
Grandissimo video Grazie
...e comunque "NO RISC, NO FUN": chi se la ricorda?
Arm sono piu' economici, veramente multitasking e piu' semplici da strutturare.....penso anche io che siano il futuro......
Ho provato NWPM ho richeisto il rimborso dopo 2 ore..
Microsoft ha fatto una cagata con windows 10 pro ARM64 e lo hanno abbandonato velocemente, una fregatura terribile. Mai piu'!
😂 Se avessi detto che le CPU RISC sono migliorate sarei d accordo perche con RISC-V che é implementabile e puo supportare stessa metodologia dei CISC insomma il risc-v e un ibrido tra Arm e x86 ARM se non migliora sara fuori come intel , amd ancora sviluppa e si tiene al passo.
RISC-V al momento lo sto vedendo utilizzato in IoT sui processori ESP32 ma non mi aspetto grandi novità prima di minimo altri 10-15 anni. La quantità di software per x86_64 è troppo massiccia per essere abbandonata e RISC-V è ancora troppo giovane per essere considerata una potenziale alternativa a livello professionale o militare.
@@telldo8016 Non vorrei contraddirti ma in ambito militare usano il RISC da decenni ormai, e il software che gira su ARM gira allo stesso modo su RISC-V perche l'architettura e uguale
@@grazianofalcone3093 Che venga usato il RISC è ovvio ma non so quanto oggi si possa ancora considerare safety/mission critical il software compilato per riscv.
Se poi è solo mia ignoranza buono a sapersi (di norma lavoro sulla Mission Console Computer per x64 da un paio d'anni), non mi offendo.
@@telldo8016 Scusami non era mia intenzione darti dell'ignorante, ma considera una cosa importantissima, in ambito militare non importa quante istruzioni riesce a fare un PC e se è in grado di generare una immagine 3d renderizzata a 4K con 60 livelli di profondità, ai militari basta qualcosa che sia facilmente riparabile, difficilmente rintracciabile, in grado di fornire comunicazioni cifrate in tempo reale e che sia collegabile anche a un banalissimo televisore...
Ho fatto la descrizione di un vecchio Commodore 64.
Tutte le voci che dichiarano che la tecnologia militare è avanti decenni rispetto alla teconologia del mercato pubblico è vera solo parzialmente, se si parla di elettronica con altissima precisione allora si, ma se parliamo di informatica allora è no, i programmatori militari devono essere in grado di correggere bug in tempi brevi quindi l'aspetto grafico è trascurato di brutto, quando nei film vedi tutti gli effetti di tecnologia futuristica beh considera che in realtà i militari in missione operano con delle apparecchiature dove hanno pochissime opzioni e le usano esclusivamente per ricevere gli ordini e confermare che è stato compiuto, magari tutto su un display LCD di pochi Cm con un tastierino alfanumerico, attualmente l'unico mezzo militare che ha un sistema informatico avanzato rispetto a tutti gli altri è L'eurofighter ( Il che è risultato controproducente spingendo gli stessi piloti a disattivare il sistema informatico passando al manuale perchè lo stesso limita troppo le potenzialità del velivolo)
Scusa sto divagando, ma è per far capire a chi legge che i militari cinematografici e quelli reali sono completamente diversi:
Nei film gli ufficiali sono in grado di hackerare un pc entrare in una rete informatica e teletrasportarsi con un calcio volante.
Nella realtà gli ufficiali hanno difficoltà a usare le applicazioni di base come Office e Browser, molti non hanno idea di come si accende un PC, e preferiscono l'uso di mezzi che siano tecnologicamente vecchi ma funzionali, figurati che ho conosciuto due colonnelli che continuano a usare il Nokia 3410 perche il 3310 non era dual band e non ne vogliono sapere di smartphone che hanno GPS, Internet Fotocamera ecc,ecc
Anzi ora che ci penso nessuno degli ufficiali usa un cellulare SMARTPHONE quando sono in servizio, tutte le comunicazioni vengono deviati dai loro centralinisti usando mezzi di comunicazioni militari e solo se sono autorizzati.
Vabbeh ho scritto troppo adesso risulto pure noioso.
@@grazianofalcone3093 > Scusami non era mia intenzione darti dell'ignorante
Infatti me lo sono dato da solo, nessun problema davvero, ero onestamente curioso e felice eventualmente di essere corretto.
> ma se parliamo di informatica allora è no
Esatto, il mio dubbio era sulla certificazione proprio perché lavorando su software avionico civile (GUI e bus di comunicazione) sono consapevole dei grossi limiti legati ai requisiti; quello militare sarà sicuramente ancora più rigido. Non so cosa fanno le altre aziende ma dove lavoro io non ho davvero sentito nessuno affermare di dover compilare per riscv32 o 64 nemmeno sui progetti più recenti.
> Vabbeh ho scritto troppo adesso risulto pure noioso.
Ci mancherebbe, è sempre utile imparare qualcosa.
è la fine di Windows
In 20 nm il vecchio digital risc 21264 appare microscopico, i cinesi lo mettono gia' nei tablet. Ma, e' gia' previsto il 21664 con cache l1 tripla, con prestazioni monster.
Sarebbe da dire che verosimilmente ci si stanno buttando tutti perché é stata Apple a fare da apripista dimostrano che sia un’architettura valida e probabilmente superiore non solo per smartphone o tablet.
Altresì sarebbe da ricordare come sia stata sempre Apple ad introdurla per la prima volta sul suo Newton negli anni ‘90 dimostrando come fosse veramente “avanti” come visione rispetto la concorrenza e l’epoca.
Diciamo che oggi la diamo per scontata ma ad es chi avrebbe scommesso su di essa prima che Apple ad es ci mettesse mano con i primi M? La maggior parte pensava verosimilmente che fossero al massimo sock per smartphone o poco più.
Commento inesatto, prima di tutto i processori Apple silicon si basano sull'isa del processore ARM Cortex X1, quindi Apple non ha scoperto nulla, ci sono molti altri produttori (ad esempio Qualcomm) che producono processori ARM per desktop da molto prima della produzione di Apple silicon
@@andrearosanova6550chi ha detto che Apple abbia inventato il processore arm per desktop?. Ho detto che sono loro, come al solito, che hanno dato la spinta perché tutti ci si buttino con forza rischiando di fatto su questa tecnologia abbandonando Intel con una transizione velocissima (infatti Qualcomm ha accelerato per cercare di costruire un chip che possa fare concorrenza agli M così come mi pare loro stessi ammisero). Tant’é che Qualcom ci stava provando con scarsi risultati. Arriva Apple ed appena li presenta di fatto vanno a sostituire subito Intel in tutta la loro lineup (transizione completata in un paio di anni se non erro). Per quanto riguarda invece ARM rilegga la storia del Newton e degli accordi tra Apple ed ARM che risalgono a metà degli anni 90 (in tempi non sospetti)…tant’é che se non erro Apple ha degli accordi di licenza “particolari” essendo in qualche modo tra le “cofondatrici “ di quell’azienda che, preesistente, venne ribattezzata ARM appunto.
@marcopallotta1452
Processori risc ,quindi sempre con la filosofia progettuale di arm, sono usati da sempre:
Ps3 , GameCube, Wii .
@@ddb4192beh qui non si parla di inventare il risc. Qua si tratta dell’intuizione di usare prima la tecnologia risc di fatto su dispositivi “palmari” (ma a metà degli anni ‘90 …in tempi non sospetti) e poi dimostrare che la tecnologia Arm potesse essere usata validamente per i computer desktop non alla pari ma addirittura con una resa superiore di quello che era lo status quo (AMD ed Intel con architettura CISC) fino a quel momento.
Loro osano e lo fanno in maniera decisa. Questo è innegabile.
Poi a “copiare” od emulare è molto più facile con una strada spianata
@marcopallotta1452
Quelli erano strong arm architettura Intel .
Apple in quei anni non progettava chip quindi faceva con quello che gli forniva il mercato
perché sarebbe anche l'ora direi
semplifichiamo... Praticamente il nostro pc non avra' piu' una forza di calcolo propria ma sara' dipendente da cosa ci permettera di fare l''IA... Benvenuti nel nuovo mondo di totale controllo da parte di pochi sulla massa !!! Tutto dipendera` da un codice di programmazione...
OK !
Molto bravo... Ma si scrive ACCELERARE
Grazie per i contenuti.
Mi piacerebbe ( a meno che tu non lo abbia già fatto ) un videone dove riassume la storia delle architetture ( i 386, i 486, i primi pentium cosa erano? E i primi chip Motorola che erano dentro i Commodore e le console 8-16 bit? ) con i loro punti di forza e punti deboli.
Per come l’ho capita io la cosa, per i computer “da vita normale” ( uso uffici, videogame, fotocomposizione, musica ) al di là se sono desktop o laptop, un chip con architettura risc dei giorni nostri e’ fin troppo per le prestazioni ( vedi l’M1 di Apple ) che deve offrire; mi da l’idea che se adeguatamente sfruttate, in un chip “ben progettato”, le architetture cisc possano offrire di più ( ai programmatori? A chi lo usa per ricerche mediche/scentifiche ? ).
Secondo te in un futuro relativamente breve in quali settori le architetture cisc non potranno essere sostituite dalle risc?
Devi fare una considerazione su M1; questo chip, di base, quindi escludendo le versioni Pro e Max, è potente almeno quanto un Corei7 di media generazione, ha una architettura video integrata molto più potente di qualsiasi GPU integrata nelle cpu da Intel e ha una efficenza energetica che Intel/AMD/nVidia per ora, possono solo sognarsi; meno di 20 watt totali alla massima potenza tra cpu/GPU/memoria/unità disco SSD interna/BT e WI-FI. Utilizzato in ambito desktop scopriresti che la suite ADOBE/ WORD/EXEL funzionano molto velocemente rispetto qualsiasi cpu Core i5, senza contare il sistema operativo....( su M2 e M3 l'efficienza e la potenza sono ulteriormente aumentate mediamente dal 20 al 50%) e tutto con soli 8Gb di ram condivisi in qualsiasi versione BASE. Le versioni con 16Gb aumentano considerevolmente la loro efficenza e potenza....per questo motivo Apple se le fa pagare!!! Ma con un MacMini M2 base scopriresti di avere un PC molto efficiente e potente con un OS ben ottimizzato.....provare per credere.
@Vlamat67
Mi spieghi come aumenta la potenza con l’aumento della ram ?
Lasciando perdere il discorso above che usa pesantemente parti della cpu dedicata
@@ddb4192 non è difficile; i chip dell'ssd e della ram non sono uguali e non forniscono la stessa banda, malgrado l'ssd interno sia comunque molto più veloce di qualsiasi ssd sata (una media di 2,5Gbs sul Mini M2, 7Gbs sugli M1/2 Pro e Max, dipende dalle configurazioni). Tornando alla domanda, un M1/2/3 base con 8Gb di ram, se usato con tante app o peggio app che usano tanta memoria, costringeranno il sistema operativo a utilizzare il disco di sistema per lo swap rallentando le prestazioni massime (app come Blender fanno fatica se il progetto richiede molta ram), quindi avere 16Gb di memoria può migliorare le prestazioni e in certi casi aumentarla rispetto a un computer con meno ram. Osx, fin dai suoi albori ha sempre ottimizzato l'uso della memoria, ma se proprio se ne aveva poca era costretto a fare lo swap su disco; ma bastava aggiungere ram per vedere le prestazioni migliorare nettamente. Spero tu abbia compreso, ciao.
@Vlamat67
Dire che un os ottimizza l’uso della
memoria risulta una castroneria unica.
Un os ha bisogni fino di tot ram per funzionare , (reale o virtuale) e ne da hai vari processi che è ne fanno richiesta, non ottimizza nulla, vorrebbe dire entrare nei processi e modificarne il codice in run time.
Riguardo alla memoria virtuale tutto gli os moderni ne fanno uso e la fruttano.
Questo rallenta le prestazioni per il semplice motivo che un disco risulta molto più lento della ram
@@ddb4192 ,Ti ho risposto con gentilezza, QUINDI impara a esserlo anche TU senza bisogno di fare il saccente presuntuoso fin dalla prima domanda ! Ricordati una cosa, essere umili è importante....perchè, se nel mondo reale ti rivolgi con questo tuo modo di fare, di "vaffa" ne farai la collezione. Puntualizzato questo, SI un OS ottimizza l'uso della memoria, e l'ho spiegato bene sopra in quale modo - se hai letto con attenzione - pensa lo faceva anche il Commodore 64 se mai ne hai visto e usato uno. Ps. le "H" si usano con i verbi, rileggi prima di scrivere, ciao ne!
Video spettacolare.
Io farei un altro video: perché tutti vogliono passare alle cpu risc-v
Grazie per il video, ma i primi 5 minuti sono totalmente inutili
ma chi passa ad arm....? i pirla
Ma che diavolo sta succediendo?
Io con linux mi trovo meglio con x86
Non che mi dispiacerebbe ma ci credo pochissimo che ARM possa avere speranze al di fuori di Apple o dei Chromebook
Dipende tutto dal sistema operativo
@@florixc non solo, ad oggi io posso scaricare da steam Half Life 1 di 25 anni ed avere la quasi certezza che funzioni sul mio PC attuale, questa cosa con ARM la perderesti.
@@xanScale un gioco di 25 anni fa dovrebbe funzionare senza problemi con qualche emulatore
@@florixc con ARM non è così scontato
@@xanScalehalf life già oggi funziona su raspberry pi 5 tramite box86/wine quindi non si va a perdere nulla, su pi 4 gioco ad Isaac ad esempio.
ho abbandonato il tuo video al minuto 2,36 ........
AcceLLLLLLera
Ricordo che la Cpu IBM Power PC era RISC ed era montata sugli Apple anni '90.
Non vedo reali vantaggi da questa tecnologia perché quando devi lavorare seriamente devi stare attaccato alla 230 V e poi il lavoro in mobilità è pura utopia
È roba che fanno solo i giornalisti o gli youtuber Io lavoro con la gpu e faccio rendering essenza l'alimentazione fissa non faccio niente Ho bisogno di una workstation grafica e quindi l'efficienza dell'architettura arm non mi serve a niente perché i software che utilizzo sono fortemente le singole core e sono più importanti le frequenze Dov'è arm è carente. Inoltre quello che alcuni hanno notato che nell'architettura Apple all'aumentare delle frequenze si arriva a un punto che non ci sono reali aumenti di prestazioni la tecnologia non è pensata per la forza bruta e poi i processori presentati fino adesso Montano sì CPU che sembrano potenti ma sono scarsi lato scheda video l'm3 Max non arriva le prestazioni di una 3080 e questi vogliono pure parlare di Ray tracing
Complimenti per la risposta: sei riuscito a centrare il bersaglio in pieno al primo colpo e allo stesso tempo mancarlo del tutto in tutti i colpi successivi!
Quello che hai scritto è semplicemente VERISSIMO ma ti sei semplicemente dimenticato di scrivere che il 99% degli utilizzatori di un computer NON sa neppure cosa significhi la parola rendering (conoscono le parole word, excel, outlook, youtube e poche altre!).
Ed è pure vero che altre persone con un lavoro più tecnico (me compreso) magari si trovano a dover collegare il computer ad un dispositivo elettronico per mezzo di una seriale da 9600 baud per inviare dei comandi da terminale o prendere dei log (tutto questo pero solamente dopo essere riusciti a far spazio per appoggiare il computer, cosa che solitamente tende ad essere la parte più difficile).
Semplicemente stiamo parlando di mercati diversi che hanno esigenze differenti.
Poi, ad ogni caso, con le nuove tecnologie di connessione a banda ultralarga si sta ritornando in parte al vecchio concetto di elaboratore centrale dove risiede la capacità di memoria e calcolo e terminali utenti stupidi connessi all' unità centrale: il tuo supercomputer di cui parli (rumoroso, energivoro e dalla elevata dispersione di calore) può tranquillamente stare rinchiuso un uno stanzino climatizzato insieme ad altri suoi simili ed i vari utilizzatori possono semplicemente collegarsi ad essi da remoto usando piccoli computer leggeri, economici, silenziosi e dal basso consumo.....
non sapevo che il rendering fosse una di quelle cose intrinsecamente non parallelizzabili e che i software non fossero in grado di sfruttare i core multipli delle cpu moderne. Vuol dire che chi ha queste esigenze dovrà comprarsi hardware dedicato extra.
Bla bla bla
Anche con le CPU x86 ci sono processori efficienti Basta guardare quello dei dispositivi handheld come Steam Deck o rog Ally che consumano da 10 a 30 W
Se Microsoft vuole spingere sull'architettura arm Prima di tutto deve fare un Rosetta e non quella specie di emulazione che hanno fatto fino ad ora dove le prestazioni vengono ammazzate
C'è comunque la parte di decodifica che consuma energia, per i processori ad alte prestazioni questo consumo è trascurabile, per le altre invece...
Si sogna che Microsoft abbia queste conoscenze e possibilità
@@mirkomontanadj sono oltre 10 anni che provano a rifilarci i loro computer arm e non li compra nessuno
Secondo me si stanno preparando al fatto che forse è vera la voce che in Corea sono vicini ad un superconduttore a temperatura ambiente, solo in termini di resa energetica e calore sarebbe rivoluzionario 😜
Penso che Microsoft non riuscirebbe mai ad ottenere l'ottimizzazione che ha avuto Apple, visto che Apple sa che sui suoi prodotti basati su ARM sono installati i chip M e quindi sviluppa il software appositamente. D'altro canto, Windows gira su una vasta gamma di dispositivi e architetture, quindi se arrivassero PC basati su ARM con Windows, l'ottimizzazione non sarebbe mai paragonabile.
Nel 1983 il mio professore di informatica all’università preconizzava già l’avvento di una architettura multi processore con più processori in parallelo…
@davamig
I sistemi multi processore esistono da prima del 93
Lui lo diceva nel 1983…
@davamig in ambiti di ricerca e centri di calcolo i sistemi multi processori sono precedenti
Io non sopporto quando i programmi occupano tanto per "niente", tipo tra Gimp e Krita ho scelto il secondo che pesa "solo" sui 400 MB, mentre GIMP era arrivato ad 1GB.
Chissà Photoshop a quanto sarà arrivato, non mi meraviglierebbe se stesse a 4GB oggi 🤣. Io conservo ancora la versione 6 dei primi anni 2000, che pesava 100 MB 😉.
Ora con la scusa di questi ARM scommetto che faranno "pesare" tutto il doppio... 😥.
krita è buono se devi disegnare, altrimenti per fotoritocco o elaborazione immagini 10 volte meglio gimp.
@@kentahirono Io in Photoshop facevo molto uso dei livelli di regolazione, in pratica sono dei filtri non distruttivi che si applicano come livelli sopra l'immagine, questo in Krita si può fare, anche se funziona in modo un pò diverso ripetto a Photoshop...
mentre in Gimp l'ultima volta che ho provato non era possibile farlo, cioè ogni filtro andava applicato direttamente ad un livello bitmap, quindi ogni volta che lo vuoi modificare devi riduplicare il livello originale e riapplicare il filtro, io trovo molto più comodo usare i livelli di regolazione.
Perchè è più efficente, perchè non si pagano diritti elevati, perchè i poveretti della Microsoft si sono svegliati solo ora. Linux su Arm esiste da molto tempo.
Pensa a quanto tempo perso per colpa di microsoft, lo stesso accadde nel passaggio 32-64bit.
in fatti io ogni inverno installo il plug in raffreddore aggiornato per poter starnutire
ho pagato nordvpn e recesso il giorno dopo e non mi hanno restituito i soldi
Nord Vpn ma come si fa a crederci? Che spot vergognoso, pessimo canale altro che supporto...