La storia dell'unità di elaborazione centrale (CPU)

20 maggio 2024

Tempo di lettura: 10 minuti

L'unità centrale di elaborazione (CPU) è il cervello del computer. Gestisce l'assegnazione e l'elaborazione delle attività, oltre alle funzioni che fanno funzionare un computer.

Non c'è modo di sopravvalutare l'importanza della CPU per l'elaborazione. Praticamente tutti i sistemi informatici contengono, almeno, un qualche tipo di CPU di base. Indipendentemente dal fatto che siano utilizzate in personal computer (PC), laptop, tablet, smartphone o persino in supercomputer la cui potenza è così elevata da dover essere misurata in operazioni a virgola mobile al secondo, le CPU sono l'unica attrezzatura dei computer non sacrificabile. Indipendentemente dai progressi tecnologici, rimane un dato di fatto: se elimini la CPU, semplicemente non hai più un computer.

Oltre a gestire l'attività del computer, le CPU consentono di abilitare e stabilizzare la relazione push-and-pull esistente tra il data storage e la memoria. La CPU ha funzione di intermediario, interagendo con la memoria primaria (o memoria principale) quando ha bisogno di accedere ai dati dalla memoria ad accesso casuale (RAM) del sistema operativo. D'altra parte, la memoria di sola lettura (ROM) è costruita per l'archiviazione permanente e tipicamente a lungo termine dei dati.

Componenti della CPU

Le moderne CPU nei computer elettronici di solito contengono i seguenti componenti:

  • Unità di controllo: contiene un sistema di circuiti intensivo che guida il sistema informatico emettendo un sistema di impulsi elettrici e istruisce il sistema ad eseguire istruzioni informatiche di alto livello.
  • Unità aritmetica/logica (ALU): esegue tutte le operazioni aritmetiche e logiche, comprese le equazioni matematiche e i confronti basati sulla logica legati a specifiche azioni del computer.
  • Unità di memoria: gestisce l'utilizzo della memoria e il flusso di dati tra la RAM e la CPU. Supervisiona inoltre la gestione della memoria cache.
  • Cache: contiene aree di memoria integrate nel chip del processore della CPU per raggiungere velocità di recupero dei dati ancora più veloci di quelle raggiungibili dalla RAM.
  • Registri: fornisce una memoria permanente integrata per esigenze di dati costanti e ripetuti che devono essere gestiti regolarmente e immediatamente.
  • Clock: gestisce il sistema di circuiti della CPU trasmettendo impulsi elettrici. La velocità di erogazione di tali impulsi è indicata come velocità di clock, misurata in Hertz (Hz) o megahertz (MHz).
  • Puntatore e registro delle istruzioni: visualizza la posizione del prossimo set di istruzioni da eseguire da parte della CPU.
  • Bus: garantisce il corretto trasferimento e il flusso di dati tra i componenti di un sistema informatico.

Come funzionano le CPU?

Le CPU funzionano utilizzando un tipo di ciclo di comandi ripetuti che viene amministrato dall'unità di controllo in associazione con l'orologio del computer, che fornisce assistenza nella sincronizzazione.

Il lavoro svolto da una CPU avviene secondo un ciclo stabilito (chiamato ciclo di istruzioni della CPU). Il ciclo di istruzioni della CPU designa un certo numero di ripetizioni, e questo è il numero di volte in cui le istruzioni di elaborazione di base verranno ripetute, secondo quanto consentito dalla potenza di elaborazione di quel computer.

Le istruzioni di elaborazione di base includono quanto segue:

  • Fetch: i fetch si verificano ogni volta che i dati vengono recuperati dalla memoria.
  • Decodifica: il decodificatore all'interno della CPU traduce le istruzioni binarie in segnali elettrici che interagiscono con altre parti della CPU.
  • Esecuzione: l'esecuzione si verifica quando i computer interpretano ed eseguono l'insieme di istruzioni di un programma per computer.

Con alcuni accorgimenti di base, l'orologio del computer all'interno di una CPU può essere manipolato per mantenere il tempo più veloce di quanto trascorra normalmente. Alcuni utenti lo fanno per far funzionare il proprio computer a velocità più elevate. Tuttavia, questa pratica ("overclocking") è sconsigliata in quanto può causare l'usura precoce di alcune parti del computer e può persino invalidare la garanzia del produttore della CPU.

Anche gli stili di elaborazione sono soggetti a modifiche. Un modo per manipolarli è implementare la pipeline di istruzioni, che tenta di instillare il parallelismo a livello di istruzione in un singolo processore. L'obiettivo del pipelining è quello di mantenere impegnata ogni parte del processore suddividendo le istruzioni del computer in arrivo e distribuendole uniformemente tra le unità del processore. Le istruzioni sono suddivise in insiemi più piccoli di istruzioni o passaggi.

Un altro metodo per ottenere il parallelismo a livello di istruzione all'interno di un singolo processore consiste nell'utilizzare una CPU denominata processore superscalare. Mentre i processori scalari possono eseguire un massimo di un'istruzione per ciclo di clock, non esiste un vero limite al numero di istruzioni che possono essere inviate da un processore superscalare. Invia istruzioni multiple a diverse unità di esecuzione del processore, aumentando così il throughput.

Chi ha inventato la CPU?

Le tecnologie rivoluzionarie hanno spesso più di un padre. Più la tecnologia è complessa e importante, più sono gli individui solitamente fautori di quell'evento.

Nel caso della CPU, una delle invenzioni più importanti della storia, stiamo parlando di chi ha scoperto il computer stesso.

Gli antropologi usano il termine "invenzione indipendente" per descrivere situazioni in cui individui diversi, che possono trovarsi in Paesi distanti l'uno dall'altro e relativamente isolati, escogitano ciascuno idee o invenzioni simili o complementari senza essere a conoscenza di esperimenti simili in corso.

Nel caso della CPU (o del computer), l'invenzione indipendente si è verificata ripetutamente, portando a diversi cambiamenti evolutivi nel corso della storia della CPU.

Due giganti dell'informatica

Anche se questo articolo non può rendere omaggio a tutti i pionieri dell'informatica, ci sono due persone la cui vita e il cui lavoro vanno assolutamente citati. Entrambi sono implicati direttamente nell'informatica e nella CPU:

Grace Hopper: un saluto a "Nonna COBOL"

L'americana Grace Brewster Hopper (1906-1992) pesava appena 47 kg quando si arruolò nella Marina degli Stati Uniti, circa 7 kg al di sotto del limite di peso richiesto. E in una delle decisioni più sagge della storia marittima degli Stati Uniti, la Marina le ha concesso una deroga arruolandola.

Quello che mancava a Grace Hopper in termini di fisico, lo compensava abbondantemente con l'energia e la brillantezza versatile. Era un'eclettica di prim'ordine: una matematica di talento con due dottorati di ricerca presso l'Università di Yale, in matematica e in fisica matematica, un'apprezzata professoressa di matematica al Vassar College, una pioniera dell'informatica a cui è stata attribuita la scrittura di un linguaggio informatico e del primo manuale di informatica, nonché una comandante navale (in un'epoca in cui le donne raramente si elevavano al di sopra dei ruoli amministrativi nell'esercito).

Grazie al suo lavoro sui principali progetti informatici del tempo, come lo sviluppo del supercomputer UNIVAC dopo la seconda guerra mondiale, Hopper sembrava sempre nel bel mezzo dell'azione, sempre nel posto giusto al momento giusto. Era stata testimone in prima persona di gran parte della storia dell'informatica moderna. È stata la persona che ha originariamente coniato il termine "bug informatico", descrivendo una vera falena che era rimasta intrappolata all'interno di un'attrezzatura informatica. (La falena originale rimane esposta al National Museum of American History della Smithsonian Institution a Washington, DC.)

Durante la sua esperienza al lavoro al progetto UNIVAC (e successivamente alla gestione del progetto UNIVAC per la Remington Rand Corporation), Hopper si sentiva frustrata dal fatto che non esistesse un linguaggio di programmazione più semplice da usare. Iniziò così a scrivere il suo linguaggio di programmazione, che notoriamente divenne noto come COBOL (acronimo di COmon Bbusiness-OOriented Llanguage).

Robert Noyce: il sindaco della Silicon Valley

Robert Noyce è stato un leader nel senso classico del termine: una persona che poteva far sì che un'attività straordinaria iniziasse a verificarsi semplicemente con la sua presenza.

L'americano Robert Noyce (1927-1990) è stato un inventore folle. In seguito ha incanalato la sua curiosità intellettuale nel lavoro universitario, soprattutto dopo aver mostrato due dei transistor originali creati dai Bell Laboratories. All'età di 26 anni, Noyce ha conseguito un dottorato di ricerca in fisica presso il Massachusetts Institute of Technology (MIT).

Nel 1959, ha proseguito l'invenzione del 1958 di Jack Kilby del primo circuito integrato ibrido, apportando modifiche sostanziali al progetto originale. I miglioramenti di Noyce hanno portato a un nuovo tipo di circuiti integrati: il circuito integrato monolitico (chiamato anche microchip), che è stato formulato utilizzando il silicio. Ben presto il chip in silicio è diventato una rivelazione, cambiando i settori industriali e plasmando la società secondo modi nuovi.

Noyce ha co-fondato due società di grande successo durante la sua carriera imprenditoriale: Fairchild Semiconductor Corporation (1957) e Intel (1968). È stato il primo CEO di Intel, che ancora oggi è nota a livello globale per la produzione di chip di elaborazione.

Il suo collaboratore in entrambe le attività è stato Gordon Moore, diventato famoso per una previsione sull'industria dei semiconduttori che si è dimostrata tanto affidabile da sembrare quasi un algoritmo. Conosciuta con il nome di "Legge di Moore", postulava che il numero di transistor da utilizzare all'interno di un circuito integrato raddoppia in modo affidabile circa ogni due anni.

Mentre Noyce supervisionava Intel, l'azienda produceva l'Intel 4004, ora riconosciuto come il chip che ha lanciato la rivoluzione dei microprocessori degli anni '70. La creazione dell'Intel 4004 ha comportato una collaborazione a tre tra Ted Hoff, Stanley Mazor e Federico Faggin, ed è diventato il primo microprocessore presentato in commercio.

Verso la fine del suo mandato, l'azienda ha prodotto anche l'Intel 8080, il secondo microprocessore a 8 bit dell'azienda, apparso per la prima volta nell'aprile 1974. Nel giro di un paio d'anni, il produttore stava lanciando l'Intel 8086, un microprocessore a 16 bit.

Nel corso della sua illustre carriera, Robert Noyce ha accumulato 12 brevetti per varie creazioni e ha ottenuto un riconoscimento da tre diversi presidenti degli Stati Uniti per il suo lavoro sui circuiti integrati e l'enorme impatto globale che hanno avuto.

ENIAC: in marcia verso la guerra

Sembra eccessivamente drammatico, ma nel 1943 il destino del mondo era davvero in bilico. L'esito della seconda guerra mondiale (1939-1945) era ancora molto incerto e, sia le forze alleate sia le forze dell'Asse erano alla ricerca di un qualsiasi tipo di vantaggio tecnologico per acquisire una posizione di potere nei confronti del nemico.

I dispositivi informatici erano ancora agli albori quando fu creato un progetto a suo modo monumentale come il Progetto Manhattan. Il governo degli Stati Uniti assunse un gruppo di ingegneri della Moore School of Electrical Engineering dell'Università della Pennsylvania. La missione prevedeva la costruzione di un computer elettronico in grado di calcolare le distanze per le tabelle di gittata dell'artiglieria.

Il progetto fu guidato da John Mauchly e J. Presper Eckert, Jr. su richiesta dell'esercito. I lavori iniziarono all'inizio del 1943 e si conclusero solo 3 anni dopo.

La creazione prodotta dal progetto, dal nome ENIAC, che stava per "Electronic Numerical Integrator and Computer"; era un'installazione massiccia che richiedeva uno spazio di 1.500 metri quadrati, per non parlare poi dei 17.000 tubi a vuoto in vetro, delle 70.000 resistenze, dei 10.000 condensatori, dei 6.000 interruttori e dei 1.500 relè. Nel 2024, il progetto sarebbe costato 6,7 milioni di dollari.

Poteva elaborare fino a 5.000 equazioni al secondo (a seconda dell'equazione), una quantità incredibile vista da quel punto di vista storico. Grazie alle sue dimensioni generose, l'ENIAC era così grande che le persone potevano stare all'interno della CPU e programmare la macchina ricablando le connessioni tra le unità funzionali della macchina.

L'ENIAC è stato utilizzato dall'esercito degli Stati Uniti durante il resto della seconda guerra mondiale. Ma al termine del conflitto, iniziò la Guerra Fredda e l'ENIAC ricevette un nuovo ordine a procedere. Questa volta avrebbe eseguito calcoli che sarebbero stati utili per costruire una bomba da una forza esplosiva più di mille volte superiore a quella delle armi atomiche che hanno posto fine alla Seconda Guerra Mondiale: la bomba all'idrogeno.

UNIVAC: ritorno al business

Dopo la seconda guerra mondiale, i due leader del progetto ENIAC decisero di aprire un negozio e portare l'informatica nelle imprese americane. La nuova società, soprannominata Eckert-Mauchly Computer Corporation (EMCC), si proponeva di preparare il suo prodotto di punta: una versione più piccola ed economica dell'ENIAC, con vari miglioramenti come l'aggiunta di unità nastro, una tastiera e un convertitore che accettasse l'uso di schede perforate.

Anche se più elegante dell'ENIAC, l'UNIVAC che fu presentato al pubblico nel 1951 era ancora mastodontico, pesava oltre 8 tonnellate e utilizzava 125 kW di energia. Ed era ancora costoso: circa 11,6 milioni di dollari in denaro al cambio attuale.

Per quanto riguarda la CPU, conteneva la prima CPU, l'UNIVAC 1103, sviluppata contemporaneamente al resto del progetto. L'UNIVAC 1103 utilizzava tubi a vuoto in vetro, il che rendeva la CPU grande, ingombrante e lenta.

Il lotto originale di UNIVAC 1 era limitato a una serie di 11 macchine, il che significava che solo le aziende o le agenzie governative più grandi, meglio finanziate e meglio collegate potevano accedere a un UNIVAC. Quasi la metà di queste erano agenzie di difesa statunitensi, come l'aeronautica americana e la Central Intelligence Agency (CIA). Il primo modello è stato acquistato dal Census Bureau degli Stati Uniti.

CBS News aveva una delle macchine e notoriamente la usava per prevedere correttamente l'esito delle elezioni presidenziali statunitensi del 1952, contro scarse probabilità di vittoria. È stata un'audace trovata pubblicitaria che ha fatto conoscere al pubblico americano le meraviglie di cui erano capaci i computer.

Transistor: diventare grandi rimanendo piccoli

Man mano che l'informatica si affermava e celebrava sempre di più, era però chiara la sua principale debolezza. Le CPU presentavano un problema ricorrente dovuto all'uso di tubi a vuoto. Si trattava di un vero e proprio problema meccanico: i tubi a vuoto in vetro erano estremamente delicati e soggetti a frequenti rotture.

Il problema era così pronunciato che il produttore ha fatto di tutto per fornire una soluzione alternativa ai suoi numerosi clienti agitati, i cui computer si sono fermati senza tubi funzionanti.

Il produttore dei tubi li testava regolarmente in fabbrica, sottoponendoli a varie prove di stress in fabbrica, prima di selezionare i tubi "più resistenti" tra quei lotti da tenere in riserva e pronti per soddisfare le richieste di emergenza dei clienti.

L'altro problema con i tubi a vuoto nelle CPU riguardava le dimensioni della macchina di calcolo stessa. I tubi erano ingombranti e i progettisti erano alla ricerca di un modo per ottenere la stessa potenza di elaborazione da un dispositivo molto più piccolo.

Nel 1953, uno studente ricercatore dell'Università di Manchester dimostrò che si poteva costruire un computer completamente basato su transistor (link esterno a ibm.com).

I transistor originali erano difficili da utilizzare, in gran parte perché erano realizzati in germanio, una sostanza difficile da purificare e che doveva essere mantenuta all'interno di un intervallo di temperatura preciso.

Nel 1954 gli scienziati del Bell Laboratory iniziarono a sperimentare altre sostanze, tra cui il silicio. Gli scienziati Bell (Mohamed Italia e Dawn Kahng) continuarono a perfezionare l'uso del silicio e nel 1960 avevano trovato una formula per il transistor ad effetto di campo (o MOSFET, o transistor MOS) moderno, che è stato celebrato come il "dispositivo più prodotto nella storia" (link esterno a ibm.com) dal Computer History Museum. Nel 2018 è stato stimato che fossero stati prodotti 13 sestilioni di transistor MOS.

L'avvento del microprocessore

La ricerca della miniaturizzazione continuò fino a quando gli informatici crearono una CPU così piccola da poter essere contenuta all'interno di un piccolo chip a circuito integrato, chiamato microprocessore.

I microprocessori sono progettati in base al numero di core che supportano. Un core CPU è il "cervello nel cervello", che ha funzione di unità di elaborazione fisica all'interno di una CPU. I microprocessori possono contenere più processori. Nel frattempo, un core fisico è una CPU integrata in un chip, ma che occupa solo un socket, consentendo così ad altri core fisici di attingere allo stesso ambiente di elaborazione.

Ecco alcuni degli altri termini principali utilizzati in relazione ai microprocessori:

  • Processori single-core: i processori single-core contengono una singola unità di elaborazione. In genere sono caratterizzati da prestazioni più lente, vengono eseguiti su un singolo thread ed eseguono il ciclo di istruzioni della CPU uno alla volta.
  • Processori dual-core: i processori dual-core sono dotati di due unità di elaborazione contenute in un circuito integrato. Entrambi i core vengono eseguiti contemporaneamente, raddoppiando di fatto le prestazioni.
  • Processori quad-core: i processori quad-core contengono quattro unità di elaborazione all'interno di un singolo circuito integrato. Tutti i core vengono eseguiti contemporaneamente, quadruplicando le prestazioni.
  • Processori multi-core: i processori multi-core sono circuiti integrati dotati di almeno due core di processore, in grado di offrire prestazioni eccezionali e un consumo energetico ottimizzato.

Principali produttori di CPU

Diverse aziende ora creano prodotti che supportano le CPU attraverso diverse linee di marchi. Tuttavia, questa nicchia di mercato è cambiata radicalmente, dato che in precedenza attirava numerosi attori, tra cui numerosi produttori tradizionali (ad esempio, Motorola). Ora ci sono davvero solo un paio di attori principali: Intel e AMD.

Utilizzano diverse architetture di set di istruzioni (ISA). Quindi, mentre i processori AMD si ispirano all'architettura RISC (Reduced Instruction Set Computer), i processori Intel seguono un'architettura Complex Instruction Set Computer (CISC).

  • Advanced Micro Devices (AMD): AMD vende processori e microprocessori attraverso due tipi di prodotti: CPU e APU (che sta per unità di elaborazione accelerata). In questo caso, le APU sono semplicemente CPU dotate di grafica Radeon proprietaria. I processori Ryzen di AMD sono microprocessori ad alta velocità e ad alte prestazioni destinati al mercato dei videogiochi. I processori Athlon erano considerati in passato la linea di fascia alta di AMD, ma ora AMD li utilizza come alternativa generale.
  • Arm: Arm in realtà non produce attrezzature, ma affitta i suoi preziosi progetti di processori e/o altre tecnologie proprietarie ad altre società che producono attrezzature. Apple, ad esempio, non utilizza più chip Intel nelle CPU Mac, ma produce i propri processori personalizzati basati su progetti Arm. Altre società stanno seguendo l'esempio.
  • Intel: Intel vende processori e microprocessori attraverso quattro linee di prodotti. La sua linea premium è Intel Core, inclusi modelli di processore come il Core i3. I processori Intel Xeon sono commercializzati per uffici e aziende. Le linee Celeron e Intel Pentium di Intel (rappresentate da modelli come le CPU single-core Pentium 4) sono considerate più lente e meno potenti della linea Core.

Comprendere il ruolo affidabile delle CPU

Quando si considerano le CPU, possiamo pensare ai vari componenti che le CPU contengono e utilizzano. Possiamo anche contemplare come il design delle CPU sia passato dai suoi primi esperimenti di grandi dimensioni al suo moderno periodo di miniaturizzazione.

Ma, nonostante le trasformazioni apportate alle sue dimensioni o al suo aspetto, la CPU rimane sempre la stessa, sempre operativa, perché è davvero efficace nello svolgere il suo compito. Puoi essere certo che funzionerà correttamente, ogni volta.

Per usare il computer in modo intelligente è necessario avere a disposizione le attrezzature giuste su cui poter contare. IBM costruisce server robusti, in grado di resistere a qualsiasi problema che un moderno posto di lavoro può presentare. Trova i server IBM di cui hai bisogno per ottenere i risultati su cui si basa la tua organizzazione.

 

Autore

Phill Powell

Staff Writer