Home topics Centri dati Cos'è un data center?
Esplora la soluzione di data center di IBM Iscriviti alla newsletter Think
Illustrazione con collage di pittogrammi di monitor del computer, server, nuvole, punti
Cos'è un data center?

Un data center è una stanza, un edificio o una struttura fisica che ospita l'infrastruttura IT per la creazione, l'esecuzione e la fornitura di applicazioni e servizi. Archivia e gestisce anche i dati associati a tali applicazioni e servizi.

I data center sono nati come strutture on-premise private, strettamente controllate, che ospitavano infrastrutture IT tradizionali ad uso esclusivo di un'azienda. Recentemente, si sono evoluti in strutture o reti di strutture remote di proprietà di provider di servizi cloud (CSP). Questi data center CSP ospitano infrastrutture IT virtualizzate per l'uso condiviso di più aziende e clienti.

Storia dei data center

I data center risalgono agli anni '40. L'Electrical Numerical Integrator and Computer (ENIAC) dell'esercito americano, completato nel 1945 presso l'Università della Pennsylvania, è un primo esempio di data center che richiedeva uno spazio dedicato per ospitare le sue enormi macchine.

Nel corso degli anni, i computer sono diventati più efficienti in termini di dimensioni, richiedendo meno spazio fisico. Negli anni '90, i microcomputer sono entrati in scena, riducendo drasticamente la quantità di spazio necessaria per le operazioni IT. Questi microcomputer, che hanno iniziato a riempire le vecchie sale computer dei mainframe, sono stati chiamati "server" e le sale hanno preso il nome di "data center". 

L'avvento del cloud computing all'inizio degli anni 2000 ha sconvolto in modo significativo il landscape tradizionale dei data center. I servizi cloud consentono alle organizzazioni di accedere alle risorse di calcolo su richiesta, via internet, con prezzi pay-per-use, offrendo la flessibilità di aumentarle o ridimensionarle in base alle esigenze.

Nel 2006, Google ha lanciato il primo data center hyperscale a The Dalles, in Oregon. Questa struttura hyperscale occupa attualmente uno spazio di 120.000 metri quadrati e impiega uno staff di circa 200 operatori di data center.1

Uno studio di McKinsey & Company prevede che il settore crescerà del 10% all'anno fino al 2030, con una spesa globale per la costruzione di nuovi impianti che raggiungerà i 49 miliardi di dollari.2

Tipi di data center

Esistono diversi tipi di strutture di data center, e una singola azienda può utilizzarne più di uno, a seconda dei workload e delle esigenze aziendali.

Data center aziendali (on-premise)

 

Questo modello di data center ospita tutta l'infrastruttura IT e i dati on-premise. Molte aziende scelgono i data center on-premise. Hanno un maggiore controllo sulla sicurezza delle informazioni e possono conformarsi più facilmente a normative quali il Regolamento generale sulla protezione dei dati (GDPR) europeo o l'Health Insurance Portability and Accountability Act (HIPAA) statunitense. In un data center aziendale, l'azienda è responsabile di tutte le attività di distribuzione, monitoraggio e gestione.

Data center sul cloud pubblico e hyperscale

 

I data center su cloud (chiamati anche data center di cloud computing) ospitano le risorse dell'infrastruttura IT per l'uso condiviso da parte di più clienti, da decine a milioni di utenti, tramite una connessione internet.

Molti dei più grandi data center su cloud, chiamati data center hyperscale, sono gestiti dai principali provider di servizi cloud (CSP), come Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud e Microsoft Azure. Queste aziende dispongono di importanti data center in ogni zona del mondo. Ad esempio, IBM gestisce oltre 60 IBM Cloud Data Center in diverse sedi in tutto il mondo.

I data center hyperscale sono più grandi dei data center tradizionali e possono occupare un'area di migliaia di metri quadrati. In genere contengono almeno 5.000 server e chilometri di apparecchiature di connessione, e a volte possono raggiungere i 6.000 metri quadrati.

In genere, i provider di servizi cloud gestiscono edge data center (EDC) più piccoli e situati più vicino ai clienti cloud (e ai loro clienti). Gli edge data center costituiscono le fondamenta dell'edge computing, un framework di elaborazione distribuito che porta le applicazioni più vicine agli utenti finali. Gli edge data center sono ideali per workload in tempo reale ad alta intensità di dati come la big data analytics, l'intelligenza artificiale (AI), il machine learning (ML) e la distribuzione dei contenuti. Aiutano a ridurre al minimo la latenza, migliorando le prestazioni complessive delle applicazioni e l'esperienza del cliente.

Data center gestiti e strutture di colocation

 

I data center gestiti e le strutture di colocation sono una scelta possibile per le organizzazioni che non dispongono dello spazio, del personale o delle competenze necessarie per gestire la propria infrastruttura IT on-premise. Queste opzioni sono ideali per coloro che preferiscono non ospitare un'infrastruttura propria e utilizzare le risorse condivise di un data center sul cloud pubblico.

In un data center gestito, l'azienda cliente noleggia server dedicati, spazio di archiviazione e hardware di rete dal provider, mentre il provider gestisce l'amministrazione, il monitoraggio e la gestione dell'azienda cliente.

In una struttura di colocation, l'azienda cliente possiede tutta l'infrastruttura e affitta uno spazio dedicato per ospitarla all'interno della struttura. Nel modello di colocation tradizionale, l'azienda cliente ha accesso esclusivo all'hardware e la piena responsabilità della sua gestione. Questo modello è ideale per la privacy e la sicurezza, ma spesso poco pratico, in particolare in caso di interruzioni ed emergenze. Oggi, la maggior parte dei fornitori di colocation offre servizi di gestione e monitoraggio per i clienti che li desiderano.

Spesso le aziende scelgono data center gestiti e strutture di colocation per ospitare tecnologie di backup remoto e disaster recovery (DR) per le piccole e medie imprese (PMI).

Architettura moderna dei data center

La maggior parte dei data center moderni, compresi quelli in-house on-premise, si sono evoluti rispetto all'architettura IT tradizionale. Anziché eseguire ogni applicazione o workload su un hardware dedicato, ora utilizzano un'architettura cloud in cui le risorse fisiche come CPU, storage e rete sono virtualizzate. La virtualizzazione consente di astrarre queste risorse dai limiti fisici e di raggrupparle in capacità che possono essere allocate in più applicazioni e workload in qualsiasi quantità siano richieste.

La virtualizzazione abilita inoltre l'infrastruttura definita dal software (SDI), un'infrastruttura che può essere fornita, configurata, eseguita, mantenuta e "ridotta" in modo programmatico, senza intervento umano.

Questa virtualizzazione ha portato a nuove architetture di data center come i software-defined data center (SDDC), un concetto di gestione dei server che virtualizza elementi dell'infrastruttura come rete, storage ed elaborazione, fornendoli come servizio. Questa funzionalità consente alle organizzazioni di ottimizzare l'infrastruttura per ogni applicazione e workload senza apportare modifiche fisiche, il che può aiutare a migliorare le prestazioni e controllare i costi. I modelli di data center as-a-service sono destinati a diventare sempre più diffusi: IDC prevede che il 65% degli acquirenti di tecnologia darà priorità a questi modelli entro il 2026.3

Vantaggi dei data center moderni

La combinazione di architettura cloud e SDI offre numerosi vantaggi ai data center e ai loro utenti, tra cui:

  • Utilizzo ottimale delle risorse di elaborazione, storage e rete
  • Distribuzione rapida di applicazioni e servizi
  • Scalabilità
  • Varietà di servizi e soluzioni di data center
  • Sviluppo cloud-native
Utilizzo ottimale delle risorse di elaborazione, storage e rete

La virtualizzazione consente alle aziende o ai cloud di ottimizzare le proprie risorse e servire il maggior numero di utenti con la minor quantità di hardware e con la minima capacità inutilizzata o inattiva.

Distribuzione rapida di applicazioni e servizi

Con l'automazione SDI, per il provisioning di una nuova infrastruttura è sufficiente fare una richiesta tramite un portale self-service.

Scalabilità

L'infrastruttura IT virtualizzata è molto più facile da scalare rispetto a quella tradizionale. Anche le aziende che utilizzano i data center on-premise possono aggiungere capacità su richiesta trasferendo i workload nel cloud quando necessario.

Varietà di servizi e soluzioni di data center

Le aziende e i cloud possono offrire agli utenti un'ampia gamma di modi per utilizzare e distribuire l'IT, il tutto dalla stessa infrastruttura. Le scelte vengono effettuate in base alle esigenze del workload e includono IaaS (Infrastructure-as-a-Service), PaaS (Platform-as-a-Service) e SaaS (Software-as-a-Service). I CSP offrono questi servizi per l'utilizzo in un data center privato on-premise o come soluzioni cloud in un ambiente di cloud privatocloud pubblicohybrid cloud o multicloud

Altre soluzioni dati includono data center modulari, strutture pre-ingegnerizzate progettate per essere utilizzate come data center, dotate anche di tubazioni e delle necessarie apparecchiature di raffreddamento.

Sviluppo cloud-native

La containerizzazione e il serverless computing , insieme a un solido ecosistema open source, abilitano e accelerano i cicli DevOps e la modernizzazione delle applicazioni, oltre a consentire lo sviluppo delle app in base al principio "crea una volta, distribuisci ovunque".

Componenti dell'infrastruttura di data center

Server

 

I server sono computer potenti che offrono applicazioni, servizi e dati ai dispositivi degli utenti finali. I server dei data center sono disponibili in diversi fattori di forma:

  • I server montati su rack sono server autonomi larghi e piatti, delle dimensioni di una piccola scatola per pizza. Sono impilati l'uno sull'altro in un rack per risparmiare spazio (rispetto a un server tower o desktop). Ogni server montato su rack ha il suo alimentatore, le sue ventole di raffreddamento, i suoi commutatori di rete e le sue porte, oltre a processori, memoria e storage.
  • I blade server sono progettati per risparmiare ancora più spazio. Ogni blade contiene processori, controller di rete, memoria e talvolta storage. Sono realizzati per adattarsi a uno chassis che contiene più blade e include l'alimentazione, la gestione della rete e altre risorse per tutti i blade dello chassis.
  • I mainframe sono computer ad alte prestazioni con più processori in grado di svolgere il lavoro di un'intera sala di server montati su rack o blade server. I mainframe, i primi computer virtualizzabili, possono elaborare miliardi di calcoli e transazioni in tempo reale.

La scelta del fattore di forma del server dipende da molti fattori, tra cui lo spazio disponibile nel data center, i workload in esecuzione sui server, la potenza disponibile e il costo.

Sistemi di storage

 

La maggior parte dei server include alcune funzionalità di storage locale, denominato DAS (Direct-Attached Storage), per consentire ai dati utilizzati più di frequente (dati hot) di rimanere vicino alla CPU.

Altre due configurazioni di storage nei data center sono NAS (network-attached storage) e SAN (storage area network).

Il NAS fornisce data storage e accesso ai dati a più server tramite una connessione ethernet standard. Il dispositivo NAS è in genere un server dedicato con più supporti di storage, come hard disk drive (HDD) o solid-state drive (solid-state)

Come il NAS, un SAN consente l'archiviazione condivisa, ma utilizza una rete separata per i dati ed è costituito da una combinazione più complessa di più server di archiviazione, server di applicazioni e software di gestione dello storage.

Un singolo data center può utilizzare tutte e tre le configurazioni di storage (DAS, NAS e SAN) e i tipi di file storage, block storageobject storage.

SAN

 

La topologia di rete del data center si riferisce al layout fisico e all'interconnessione dei dispositivi di rete di un data center, compresi l'infrastruttura, le connessioni tra server e componenti e il flusso di dati. 

La rete del data center è costituita da varie apparecchiature di rete, come commutatori, router e fibra ottica che trasportano il traffico attraverso i server (chiamato traffico est/ovest) e verso o da i server ai client (chiamato traffico nord/sud).

Come accennato in precedenza, i servizi di rete di un data center sono in genere virtualizzati. Questa funzionalità consente di creare reti di overlay definite dal software, costruite sull'infrastruttura fisica della rete, per soddisfare controlli di sicurezza o SLA (service level agreement) specifici.

I data center hanno bisogno di connessioni a larghezza di banda elevata per consentire le comunicazioni tra i server e i sistemi di archiviazione e tra il traffico di rete in entrata e in uscita. Per i data center hyperscale, i requisiti di larghezza di banda possono variare da diversi gigabit al secondo (Gbps) a diversi terabit al secondo (Tbps).

Gestione dell'alimentazione e dei cavi

 

I data center devono essere sempre attivi, a tutti i livelli. La maggior parte è dotata di una doppia alimentazione. I gruppi statici di continuità (UPS) alimentati a batteria proteggono da sbalzi di tensione e brevi interruzioni di corrente. Se si verifica un'interruzione di corrente più grave, questi potenti generatori possono entrare in funzione.

Con migliaia di server collegati da vari cavi, la loro gestione è un importante problema di progettazione dei data center. Se i cavi sono troppo vicini l'uno all'altro, possono provocare comunicazioni incrociate che possono influire negativamente sulla velocità di trasferimento dei dati e sulla trasmissione dei segnali. Inoltre, se si raggruppano insieme troppi cavi, si può generare un calore eccessivo. La costruzione e l'espansione dei data center devono tenere conto delle normative edilizie e degli standard di settore per garantire che il cablaggio sia efficiente e sicuro.

Ridondanza e disaster recovery

 

I tempi di inattività dei data center sono costosi sia per i provider di data center che per i loro clienti. Gli operatori e gli architetti dei data center fanno di tutto per aumentare la resilienza dei loro sistemi. Queste misure includono array ridondanti di dischi indipendenti (RAID) per la protezione contro la perdita o il danneggiamento dei dati in caso di guasto dei supporti di storage. Altre misure includono un'infrastruttura di raffreddamento di backup del data center che mantiene i server a temperature ottimali, anche in caso di guasto del sistema di raffreddamento primario.

Molti grandi provider di data center dispongono di data center situati in aree geografiche distinte. Se si verifica un disastro naturale o uno sconvolgimento politico, è possibile eseguire il failover delle operazioni in un'altra regione per evitare l'interruzione dei servizi.

L'Uptime Institute  utilizza un sistema a quattro livelli per valutare la ridondanza e la resilienza dei data center.4

  • Livello I: fornisce componenti di base con capacità di ridondanza, come gruppi di continuità (UPS) e raffreddamento 24 ore su 24, 7 giorni su 7, per supportare le operazioni IT in un ambiente d'ufficio e non solo.
  • Livello II: aggiunge ulteriori sottosistemi di alimentazione e raffreddamento ridondanti, come generatori e dispositivi di accumulo dell'energia, per una maggiore sicurezza contro le interruzioni.
  • Livello III: aggiunge componenti ridondanti come elemento di differenziazione chiave da altri data center. Le strutture di livello III non devono essere arrestate in caso di manutenzione o sostituzione delle apparecchiature.
  • Livello IV: aggiunge tolleranza ai guasti implementando diversi componenti di capacità ridondanti indipendenti e fisicamente isolati, in modo che il guasto di un'apparecchiatura non abbia alcun impatto sulle operazioni IT.

Controlli ambientali

 

I data center sono progettati e attrezzati per controllare i fattori ambientali correlati che possono danneggiare o distruggere l'hardware e portare a tempi di inattività costosi o catastrofici.

  • Temperatura: la maggior parte dei data center utilizza una combinazione di raffreddamento ad aria e raffreddamento a liquido per mantenere i server e altri hardware in funzione negli intervalli di temperatura corretti. Il raffreddamento ad aria è fondamentalmente un sistema di aria condizionata, in particolare il CRAC (computer room air conditioning). Il CRAC è utilizzato per intere sale server o per file o rack specifici di server. Le tecnologie di raffreddamento a liquido pompano il liquido direttamente ai processori o, in alcuni casi, immergono i server nel liquido di raffreddamento. I provider di data center si rivolgono sempre più al raffreddamento a liquido per ottenere una maggiore efficienza energetica e sostenibilità, in quanto richiede meno elettricità e acqua rispetto al raffreddamento ad aria.
  • Umidità: un'umidità troppo elevata può causare la formazione di ruggine. Un livello di umidità troppo basso può aumentare il rischio di picchi di elettricità statica. Le apparecchiature per il controllo dell'umidità includono sistemi CRAC, ventilazione adeguata e sensori di umidità.
  • Elettricità statica: bastano appena 25 volt di elettricità per danneggiare le apparecchiature o danneggiare i dati. Le strutture di data center sono dotate di apparecchiature per monitorare l'elettricità statica e scaricarla in modo sicuro.
  • Incendio: Per ovvie ragioni, i data center devono includere apparecchiature antincendio che devono essere testate regolarmente.
Sicurezza del data center

I data center contengono informazioni sensibili e applicazioni business-critical, che richiedono una strategia di sicurezza completa che si estenda ai data center fisici e agli ambienti multicloud.

Le misure di sicurezza del data center comprendono la sicurezza fisica dell'hardware e dei dispositivi di archiviazione, oltre ai controlli amministrativi e di accesso. Includono anche la sicurezza delle applicazioni software, nonché politiche e procedure organizzative. I data center hyperscale, ad esempio, richiedono firewall specializzati e altri protocolli per una migliore cybersecurity.

Gestione del data center

La gestione dei data center comprende le attività e gli strumenti di cui le organizzazioni hanno bisogno per mantenere i loro data center privati operativi, sicuri e conformi. La persona responsabile dello svolgimento di questi compiti è nota come data center manager.

Il data center manager si occupa della manutenzione generale, inclusi aggiornamenti software e hardware, pulizia generale o le decisioni sulla disposizione fisica dei server. Inoltre, adotta misure proattive o reattive contro qualsiasi minaccia o evento che possa danneggiare il data center.

I data center manager possono utilizzare le soluzioni DCIM (data center infrastructure management) per semplificare la gestione generale e ottenere l'ottimizzazione delle prestazioni IT. Queste soluzioni software offrono ai data center manager una piattaforma centralizzata per monitorare, misurare, gestire e controllare tutti gli elementi del data center in tempo reale. Questa include ogni aspetto, dai componenti IT on-premise a strutture per il riscaldamento, il raffreddamento e l'illuminazione.

Sostenibilità e green data center

La sostenibilità aziendale è una parte fondamentale delle procedure ambientali, sociali e di governance (ESG). Gartner rileva che l'87% dei leader aziendali prevede di investire di più nella sostenibilità nei prossimi anni.5 La riduzione dell'impatto ambientale dei data center è in linea con gli obiettivi aziendali più ampi nell'ambito dell'impegno globale per combattere il cambiamento climatico.

L'odierna proliferazione di workload basati sull'AI sta determinando la crescita dei data center. Goldman Sachs Research stima che la domanda di energia dei data center crescerà del 160% entro il 2030.5

La necessità di ridurre il consumo di energia sta spingendo le aziende a promuovere soluzioni basate su energie rinnovabili per alimentare i loro data center di grandi dimensioni. Questo fenomeno ha portato alla crescita dei green data center, o data center sostenibili, strutture che ospitano infrastrutture IT e utilizzano tecnologie a basso consumo energetico per ottimizzare l'uso dell'energia e ridurre al minimo l'impatto ambientale.

Adottando tecnologie come la virtualizzazione, l'hardware ad alta efficienza energetica e le fonti di energia rinnovabile nei data center, le organizzazioni possono ottimizzare l'uso dell'energia, ridurre gli sprechi e risparmiare denaro. Le certificazioni svolgono un ruolo fondamentale nel riconoscimento e nella promozione di pratiche sostenibili all'interno dei data center. Tra le certificazioni e le associazioni più importanti ci sono Leadership in Energy and Environmental Design (LEED), Energy Star e Green Grid.

Soluzioni correlate
Data center globali IBM Cloud

IBM Cloud dispone di data center in ogni parte del mondo, per soddisfare rapidamente i requisiti specifici di ogni area geografica.

Esplora i data center globali di IBM Cloud
IBM Storage

IBM Storage ti aiuta a garantire che i tuoi dati siano protetti e facilmente accessibili per un processo decisionale più rapido e informato. 

Esplora IBM Storage
IBM Cloud for VMware Solutions

IBM Cloud for VMware Solutions consente di migrare e modernizzare i workload VMware nel cloud senza problemi. Questa funzionalità permette di utilizzare gli investimenti esistenti per un'esperienza VMware coerente, mantenendo lo stesso livello di accesso, sicurezza e controllo.

Esplora le soluzioni IBM Cloud for VMware
IBM Turbonomic

IBM Turbonomic offre una gestione moderna del data center con allocazione intelligente delle risorse, pianificazione della capacità e garanzia automatizzata delle prestazioni.

Esplora IBM Turbonomic
IBM Cloud

IBM Cloud with Red Hat offre il massimo della sicurezza sul mercato, della scalabilità aziendale e dell'innovazione aperta per sfruttare tutto il potenziale di cloud e AI.

Esplora IBM Cloud
Fai il passo successivo

Progettato per il settore, la sicurezza e la libertà di costruire e gestire ovunque, IBM Cloud è una piattaforma cloud full stack con oltre 170 prodotti e servizi che coprono dati, container, AI, IoT e blockchain. Usa IBM Cloud per creare un'infrastruttura scalabile a un costo inferiore, implementare nuove applicazioni istantaneamente e scalare i workload in base alla domanda.

Esplora IBM Cloud Inizia gratuitamente
Note a piè di pagina

Tutti i link sono esterni a ibm.com

 "Google: The Dalles, OR Data Center," DataCenters.com.

"Investing in the rising data center economy," McKinsey & Company, 17 gennaio 2023.

3 "IDC FutureScape: previsioni per il 2023 sul futuro delle infrastrutture digitali nel mondo ", Mary Johnston Turner, IDC, 9 dicembre 2022.

4 "Tier Classification System," Uptime Institute.

5 "AI is poised to drive 160% increase in data center power demand," Goldman Sachs Research, 14 maggio 2024.