Un data center è una stanza, un edificio o una struttura fisica che ospita l'infrastruttura IT per la creazione, l'esecuzione e la fornitura di applicazioni e servizi. Archivia e gestisce anche i dati associati a tali applicazioni e servizi.
I data center sono nati come strutture on-premise private, strettamente controllate, che ospitavano infrastrutture IT tradizionali ad uso esclusivo di un'azienda. Recentemente, si sono evoluti in strutture o reti di strutture remote di proprietà di provider di servizi cloud (CSP). Questi data center CSP ospitano infrastrutture IT virtualizzate per l'uso condiviso di più aziende e clienti.
I data center risalgono agli anni '40. L'Electrical Numerical Integrator and Computer (ENIAC) dell'esercito americano, completato nel 1945 presso l'Università della Pennsylvania, è un primo esempio di data center che richiedeva uno spazio dedicato per ospitare le sue enormi macchine.
Nel corso degli anni, i computer sono diventati più efficienti in termini di dimensioni, richiedendo meno spazio fisico. Negli anni '90, i microcomputer sono entrati in scena, riducendo drasticamente la quantità di spazio necessaria per le operazioni IT. Questi microcomputer, che hanno iniziato a riempire le vecchie sale computer dei mainframe, sono stati chiamati "server" e le sale hanno preso il nome di "data center".
L'avvento del cloud computing all'inizio degli anni 2000 ha sconvolto in modo significativo il landscape tradizionale dei data center. I servizi cloud consentono alle organizzazioni di accedere alle risorse di calcolo su richiesta, via internet, con prezzi pay-per-use, offrendo la flessibilità di aumentarle o ridimensionarle in base alle esigenze.
Nel 2006, Google ha lanciato il primo data center hyperscale a The Dalles, in Oregon. Questa struttura hyperscale occupa attualmente uno spazio di 120.000 metri quadrati e impiega uno staff di circa 200 operatori di data center.1
Uno studio di McKinsey & Company prevede che il settore crescerà del 10% all'anno fino al 2030, con una spesa globale per la costruzione di nuovi impianti che raggiungerà i 49 miliardi di dollari.2
Esistono diversi tipi di strutture di data center, e una singola azienda può utilizzarne più di uno, a seconda dei workload e delle esigenze aziendali.
Questo modello di data center ospita tutta l'infrastruttura IT e i dati on-premise. Molte aziende scelgono i data center on-premise. Hanno un maggiore controllo sulla sicurezza delle informazioni e possono conformarsi più facilmente a normative quali il Regolamento generale sulla protezione dei dati (GDPR) europeo o l'Health Insurance Portability and Accountability Act (HIPAA) statunitense. In un data center aziendale, l'azienda è responsabile di tutte le attività di distribuzione, monitoraggio e gestione.
I data center su cloud (chiamati anche data center di cloud computing) ospitano le risorse dell'infrastruttura IT per l'uso condiviso da parte di più clienti, da decine a milioni di utenti, tramite una connessione internet.
Molti dei più grandi data center su cloud, chiamati data center hyperscale, sono gestiti dai principali provider di servizi cloud (CSP), come Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud e Microsoft Azure. Queste aziende dispongono di importanti data center in ogni zona del mondo. Ad esempio, IBM gestisce oltre 60 IBM Cloud Data Center in diverse sedi in tutto il mondo.
I data center hyperscale sono più grandi dei data center tradizionali e possono occupare un'area di migliaia di metri quadrati. In genere contengono almeno 5.000 server e chilometri di apparecchiature di connessione, e a volte possono raggiungere i 6.000 metri quadrati.
In genere, i provider di servizi cloud gestiscono edge data center (EDC) più piccoli e situati più vicino ai clienti cloud (e ai loro clienti). Gli edge data center costituiscono le fondamenta dell'edge computing, un framework di elaborazione distribuito che porta le applicazioni più vicine agli utenti finali. Gli edge data center sono ideali per workload in tempo reale ad alta intensità di dati come la big data analytics, l'intelligenza artificiale (AI), il machine learning (ML) e la distribuzione dei contenuti. Aiutano a ridurre al minimo la latenza, migliorando le prestazioni complessive delle applicazioni e l'esperienza del cliente.
I data center gestiti e le strutture di colocation sono una scelta possibile per le organizzazioni che non dispongono dello spazio, del personale o delle competenze necessarie per gestire la propria infrastruttura IT on-premise. Queste opzioni sono ideali per coloro che preferiscono non ospitare un'infrastruttura propria e utilizzare le risorse condivise di un data center sul cloud pubblico.
In un data center gestito, l'azienda cliente noleggia server dedicati, spazio di archiviazione e hardware di rete dal provider, mentre il provider gestisce l'amministrazione, il monitoraggio e la gestione dell'azienda cliente.
In una struttura di colocation, l'azienda cliente possiede tutta l'infrastruttura e affitta uno spazio dedicato per ospitarla all'interno della struttura. Nel modello di colocation tradizionale, l'azienda cliente ha accesso esclusivo all'hardware e la piena responsabilità della sua gestione. Questo modello è ideale per la privacy e la sicurezza, ma spesso poco pratico, in particolare in caso di interruzioni ed emergenze. Oggi, la maggior parte dei fornitori di colocation offre servizi di gestione e monitoraggio per i clienti che li desiderano.
Spesso le aziende scelgono data center gestiti e strutture di colocation per ospitare tecnologie di backup remoto e disaster recovery (DR) per le piccole e medie imprese (PMI).
La maggior parte dei data center moderni, compresi quelli in-house on-premise, si sono evoluti rispetto all'architettura IT tradizionale. Anziché eseguire ogni applicazione o workload su un hardware dedicato, ora utilizzano un'architettura cloud in cui le risorse fisiche come CPU, storage e rete sono virtualizzate. La virtualizzazione consente di astrarre queste risorse dai limiti fisici e di raggrupparle in capacità che possono essere allocate in più applicazioni e workload in qualsiasi quantità siano richieste.
La virtualizzazione abilita inoltre l'infrastruttura definita dal software (SDI), un'infrastruttura che può essere fornita, configurata, eseguita, mantenuta e "ridotta" in modo programmatico, senza intervento umano.
Questa virtualizzazione ha portato a nuove architetture di data center come i software-defined data center (SDDC), un concetto di gestione dei server che virtualizza elementi dell'infrastruttura come rete, storage ed elaborazione, fornendoli come servizio. Questa funzionalità consente alle organizzazioni di ottimizzare l'infrastruttura per ogni applicazione e workload senza apportare modifiche fisiche, il che può aiutare a migliorare le prestazioni e controllare i costi. I modelli di data center as-a-service sono destinati a diventare sempre più diffusi: IDC prevede che il 65% degli acquirenti di tecnologia darà priorità a questi modelli entro il 2026.3
La combinazione di architettura cloud e SDI offre numerosi vantaggi ai data center e ai loro utenti, tra cui:
La virtualizzazione consente alle aziende o ai cloud di ottimizzare le proprie risorse e servire il maggior numero di utenti con la minor quantità di hardware e con la minima capacità inutilizzata o inattiva.
Con l'automazione SDI, per il provisioning di una nuova infrastruttura è sufficiente fare una richiesta tramite un portale self-service.
L'infrastruttura IT virtualizzata è molto più facile da scalare rispetto a quella tradizionale. Anche le aziende che utilizzano i data center on-premise possono aggiungere capacità su richiesta trasferendo i workload nel cloud quando necessario.
Le aziende e i cloud possono offrire agli utenti un'ampia gamma di modi per utilizzare e distribuire l'IT, il tutto dalla stessa infrastruttura. Le scelte vengono effettuate in base alle esigenze del workload e includono IaaS (Infrastructure-as-a-Service), PaaS (Platform-as-a-Service) e SaaS (Software-as-a-Service). I CSP offrono questi servizi per l'utilizzo in un data center privato on-premise o come soluzioni cloud in un ambiente di cloud privato, cloud pubblico, hybrid cloud o multicloud.
Altre soluzioni dati includono data center modulari, strutture pre-ingegnerizzate progettate per essere utilizzate come data center, dotate anche di tubazioni e delle necessarie apparecchiature di raffreddamento.
La containerizzazione e il serverless computing , insieme a un solido ecosistema open source, abilitano e accelerano i cicli DevOps e la modernizzazione delle applicazioni, oltre a consentire lo sviluppo delle app in base al principio "crea una volta, distribuisci ovunque".
I server sono computer potenti che offrono applicazioni, servizi e dati ai dispositivi degli utenti finali. I server dei data center sono disponibili in diversi fattori di forma:
La scelta del fattore di forma del server dipende da molti fattori, tra cui lo spazio disponibile nel data center, i workload in esecuzione sui server, la potenza disponibile e il costo.
La maggior parte dei server include alcune funzionalità di storage locale, denominato DAS (Direct-Attached Storage), per consentire ai dati utilizzati più di frequente (dati hot) di rimanere vicino alla CPU.
Altre due configurazioni di storage nei data center sono NAS (network-attached storage) e SAN (storage area network).
Il NAS fornisce data storage e accesso ai dati a più server tramite una connessione ethernet standard. Il dispositivo NAS è in genere un server dedicato con più supporti di storage, come hard disk drive (HDD) o solid-state drive (solid-state)
Come il NAS, un SAN consente l'archiviazione condivisa, ma utilizza una rete separata per i dati ed è costituito da una combinazione più complessa di più server di archiviazione, server di applicazioni e software di gestione dello storage.
Un singolo data center può utilizzare tutte e tre le configurazioni di storage (DAS, NAS e SAN) e i tipi di file storage, block storage e object storage.
La topologia di rete del data center si riferisce al layout fisico e all'interconnessione dei dispositivi di rete di un data center, compresi l'infrastruttura, le connessioni tra server e componenti e il flusso di dati.
La rete del data center è costituita da varie apparecchiature di rete, come commutatori, router e fibra ottica che trasportano il traffico attraverso i server (chiamato traffico est/ovest) e verso o da i server ai client (chiamato traffico nord/sud).
Come accennato in precedenza, i servizi di rete di un data center sono in genere virtualizzati. Questa funzionalità consente di creare reti di overlay definite dal software, costruite sull'infrastruttura fisica della rete, per soddisfare controlli di sicurezza o SLA (service level agreement) specifici.
I data center hanno bisogno di connessioni a larghezza di banda elevata per consentire le comunicazioni tra i server e i sistemi di archiviazione e tra il traffico di rete in entrata e in uscita. Per i data center hyperscale, i requisiti di larghezza di banda possono variare da diversi gigabit al secondo (Gbps) a diversi terabit al secondo (Tbps).
I data center devono essere sempre attivi, a tutti i livelli. La maggior parte è dotata di una doppia alimentazione. I gruppi statici di continuità (UPS) alimentati a batteria proteggono da sbalzi di tensione e brevi interruzioni di corrente. Se si verifica un'interruzione di corrente più grave, questi potenti generatori possono entrare in funzione.
Con migliaia di server collegati da vari cavi, la loro gestione è un importante problema di progettazione dei data center. Se i cavi sono troppo vicini l'uno all'altro, possono provocare comunicazioni incrociate che possono influire negativamente sulla velocità di trasferimento dei dati e sulla trasmissione dei segnali. Inoltre, se si raggruppano insieme troppi cavi, si può generare un calore eccessivo. La costruzione e l'espansione dei data center devono tenere conto delle normative edilizie e degli standard di settore per garantire che il cablaggio sia efficiente e sicuro.
I tempi di inattività dei data center sono costosi sia per i provider di data center che per i loro clienti. Gli operatori e gli architetti dei data center fanno di tutto per aumentare la resilienza dei loro sistemi. Queste misure includono array ridondanti di dischi indipendenti (RAID) per la protezione contro la perdita o il danneggiamento dei dati in caso di guasto dei supporti di storage. Altre misure includono un'infrastruttura di raffreddamento di backup del data center che mantiene i server a temperature ottimali, anche in caso di guasto del sistema di raffreddamento primario.
Molti grandi provider di data center dispongono di data center situati in aree geografiche distinte. Se si verifica un disastro naturale o uno sconvolgimento politico, è possibile eseguire il failover delle operazioni in un'altra regione per evitare l'interruzione dei servizi.
L'Uptime Institute utilizza un sistema a quattro livelli per valutare la ridondanza e la resilienza dei data center.4
I data center sono progettati e attrezzati per controllare i fattori ambientali correlati che possono danneggiare o distruggere l'hardware e portare a tempi di inattività costosi o catastrofici.
I data center contengono informazioni sensibili e applicazioni business-critical, che richiedono una strategia di sicurezza completa che si estenda ai data center fisici e agli ambienti multicloud.
Le misure di sicurezza del data center comprendono la sicurezza fisica dell'hardware e dei dispositivi di archiviazione, oltre ai controlli amministrativi e di accesso. Includono anche la sicurezza delle applicazioni software, nonché politiche e procedure organizzative. I data center hyperscale, ad esempio, richiedono firewall specializzati e altri protocolli per una migliore cybersecurity.
La gestione dei data center comprende le attività e gli strumenti di cui le organizzazioni hanno bisogno per mantenere i loro data center privati operativi, sicuri e conformi. La persona responsabile dello svolgimento di questi compiti è nota come data center manager.
Il data center manager si occupa della manutenzione generale, inclusi aggiornamenti software e hardware, pulizia generale o le decisioni sulla disposizione fisica dei server. Inoltre, adotta misure proattive o reattive contro qualsiasi minaccia o evento che possa danneggiare il data center.
I data center manager possono utilizzare le soluzioni DCIM (data center infrastructure management) per semplificare la gestione generale e ottenere l'ottimizzazione delle prestazioni IT. Queste soluzioni software offrono ai data center manager una piattaforma centralizzata per monitorare, misurare, gestire e controllare tutti gli elementi del data center in tempo reale. Questa include ogni aspetto, dai componenti IT on-premise a strutture per il riscaldamento, il raffreddamento e l'illuminazione.
La sostenibilità aziendale è una parte fondamentale delle procedure ambientali, sociali e di governance (ESG). Gartner rileva che l'87% dei leader aziendali prevede di investire di più nella sostenibilità nei prossimi anni.5 La riduzione dell'impatto ambientale dei data center è in linea con gli obiettivi aziendali più ampi nell'ambito dell'impegno globale per combattere il cambiamento climatico.
L'odierna proliferazione di workload basati sull'AI sta determinando la crescita dei data center. Goldman Sachs Research stima che la domanda di energia dei data center crescerà del 160% entro il 2030.5
La necessità di ridurre il consumo di energia sta spingendo le aziende a promuovere soluzioni basate su energie rinnovabili per alimentare i loro data center di grandi dimensioni. Questo fenomeno ha portato alla crescita dei green data center, o data center sostenibili, strutture che ospitano infrastrutture IT e utilizzano tecnologie a basso consumo energetico per ottimizzare l'uso dell'energia e ridurre al minimo l'impatto ambientale.
Adottando tecnologie come la virtualizzazione, l'hardware ad alta efficienza energetica e le fonti di energia rinnovabile nei data center, le organizzazioni possono ottimizzare l'uso dell'energia, ridurre gli sprechi e risparmiare denaro. Le certificazioni svolgono un ruolo fondamentale nel riconoscimento e nella promozione di pratiche sostenibili all'interno dei data center. Tra le certificazioni e le associazioni più importanti ci sono Leadership in Energy and Environmental Design (LEED), Energy Star e Green Grid.
Scopri come un approccio di data lakehouse aperto può fornire dati affidabili e un’esecuzione più rapida dell’analytics e dei progetti di AI.
IBM è stata nominata leader per il diciannovesimo anno consecutivo nel Gartner Magic Quadrant 2024 nella categoria Data Integration Tools
Esplora la guida per i leader dei dati che desiderano creare un’organizzazione basata sui dati e ottenere un vantaggio aziendale.
Scopri perché data intelligence e integrazione dei dati basate su AI sono critiche per guidare la preparazione dei dati strutturati e non strutturati e accelerare i risultati dell’AI.
Progetta una strategia dati che elimini i silo, riduca la complessità e migliori la qualità dei dati per esperienze eccezionali di clienti e dipendenti.
Watsonx.data ti consente di scalare l'analytics e l'AI con tutti i tuoi dati, ovunque risiedano, attraverso uno storage dei dati aperto, ibrido e governato.
Sblocca il valore dei dati enterprise con IBM Consulting, creando un'organizzazione basata su insight in grado di generare vantaggi aziendali.
1 "Google: The Dalles, OR Data Center," DataCenters.com.
2 "Investing in the rising data center economy", McKinsey & Company, 17 gennaio 2023.
3 "IDC FutureScape: Worldwide Future of Digital Infrastructure 2023 Predictions", Mary Johnston Turner, IDC, 9 dicembre 2022.
4 "Tier Classification System", Uptime Institute.
5 "AI is poised to drive 160% increase in data center power demand", Goldman Sachs Research, 14 maggio 2024.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com