Un data center è una stanza, un edificio o una struttura fisica che ospita l' infrastruttura IT per la creazione, l'esecuzione e l'implementazione di applicazioni e servizi e per l'archiviazione e la gestione dei dati associati a tali applicazioni e servizi.
Negli ultimi anni, i data center si sono evoluti da strutture private, strettamente controllate, che ospitano infrastrutture IT tradizionali ad uso esclusivo di un'azienda, a strutture remote o reti di strutture di proprietà di provider di servizi cloud che ospitano infrastrutture IT virtualizzate ad uso condiviso di più aziende e clienti.
Esistono diversi tipi di strutture per data center e una singola azienda può utilizzarne più di uno, a seconda dei carichi di lavoro e delle esigenze aziendali.
In questo modello di data center, tutta l'infrastruttura IT e i dati sono ospitati on-premise. Molte aziende scelgono di avere i propri data center on-premise perché ritengono di avere un maggiore controllo sulla sicurezza delle informazioni e possono essere più facilmente conformi a normative come il regolamento generale sulla protezione dei dati (GDPR) dell'Unione Europea o l'HIPAA (Health Insurance Portability and Accountability Act) degli Stati Uniti. In un data center aziendale, l'azienda è responsabile di tutte le attività di implementazione, monitoraggio e gestione.
I data center su cloud (chiamati anche data center di cloud computing) ospitano le risorse dell'infrastruttura IT per l'uso condiviso da parte di più clienti - da decine a milioni di clienti - tramite una connessione Internet.
Molti dei più grandi data center su cloud - detti data center hyperscale - sono gestiti dai principali provider di servizi cloud come Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure e Oracle Cloud Infrastructure. In effetti, la maggior parte dei principali provider cloud gestisce diversi data center hyperscale in tutto il mondo. Generalmente, i provider di servizi cloud gestiscono data center edge più piccoli, situati più vicino ai clienti cloud (e ai clienti dei clienti cloud). Per i carichi di lavoro ad alta intensità di dati in tempo reale, come l'analytics dei big data, l' AI e le applicazioni di distribuzione dei contenuti, i data center edge possono aiutare a ridurre al minimo la latenza, migliorando le prestazioni complessive delle applicazioni e l'esperienza del cliente.
I data center gestiti e le strutture di co-locazione sono opzioni per le organizzazioni che non dispongono dello spazio, del personale o delle competenze necessarie per implementare e gestire una parte o tutta l'infrastruttura IT on-premise, ma che preferiscono non ospitare tale infrastruttura utilizzando le risorse condivise di un data center su cloud pubblico.
In un data center gestito, l'azienda cliente affitta server, storage e hardware di rete dedicati dal provider del data center, che si occupa dell'amministrazione, del monitoraggio e della gestione per l'azienda cliente.
In una struttura di co-locazione, l'azienda cliente è proprietaria di tutta l'infrastruttura e affitta uno spazio dedicato per ospitarla all'interno della struttura. Nel modello di co-locazione tradizionale, l'azienda cliente ha accesso esclusivo all'hardware e ha la piena responsabilità della relativa gestione; si tratta di una soluzione ideale per la privacy e la sicurezza, ma spesso poco pratica, soprattutto in caso di interruzioni o emergenze. Oggi la maggior parte dei provider di co-locazione offre servizi di gestione e monitoraggio ai clienti che lo desiderano.
I data center gestiti e le strutture di co-locazione sono spesso utilizzati per ospitare tecnologie di backup remoto dei dati e di disaster recovery per le piccole e medie imprese (PMI).
La maggior parte dei data center moderni - anche quelli interni on-premise - si è evoluta dall'architettura IT tradizionale, in cui ogni applicazione o carico di lavoro viene eseguito su un hardware dedicato, all'architettura cloud, in cui le risorse hardware fisiche - CPU, storage, rete - sono virtualizzate. La virtualizzazione consente di astrarre queste risorse dai loro limiti fisici e di riunirle in una capacità che può essere allocata tra più applicazioni e carichi di lavoro nelle quantità necessarie.
La virtualizzazione consente inoltre di creare una SDI (software-defined infrastructure), che può essere fornita, configurata, eseguita, gestita e "ridotta" in modo programmatico, senza alcun intervento umano.
La combinazione di architettura cloud ed SDI offre molti vantaggi ai data center e ai loro utenti, inclusi i seguenti:
Utilizzo ottimale delle risorse di calcolo, storage e rete. La virtualizzazione consente alle aziende o ai cloud di servire il maggior numero di utenti utilizzando la quantità minima di hardware e con la minor capacità inutilizzata o inattiva.
Implementazione rapida di applicazioni e servizi. L'automazione SDI rende il provisioning di una nuova infrastruttura semplice come fare una richiesta attraverso un portale self-service.
Scalabilità. L'infrastruttura IT virtualizzata è molto più facile da scalare rispetto all'infrastruttura IT tradizionale. Anche le aziende che utilizzano data center on-premise possono aggiungere capacità su richiesta trasferendo i carichi di lavoro nel cloud quando necessario.
Varietà di servizi e soluzioni di data center. Le aziende e i cloud possono offrire agli utenti una serie di modi per utilizzare e fornire l'IT, e tutto dalla stessa infrastruttura. Le scelte vengono fatte in base alle richieste dei carichi di lavoro e comprendono IaaS (Infrastructure as a Service), PaaS (Platform as a Service) e SaaS (Software as a Service). Questi servizi possono essere offerti in un data center privato o come soluzioni cloud in un ambiente cloud privato, pubblico, ibrido o multicloud.
Sviluppo nativo del cloud. La containerizzazione e l'elaborazione serverless, insieme a un robusto ecosistema open source, abilitano ed accelerano i cicli DevOps e la modernizzazione delle applicazioni, oltre a consentire applicazioni sviluppate una sola volta che possono essere implementate ovunque.
I server sono potenti computer che forniscono applicazioni, servizi e dati ai dispositivi degli utenti finali. I server dei data center sono disponibili in diversi fattori di forma:
I server montati su rack sono server autonomi larghi e piatti - delle dimensioni di un piccolo cartone per pizza - progettati per essere impilati uno sopra l'altro in un rack, per risparmiare spazio (rispetto a un server tower o desktop). Ogni server montato su rack ha il suo alimentatore, le sue ventole di raffreddamento, i suoi switch di rete e le sue porte, oltre ai consueti processore, memoria e storage.
I server blade sono progettati per risparmiare ancora più spazio. Ogni blade contiene processori, controller di rete, memoria e talvolta storage; sono progettati per essere inseriti in uno chassis che contiene più blade e contiene l'alimentatore, la gestione della rete e altre risorse per tutti i blade nello chassis.
I mainframe sono computer ad alte prestazioni con più processori che possono svolgere il lavoro di un'intera stanza di server blade o montati su rack. I mainframe, i primi computer virtualizzabili, possono elaborare miliardi di calcoli e transazioni in tempo reale.
La scelta del fattore di forma dipende da molti fattori, tra cui lo spazio disponibile nel data center, i carichi di lavoro eseguiti sui server, l'energia disponibile e il costo.
La maggior parte dei server dispone di una funzionalità di storage locale - chiamata DAS (direct-attached storage) - per consentire ai dati utilizzati più di frequente (hot data) di rimanere in prossimità della CPU.
Altre due configurazioni di storage del data center includono NAS (network-attached storage) e SAN (storage area network).
Una NAS fornisce lo storage e l'accesso ai dati a più server tramite una connessione Ethernet standard. Il dispositivo NAS è in genere un server dedicato con più supporti di storage - unità HDD (hard disk drive) e/o unità SSD (solid-state drive).
Come una NAS, anche una SAN consente uno storage condiviso, ma utilizza una rete separata per i dati ed è costituita da una combinazione più complessa di più server di storage, server delle applicazioni e software di gestione dello storage.
Un singolo data center può utilizzare tutte e tre le configurazioni di storage - DAS, NAS e SAN - oltre ai tipi di storage di file, storage a blocchi e storage di oggetti.
La rete del data center, composta da vari tipi di switch, router e fibre ottiche, trasporta il traffico di rete attraverso i server (chiamato traffico est/ovest) e da/verso i server ai client (chiamato traffico nord/sud).
Come detto in precedenza, i servizi di rete di un data center sono tipicamente virtualizzati. Ciò consente di creare reti di overlay definite dal software, costruite sopra l'infrastruttura fisica della rete, per soddisfare specifici controlli di sicurezza o SLA (service level agreement).
I data center devono essere sempre attivi, a tutti i livelli. La maggior parte dei server dispone di due alimentatori. Gli UPS (uninterruptible power supply) alimentati a batteria proteggono da sbalzi di tensione e da brevi interruzioni di corrente. Potenti generatori possono intervenire in caso di interruzioni di corrente più gravi.
Con migliaia di server collegati da vari cavi, la gestione dei cavi è un problema importante nella progettazione dei data center. Se i cavi sono troppo vicini l'uno all'altro, possono provocare interferenze che possono avere un impatto negativo sulla velocità di trasferimento dei dati e sulla trasmissione dei segnali. Inoltre, se vengono fissati insieme troppi cavi, possono generare eccessivo calore. La costruzione e l'espansione dei data center devono tenere conto dei codici di costruzione e degli standard del settore per garantire che il cablaggio sia efficiente e sicuro.
I tempi di inattività dei data center sono costosi per i provider di data center e per i loro clienti, e gli operatori e gli architetti dei data center fanno di tutto per aumentare la resilienza dei loro sistemi. Queste misure includono tutto, dai RAID (redundant arrays of independent disks) per la protezione contro la perdita o il danneggiamento dei dati in caso di guasti dei supporti di storage, all'infrastruttura di raffreddamento dei data center di backup che mantiene i server in esecuzione a temperature ottimali, anche in caso di guasto del sistema di raffreddamento principale.
Molti provider di data center di grandi dimensioni hanno data center situati in regioni geograficamente distinte, in modo che se si verifica un disastro naturale o un'interruzione politica in una regione, le operazioni possono essere trasferite a un'altra regione in modo che i servizi non vengano interrotti.
L' Uptime Institute (link esterno a ibm.com) utilizza un sistema a quattro livelli (Tier) per classificare la ridondanza e la resilienza dei data center:
Tier I - fornisce componenti con capacità di ridondanza di base, come un UPS (uninterruptible power supply) e un sistema di raffreddamento 24 ore su 24, 7 giorni su 7, per supportare le operazioni IT per un ufficio od oltre.
Tier II - aggiunge ulteriori sottosistemi ridondanti di alimentazione e raffreddamento, come generatori e dispositivi di accumulo dell'energia, per una maggiore sicurezza contro le interruzioni.
Tier III - aggiunge componenti ridondanti come elemento chiave di differenziazione da altri data center. Le strutture di livello III non richiedono alcun arresto quando le apparecchiature necessitano di manutenzione o sostituzione.
Tier IV - aggiunge la tolleranza ai guasti implementando diversi componenti di capacità ridondanti indipendenti e isolati fisicamente, in modo che in caso di guasti di un componente dell'apparecchiatura non si verifichi alcun impatto sulle operazioni IT.
I data center devono essere progettati e attrezzati per controllare i fattori ambientali - per la maggior parte interconnessi - che possono danneggiare o distruggere l'hardware e causare tempi di inattività costosi o catastrofici.
Temperatura: la maggior parte dei data center impiega una combinazione di raffreddamento ad aria e a liquido per mantenere i server e l'altro hardware in funzione in intervalli di temperatura adeguati. Il raffreddamento ad aria è fondamentalmente un condizionamento dell'aria - nello specifico un sistema di condizionamento dell'aria della sala computer (computer room air conditioning, CRAC) mirato all'intera sala server o a file o rack specifici di server. Le tecnologie di raffreddamento a liquido pompano il liquido direttamente ai processori o, in alcuni casi, immergono i server nel liquido di raffreddamento. I provider di data center utilizzano sempre più spesso il raffreddamento a liquido per una maggiore efficienza energetica e sostenibilità, in quanto questo sistema richiede una quantità di acqua ed energia elettrica inferiore rispetto al raffreddamento ad aria.
Umidità: un'umidità elevata può causare la formazione di ruggine sulle apparecchiature; una bassa umidità può aumentare il rischio di sovracorrenti di elettricità statica (vedi sotto). I dispositivi di controllo dell'umidità comprendono i sistemi CRAC già citati, una ventilazione adeguata e sensori di umidità.
Elettricità statica: una scarica statica di appena 25 volt può danneggiare le apparecchiature o danneggiare i dati. Le strutture dei data center sono dotate di dispositivi che consentono di monitorare l'elettricità statica e scaricarla in sicurezza.
Incendi: per ovvi motivi, i data center devono essere dotati di apparecchiature antincendio che devono essere verificate regolarmente.
Le moderne soluzioni di infrastruttura convergente (CI - converged infrastructure) combinano server, storage e rete in una singola piattaforma integrata.
Scopri i data center IBM Cloud situati in tutto il mondo per aiutarti a soddisfare rapidamente requisiti specifici per una determinata area geografica.
IBM Cloud con Red Hat offre sicurezza ai vertici del mercato, scalabilità aziendale e innovazione aperta per realizzare il pieno potenziale del cloud e dell'AI.
Un ambiente definito dal software in cui l'ottimizzazione del servizio indica il percorso.
Fornire rapidamente un data center flessibile, scalabile ed efficiente dal punto di vista energetico in un formato modulare prefabbricato.