21 febbraio 2025
Sebbene i data center tradizionali contengano molti degli stessi componenti di un data center AI, la loro potenza di calcolo e le altre funzionalità dell'infrastruttura IT variano notevolmente. Le organizzazioni che vogliono trarre beneficio dalla tecnologia AI dovrebbero accedere all'infrastruttura AI necessaria.
Questo accesso si può ottenere in molti modi e la maggior parte delle aziende non avrà bisogno di costruire i propri data center AI da zero, evitando quella che sarebbe un'impresa monumentale. Opzioni come l'hybrid cloud e la colocation hanno abbassato la barriera d'ingresso affinché le organizzazioni di ogni dimensione possano ottenere del valore dall'AI.
I data center AI hanno molte cose in comune con i data center tradizionali. Entrambi contengono componenti hardware come server, storage e attrezzature di rete. Gli operatori di entrambi devono considerare aspetti quali sicurezza, affidabilità, disponibilità ed efficienza energetica.
Le differenze tra i due tipi di data center derivano dalle elevate esigenze dei workload AI ad alta intensità. A differenza dei data center AI, i data center tradizionali contengono infrastrutture che verrebbero rapidamente sopraffatte dai workload AI. L'infrastruttura AI-ready è appositamente progettata per attività di cloud, AI e machine learning.
Ad esempio, è più probabile che i data center convenzionali siano progettati per le unità di elaborazione centrale (CPU) e che le contengano. Al contrario, i data center AI-ready richiedono unità di elaborazione grafica (GPU) ad alte prestazioni e considerazioni relative all'infrastruttura IT, come capacità avanzate a livello di storage, rete, energia e raffreddamento. Spesso, l'enorme numero di GPU necessarie per i casi d'uso dell'AI richiede anche molta più metratura.
"Hyperscale" e "colocation" descrivono due tipologie di data center comunemente utilizzati dalle organizzazioni per l'AI.
I data center iperscalabili sono enormi, includono almeno 5.000 server e occupano almeno 900 metri quadri di spazio fisico. Offrono capacità di scalabilità estreme e sono progettati per workload su larga scala (come l'AI generativa). Sono ampiamente utilizzati a livello globale da provider di cloud come Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) per vari scopi che includono intelligenza artificiale, automazione, analytics, data storage, elaborazione dei dati e molto altro.
Un data center di colocation si riferisce a una situazione in cui un'azienda possiede un data center iperscalabile e ne noleggia le strutture, i server e la larghezza di banda ad altre aziende.
Questa configurazione consente alle aziende di godere dei benefici dell'hyperscale, senza affrontare grandi investimenti. Alcuni dei maggiori utenti di servizi di colocation mondiali sono Amazon (AWS), Google e Microsoft. Ad esempio, questi fornitori di servizi cloud noleggiano uno spazio significativo nel data center di un operatore chiamato Equinix. Mettono quindi a disposizione dei clienti lo spazio acquisito, noleggiandolo a loro volta ad altre aziende.
In un blog post agli inizi del 2025, Microsoft ha definito l'AI come "l'elettricità della nostra epoca". Resta da vedere se questa dichiarazione sia stata un'iperbole oppure la verità. Di certo, l'adozione di strumenti di AI come ChatGPT di OpenAI da parte di milioni di utenti non esperti è avvenuta a un ritmo impressionante. Questo chiaro potenziale di produttività e monetizzazione delle funzionalità di AI ha portato a un flusso intenso di nuovi strumenti, agenti e generatori di contenuti per la produttività dell'IA.
I modelli open source e la continua democratizzazione dell'AI fanno in modo che non siano solo i principali protagonisti a fare scalpore nell'ecosistema dell'AI. Quasi tutte le entità possono essere un'azienda tecnologica se riescono a identificare un caso d'uso dell'AI e ad adottare l'infrastruttura IT per trasformarlo in realtà. Secondo un rapporto del 2024 dell'IBM Institute for Business Value (IBM IBV), il 43% dei dirigenti tecnologici di livello C afferma che le preoccupazioni sulla propria infrastruttura tecnologica sono aumentate negli ultimi sei mesi a causa dell'AI generativa e che ora sono concentrati sull'ottimizzazione della propria infrastruttura per scalarla.
Nel frattempo, il settore dei data center è cresciuto per soddisfare la domanda. L'infrastruttura dei data center in tutto il mondo è sempre più predisposta per l'AI, in grado di elaborare volumi elevati e complessi di calcoli e richieste. Attualmente, le regioni dell'Asia-Pacifico e del Nord America hanno la più alta proliferazione di data center, in particolare in aree come Pechino, Shanghai, la Virginia settentrionale e l'area della Baia di San Francisco.1
Anche gli ingenti investimenti delle grandi aziende tecnologiche hanno segnalato una crescita del settore dei data center AI. Nel 2025 Microsoft prevede di investire circa 80 miliardi di dollari nella costruzione di data center, mentre Meta sta investendo 10 miliardi di dollari in una nuova struttura di data center iperscalabile con una superficie superiore a 350.000 metri quadri nello stato americano della Louisiana.
I data center AI-ready presentano diverse caratteristiche e funzioni specifiche:
Un data center AI-ready necessita di funzionalità di calcolo ad alte prestazioni (HPC), come quelle che si trovano negli acceleratori AI. Gli acceleratori AI sono chip di AI utilizzati per velocizzare i modelli di ML e deep learning (DL), l' elaborazione del linguaggio naturale e altre operazioni di intelligenza artificiale . Sono ampiamente considerati come l'hardware che rende possibile l'AI e le sue numerose applicazioni
Le GPU, ad esempio, sono un tipo di acceleratore AI. Rese popolari da Nvidia, le GPU sono circuiti elettronici che suddividono problemi complicati in parti più piccole, risolvibili contemporaneamente attraverso una metodologia nota come elaborazione parallela. L'HPC utilizza un tipo di elaborazione parallela nota come massively parallel processing, che impiega decine di migliaia o addirittura milioni di processori o core. Questa funzionalità rende le GPU incredibilmente veloci ed efficienti. I modelli AI vengono addestrati ed eseguiti sulle GPU dei data center, alimentando molte delle principali applicazioni di AI.
Sempre più spesso, i data center AI-ready includono anche acceleratori AI più specializzati, come una neural processing unit (NPU) e delle tensor processing Unit (TPU). Le NPU imitano i percorsi neurali del cervello umano per una migliore elaborazione dei workload AI in tempo reale. Le TPU sono acceleratori appositamente realizzati per velocizzare i calcoli tensoriali nei workload AI. Il loro elevato throughput e la bassa latenza le rendono ideali per molte applicazioni di AI e deep learning.
La velocità e le elevate esigenze computazionali dei workload dell'AI richiedono un ampio data storage con memoria ad alta velocità. I solid-state drive (SSD), dispositivi di storage basati su semiconduttori che in genere utilizzano la memoria flash NAND, sono considerati dei dispositivi di storage critici per i data center AI. In particolare, gli NVMe SSD, che hanno la velocità, la programmabilità e la capacità per gestire l'elaborazione parallela.
Anche le GPU, gli acceleratori e alcuni SSD dei data center utilizzano la memoria ad alta larghezza di banda (HBM). Questo tipo di architettura di memoria consente il trasferimento di dati ad alte prestazioni con un consumo energetico inferiore rispetto alla memoria dinamica ad accesso casuale (DRAM), un'architettura di memoria più tradizionale.
Un altro aspetto tipico della progettazione dei data center AI è l'architettura di data storage in grado di soddisfare le fluttuazioni della domanda di dati, come picchi imprevisti. Invece di eseguire workload su hardware dedicato, molti data center (sia AI che convenzionali) utilizzano un'architettura cloud in cui lo storage è virtualizzato.
La virtualizzazione è la divisione dei componenti hardware di un singolo computer (come memoria e storage) in più macchine virtuali. Consente un migliore utilizzo delle risorse e una maggiore flessibilità, permettendo agli utenti di eseguire più applicazioni e sistemi operativi sullo stesso hardware fisico.
La virtualizzazione è inoltre la tecnologia alla base delle funzionalità dell'hybrid cloud. L'hybrid cloud offre alle organizzazioni maggiore agilità e flessibilità per connettere ambienti cloud e on-premise, un aspetto critico per l'adozione dell'AI generativa ad alta intensità di dati.
L'AI deve essere veloce. Gli utenti si aspettano risposte istantanee dalle applicazioni di AI online e i veicoli autonomi devono prendere decisioni in una frazione di secondo sulla strada. Pertanto, la rete dei data center AI deve essere in grado di supportare i requisiti di larghezza di banda elevata dei workload AI con bassa latenza. Per i data center hyperscale, i requisiti di larghezza di banda possono variare da diversi gigabit al secondo (Gbps) a diversi terabit al secondo (Tbps).
I data center tradizionali utilizzano la fibra ottica per le loro reti di comunicazione esterne, ma i rack dei data center gestiscono ancora prevalentemente le comunicazioni su cavi elettrici in rame. L'ottica co-packaged, un nuovo processo di IBM Research, promette di migliorare l'efficienza energetica e di aumentare la larghezza di banda, portando le connessioni ottiche all'interno dei dispositivi e all'interno delle pareti dei data center utilizzati per addestrare e implementare modelli linguistici di grandi dimensioni (LLM). Questa innovazione potrebbe aumentare notevolmente la larghezza di banda delle comunicazioni nei data center, accelerando l'elaborazione dell'AI.
Pressoché tutti i moderni data center utilizzano servizi di rete virtualizzati. Questa funzionalità consente di creare reti di overlay definite dal software, costruite sull'infrastruttura fisica della rete. Consente l'ottimizzazione dell'elaborazione, dello storage e della rete per ogni applicazione e workload, senza dover apportare modifiche fisiche all'infrastruttura.
I data center AI richiedono una tecnologia di virtualizzazione della rete all'avanguardia, con interconnessione, scalabilità e prestazioni migliori. Questa tecnologia deve anche essere in grado di risolvere i problemi di privacy e sicurezza dei grandi volumi di dati utilizzati per addestrare modelli di AI generativa. In un sondaggio di IBM IBV, il 57% dei CEO ha affermato che i timori legati alla sicurezza dei dati rappresenteranno un ostacolo per l'adozione dell'AI generativa.
L'elevata potenza di calcolo, le reti avanzate e i vasti sistemi di storage nei data center AI richiedono enormi quantità di energia elettrica e sistemi di raffreddamento avanzati per evitare interruzioni, tempi di inattività e sovraccarichi. Goldman Sachs prevede che l'AI determinerà un aumento del 165% della domanda di elettricità per i data center entro il 2030. Un'analisi di McKinsey suggerisce che la domanda globale annuale di capacità dei data center potrebbe raggiungere i 171-219 gigawatt (GW). La domanda attuale è pari a 60 GW.
Per soddisfare questi elevati requisiti di consumo energetico e raffreddamento, alcuni data center AI utilizzano una configurazione ad alta densità. Questa strategia massimizza la metratura del data center con configurazioni server compatte che offrono prestazioni migliori, sono più efficienti dal punto di vista energetico e contengono sistemi di raffreddamento avanzati.
Ad esempio, il raffreddamento a liquido utilizza spesso l'acqua anziché il raffreddamento ad aria per trasferire e dissipare il calore. Offre una maggiore efficienza nella gestione del calore ad alta densità e una migliore efficienza nell'uso dell'energia (PuE), una metrica utilizzata per misurare l'efficienza energetica del data center. Un altro metodo di raffreddamento è quello dell'isolamento delle corsie calde e/o fredde, che organizza i rack dei server per ottimizzare il flusso d'aria e ridurre al minimo la miscelazione di aria calda e fredda.
Alla luce di questi significativi requisiti di alimentazione, le organizzazioni moderne spesso cercano un equilibrio tra le loro ambizioni a livello di AI e gli obiettivi di sostenibilità. Un esempio significativo è quello di Apple, uno dei maggiori proprietari di data center iperscalabili al mondo. Dal 2014, tutti i data center di Apple funzionano completamente con energia rinnovabile attraverso varie combinazioni di celle combustibili a biogas, energia idroelettrica, energia solare ed energia eolica.
Altri stanno cercando fonti di energia extraterrestri, sperando di utilizzare al meglio l'energia solare ad alta intensità nello spazio per costruire nuovi data center. Le innovazioni nei data center orbitali potrebbero ridurre considerevolmente i costi energetici per l'addestramento dei modelli AI, riducendo potenzialmente le spese energetiche fino al 95%.
Progetta una strategia dati che elimini i silo, riduca la complessità e migliori la qualità dei dati per esperienze eccezionali di clienti e dipendenti.
Watsonx.data ti consente di scalare l'analytics e l'AI con tutti i tuoi dati, ovunque risiedano, attraverso uno storage dei dati aperto, ibrido e governato.
Sblocca il valore dei dati enterprise con IBM Consulting, creando un'organizzazione basata su insight in grado di generare vantaggi aziendali.
1 “AI to drive 165% increase in data center power demand by 2030,” Goldman Sachs, 4 febbraio 2025.