L'AI storage si riferisce ai sistemi di data storage ottimizzati per i grandi set di dati, l'accesso ai dati ad alta velocità e le intense richieste di calcolo da parte dei workload di intelligenza artificiale (AI) e machine learning (ML).
L'innovazione nell'AI sta accelerando rapidamente e i relativi progetti richiedono un'architettura di storage in grado di accogliere sia crescita in espansione dei dati sia l'offerta di prestazioni, scalabilità e accesso a bassa latenza che richiedono i workload basati sull'AI.
Secondo uno studio di ricerca di Precedence, si stima che il mercato globale dello storage basato sull'AI crescerà da 35,95 miliardi di dollari nel 2025 a circa 255,24 miliardi di dollari entro il 2034. Il tasso di crescita annuale composto stimato (CAGR) è del 24,42%.1 L'Integrazione accelerata dell'AI e machine learning (ML), insieme all'aumento dei casi d'uso dell'AI storage in tutti i settori, sta guidando la crescita del mercato.
Newsletter di settore
Resta al passo con le tendenze più importanti e interessanti del settore relative ad AI, automazione, dati e oltre con la newsletter Think. Leggi l' Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Le aziende stanno modernizzando la propria infrastruttura di data storage per utilizzare al meglio il potenziale di business offerto dall'AI, dal machine learning e dall'analytics avanzata. Tuttavia, sono sfidati dai dati e dai workload distribuiti in più regioni, dall'aumento del tempo richiesto per l'addestramento dell'AI e dai workload di inferenza. A questi problemi si aggiungono il costo e la scarsità di risorse on-demand come le unità di elaborazione grafica (GPU).
Secondo uno studio dell'IBM® Institute for Business Value (IBV), il 62% dei dirigenti prevede di utilizzare l'AI nelle proprie organizzazioni entro 3 anni. Tuttavia, solo l'8% ha dichiarato che la propria infrastruttura IT soddisfa tutte le esigenze di AI.
Guardando al futuro, solo il 42% degli intervistati ritiene che questa infrastruttura possa gestire i volumi di dati e le richieste di elaborazione dei modelli AI avanzati. Allo stesso modo, solo il 46% si aspetta che supporti l'inferenza in tempo reale su larga scala.
I workload dell'AI richiedono sistemi in grado di ridurre i colli di bottiglia nel trattamento dei dati, che rallentano l'addestramento dei modelli, il fine-tuning e l'inferenza. Hanno inoltre bisogno di sistemi di storage scalabili per gestire set di dati in continua crescita, in particolare quelli associati all'AI generativa e ai workload dei modelli linguistici di grandi dimensioni (LLM).
Per soddisfare queste esigenze, l'AI storage può integrarsi perfettamente con framework open source e le ML proprietarie (ML) e il deep learning tramite le application programming interface (API). Questa funzionalità accelera l'addestramento degli LLM, lo sviluppo dei modelli e migliora le prestazioni complessive su tutto il sistema AI.
Per saperne di più, consulta: "Infrastruttura per AI: perché lo storage è importante."
Il data storage tradizionale viene utilizzato per le app aziendali in generale, mentre l'AI storage fornisce la base per addestrare e gestire modelli AI complessi e ad alta intensità di dati in modo efficiente ed economico.
Sebbene lo storage tradizionale gestisca sia dati strutturati che dati non strutturati, è progettato per workload tipici aziendali con schemi prevedibili, non per addestrare modelli su sistemi distribuiti e per eseguire inferenze su larga scala.
L'AI storage si riferisce ai sistemi utilizzati per memorizzare e gestire i dati per addestrare e gestire sistemi di infrastruttura AI, compresi data lake, cloud storage e database. Gestisce enormi volumi di dati non strutturati (ad esempio, immagini, audio, video, dati dei sensori).
Questi tipi di dati richiedono un sistema di storage che offra IOPS (operazioni di input/output operazioni al secondo) elevati e latenza bassissima, specialmente durante l'addestramento e l'inferenza del modello.
In sintesi, la differenza chiave tra lo storage tradizionale e l'AI storage si riduce alle specifiche del workload. Lo storage tradizionale è stato costruito per operazioni coerenti e prevedibili, mentre i workload AI hanno requisiti unici ed impegnativi lungo tutto il ciclo di vita.
Ogni fase del ciclo di vita del sistema di AI, ovvero data ingestion, addestramento, inferenza e aggiornamenti del modello, ha esigenze di storage uniche, che richiedono petabyte di capacità di storage e memoria ad alta velocità.
L'AI storage utilizza delle pipeline di dati per facilitare il flusso continuo dei dati, dalla raccolta all'elaborazione preliminare fino al consumo del modello. Utilizza object storage scalabili, compresi object storage e file system paralleli, che elaborano i dati in parallelo su più nodi di storage. Questa funzionalità consente alle applicazioni AI di gestire i dati in tempo reale all'elevata velocità richiesta.
Per bilanciare costi e prestazioni, l'AI storage prevede in genere dei livelli di storage. I dati a cui si accede frequentemente (hot tier) sono memorizzati su cache ad alta velocità e memoria flash, mentre i dati meno critici (caldo o freddo) sono conservati su tecnologie di storage economiche e più lente per una retention a lungo termine.
L'AI storage offre vantaggi fondamentali che ottimizzano i i workflow dell'AI e le prestazioni dell'infrastruttura, tra cui:
L'AI storage svolge un ruolo cruciale nei workflow ad alta intensità di dati di AI, ML e calcolo ad alte prestazioni (HPC). Più avanti vengono illustrati alcuni casi d'uso specifici del settore:
I rivenditori utilizzano l'AI storage per gestire grandi volumi di dati e metadati generati da transazioni di vendita, interazioni con i clienti, social media e dispositivi IoT. Questo processo consente l'ottimizzazione dell'inventario in tempo reale, raccomandazioni personalizzate e previsione della domanda.
Nel settore sanitario, l'AI storage accelera la scoperta di farmaci e supporta il supporto decisionale clinico tramite l'AI (ad esempio, NVIDIA BioNeMo, IBM watsonx) gestendo enormi set di dati genomici, file di imaging medico e cartelle cliniche elettroniche.
Le banche e altri istituti finanziari si affidano all'AI storage scalabile per gestire enormi quantità di dati provenienti dai volumi delle transazioni. In questo modo, gli algoritmi di machine learning possono identificare schemi e anomalie in milioni di transazioni in tempo reale, supportando il rilevamento delle frodi e servizi bancari personalizzati.
I servizi di streaming come Netflix e Amazon utilizzano l'AI data storage su larga scala per elaborare i dati della cronologia delle visualizzazioni, abilitando motori di raccomandazione in tempo reale che offrono contenuti personalizzati.
L'AI storage fornisce la gestione dei dati per sensori e macchine nei diversi stabilimenti. Questa infrastruttura consente la manutenzione predittiva, ottimizza la supply chain e automatizza il controllo della qualità in tempo reale.
L'AI storage supporta l'elaborazione automatica della sottoscrizione e delle richieste consentendo un accesso rapido a documenti, foto e dati non strutturati. Questo approccio consente ai modelli di elaborazione del linguaggio naturale (NLP) e riconoscimento delle immagini di accelerare la valutazione del rischio e accelerare la liquidazione dei sinistri.
Usa framework e strumenti open source per applicare l'AI e il machine learning ai dati aziendali più preziosi sui mainframe IBM zSystems.
IBM fornisce soluzioni per l'infrastruttura AI per accelerare l'impatto su tutta l'azienda con una strategia hybrid by design.
Sblocca il valore dei dati aziendali con IBM Consulting e crea un'organizzazione basata su insight in grado di generare vantaggi aziendali.
1 “AI-Powered Storage Market Size and Forecast 2025 to 2034”, Precedence Research, 15 luglio 2025.