Accelerare l'integrazione dell'AI in tutta l'azienda può generare una crescita positiva del business. Il 90% delle iniziative aziendali di AI fatica a superare le fasi di test. Le organizzazioni stanno maturando nella data science, ma ancora non riescono a integrare e scalare analytics avanzata e AI/ML nel processo decisionale quotidiano in tempo reale, perciò non possono trarre valore dall'AI. Sarà necessaria una trasformazione digitale accelerata per il nuovo mondo del lavoro da remoto e l'AI/ML potrà essere sfruttata per raggiungere questo obiettivo più rapidamente. Il risultato saranno operazioni aziendali più efficienti, esperienze più coinvolgenti per i clienti e processi decisionali più consapevoli. Le organizzazioni possono ottenere guadagni significativi lungo tutta la catena del valore con l'AI, ma le organizzazioni devono farlo bene fin dall'inizio, altrimenti rischiano di accumulare multe, sanzioni, errori, risultati corrotti e una generale sfiducia da parte degli utenti business e del mercato.
Le aziende che stanno scalando l'AI in modo strategico registrano un ritorno quasi triplo dagli investimenti nell'AI rispetto alle aziende che perseguono proof of concept isolati.
IBM® Services dispone di funzionalità end-to-end per generare valore dall'AI. Promuovere l'innovazione sostenibile a livello aziendale con modelli di AI/ML scalabili, che siano ecologici, attuabili, riutilizzabili e scalabili, che non siano semplici esperimenti scientifici isolati. I servizi IBM per AI su larga scala mirano a scalare gli attuali impegni e le applicazioni AI verso un contesto aziendale. Si compone di più pilastri che costruiscono l'offerta complessiva:
Partiamo da una visione per stabilire e scalare l'AI affidabile e i dati come componenti della nostra Strategia per il vantaggio competitivo. Ci basiamo su un framework di misurazione per generare un valore AI autentico di cui tu e i tuoi clienti potete fidarvi.
Offriamo consulenza e collaboriamo con il tuo team per creare un modello operativo su misura. Sappiamo bene che ogni organizzazione è diversa, e ciò che funziona per una non funzionerà per un'altra. Ad esempio, un modello federato invece di uno non federato. Lavoriamo poi fianco a fianco con te per sviluppare una pipeline di iniziative che produca valore aziendale misurabile attraverso la raccolta di asset di AI da parte di team scalabili e connessi.
Guidiamo la tua direzione in materia di dati e tecnologia per l'AI con la capacità di migrare e costruire nuove applicazioni di AI e ML basate sui dati utilizzando un portfolio di prodotti di AI flessibili abbastanza da raccogliere, integrare e gestire dati per diversi casi d'uso, piattaforme e cloud.
Presentiamo le operazioni di AI come componente chiave e parte critica del dispiegamento ripetuto, costante e su larga scala di data science e modelli AI, con quattro obiettivi principali: ingegnerizzare, distribuire, monitorare e trust.
Aiutiamo a sviluppare la gestione del cambiamento per aumentare i tassi di adozione dell'AI con rischi minimi, istituendo una gestione attiva del cambiamento a livello aziendale. Questo approccio può identificare e risolvere le funzioni di blocco che impediscono all'AI di creare valore per la tua azienda.
Aiutiamo nella scelta delle competenze, dei ruoli e della configurazione del team giusti nell'organizzazione AI, essenziali per raggiungere maturità e scalabilità.
Un dettaglio importante di IBM® Services for AI su larga scala è che non è necessario ricominciare da capo. IBM lavora con il tuo ambiente esistente: automazione dell'intelligence, governance e gestione dei dati. Il cliente può ottenere piena visibilità e controllo sui propri workload, ovunque si svolgano, generando un reale valore aziendale. Con l'obiettivo di ridurre al minimo il time to deploy e il time to value con un rischio ridotto al minimo, il processo di IBM prevede un approccio in quattro fasi all'implementazione dell'AI su scala.
1. Fase di valutazione (4-6 settimane): audit, valutazione e pianificazione a breve termine per identificare le lacune nel processo, nei metodi e negli strumenti esistenti. Collaborare con il cliente per realizzare le prime soluzioni.
2. Progettare e stabilire (4-6 settimane): creare un framework in modo collaborativo per costruire, scalare e mantenere l'AI. Imposta un framework di scalabilità con il client basato sull'ambiente esistente.
3. Adottare (3-4 mesi): lavorare insieme per realizzare i primi progetti. Pilotare 3-5 MVP sul framework per perfezionarlo; finalizzare e impostare l'architettura, i processi, il programma. Collaborare con il cliente per realizzare le prime soluzioni. IBM® Garage: co-creare, co-eseguire, cooperare.
Scalare (in corso): creare un team di scaling, gestire il machine learning in produzione. Fornire al cliente un'AI completamente gestita come servizio in tutta l'organizzazione, in modo che il cliente possa concentrarsi sulle sfide aziendali.
Il RAD-ML è il framework di approccio di IBM per accelerare rapidamente i tempi di produzione di applicazioni di data science tramite automazione. Supportato dalla metodologia Rapid Asset Development – Machine Learning (RAD-ML) e da altri asset e acceleratori IBM, IBM® Services for AI at Scale fornisce framework responsabili, coerenti ma innovativi per affrontare e sfruttare la data science e costruire modelli di AI/ML) ripetibili, riutilizzabili, scalabili e fruibili. L'offerta di IBM riduce radicalmente il tempo di sviluppo di questi modelli e stabilisce pipeline per accelerare la distribuzione in produzione, aumentando al contempo l'efficienza dei data scientist dei clienti, permettendo loro di concentrarsi sul raggiungimento dei Risultati aziendali attesi e fare ciò che sanno fare meglio e apprezzano di più.
IBM Services for AI at Scale è un servizio "consult-to-operate" che fornisce un mezzo per integrare e scalare in modo coerente i PoC di AI/ML nella produzione, nonché per eseguire e gestire tali modelli di AI/ML nel tempo. Gli asset sviluppati utilizzando le linee guida del metodo RAD-ML possono essere più facilmente distribuiti su architetture scalabili di machine learning.
Il RAD-ML è un framework per sviluppare asset scalabile di ML, definire la prontezza degli asset tra dimensioni funzionali e strategiche, e può essere utilizzato come punto di partenza per qualsiasi soluzione AI/ML se il client non dispone di un framework comune. Può essere utilizzato per sviluppare asset di data science autonomi o moduli su soluzioni esistenti. Consente la creazione di asset di machine learning che rispettano le tre funzionalità (attuabile, riutilizzabile e scalabile) utilizzando i seguenti concetti chiave:
▪Gli asset di machine learning devono essere integrati nei processi aziendali con un ROI dimostrato
▪Gli asset di machine learning devono essere flessibili rispetto a diversi contesti di dati e investimenti di tecnologia
▪Gli asset di machine learning devono basarsi su un design tecnologico e operativo robusto che possa essere scalato
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Ogni progetto di RAD-ML deve essere integrato nell'ambiente preesistente del cliente. Deve anche aggiungere gli acceleratori di RAD-ML open source e gratuiti: Brainstem, dash-blocks, architettura e modelli di documenti. Per definire un'architettura di ML Ops adeguata e standardizzata, è necessario stabilire una panoramica dettagliata dei componenti target. I componenti target saranno allineati all'infrastruttura interna e alla configurazione degli strumenti.
IBM può implementare questo framework comune praticamente su qualsiasi cloud, incluso un multicloud ibrido. Ecco un esempio di come IBM può utilizzare gli strumenti AWS per creare una pipeline di apprendimento automatico.
AWS CodeCommit sostituisce un repository git convenzionale: si tratta del luogo essenziale in cui viene memorizzato tutto il codice utilizzato in un progetto.
CodeBuild eseguirà tutti i test unitari e di Integrazione, oltre a creare un tarball dalle sorgenti python specificate, che potrà essere successivamente implementato in un container. CodeDeploy eseguirà uno scenario di distribuzione specificato che, ad esempio costruirà il contenitore docker, inviarlo a un repository di immagini docker e infine caricare l'immagine in un ambiente di produzione.
AWS ECR funziona come repository per tutti i container docker, che sono costruiti nella pipeline sopra menzionata. Agisce come repository per i contenitori proprio come CodeCommit funge da repository per file di configurazione e codice sorgente. Questo è il momento in cui AWS SageMaker cercherà un'immagine docker specifica, quando viene attivato un lavoro di addestramento con i rispettivi parametri dall'esterno.
AWS SageMaker funge da ambiente di tempo di esecuzione per tutti i lavori di formazione. AWS SageMaker può essere attivato tramite un'interfaccia API/python. L'utente specifica che tipo di modello deve essere eseguito e dove si trovano i rispettivi dati di input e di output. AWS SageMaker accetterà immagini docker con un punto di ingresso predefinito contenente il codice di addestramento. Tuttavia, è anche possibile eseguire lì un lavoro definito da TensorFlow/MXNext/ONNX. SageMaker offre un'interfaccia utente per l'amministrazione e può essere scalato in modo elastico, poiché è un servizio gestito. Pertanto, l'utente può scegliere tra una vasta gamma di macchine, che vengono utilizzate per addestrare un modello specifico. AWS SageMaker può anche essere utilizzato per eseguire l'Hyperparameter Tuning, che può essere attivato tramite l'API. Lo strumento selezionerà automaticamente la combinazione di iperparametri più performante. I risultati di una corsa possono essere scritti direttamente su S3 o anche su DynamoDB.
AWS S3 funge da file system di base per i file di input e output. Solitamente S3 viene utilizzato per memorizzare file di dati di addestramento di grandi dimensioni e può essere utilizzato anche per memorizzare modelli serializzati. AWS S3 si integra perfettamente con SageMaker.
AWS DynamoDB è un database NoSQL basato su valori chiave, completamente gestito da AWS e scalabile su richiesta. Il database può essere utilizzato per conservare i KPI di un'esecuzione del modello, ad esempio per monitorare le prestazioni del modello nel tempo. Viene inoltre utilizzato per integrare informazioni di tempo di esecuzione e prestazioni per l'esecuzione di un modello. AWS DynamoDB può essere integrato perfettamente con QuickSight, che è uno strumento di visualizzazione dei dati offerto da AWS.
AWS Elastic Inference è un'istanza EC2 potenziata. I modelli addestrati in AWS SageMaker possono essere ospitati su un'istanza EI per la previsione. Le macchine sottostanti possono essere ridimensionate su richiesta.
La questione etica non è solo un problema di modellazione, ma anche un problema di business. Il 60% delle aziende considera la conformità come un ostacolo al successo nell'applicazione dell'AI, in parte a causa della mancanza di fiducia e comprensione del sistema. IBM ha progettato un approccio a tre fasi per promuovere fiducia, trasparenza ed equità per gestire, mantenere e scalare l'AI in modo coerente, preservando al contempo la fiducia e riducendo i rischi per il marchio e la reputazione. IBM può aiutare il cliente con la cultura di cui ha bisogno per adottare e scalare l'AI in sicurezza, con l'ingegneria dell'AI attraverso strumenti forensi per vedere all'interno degli algoritmi black box e con la governance per assicurarsi che l'ingegneria si attenga alla cultura. Al centro di un'AI affidabile c'è la telemetria e gli strumenti forensi, nei quali IBM domina nella comunità grazie alla nostra fondazione open source e Linux.
IBM Services for AI at Scale è incentrato sul toolkit open source di IBM Research, su AI Fairness 360 e sulle schede informative. Gli sviluppatori sono in grado di condividere e ricevere codici e set di dati all'avanguardia relativi al rilevamento e mitigazione dei bias dall'AI. Questi sforzi di IBM Research ci hanno anche portato a integrare IBM® Watson OpenScale, un'offerta commerciale progettata per costruire soluzioni basate sull'AI o aziende per rilevare, gestire e mitigare il bias dell'AI.