L'apprendimento automatico automatizzato (AutoML) consiste nella
pratica di automatizzare lo sviluppo end-to-end di modelli di apprendimento automatico (modelli ML). AutoML consente ai non esperti di creare e implementare sistemi di intelligenza artificiale (AI) semplificando al contempo i workflow di AI per data scientist e sviluppatori.
Gli strumenti AutoML semplificano il processo di creazione dei modelli ML. Gli utenti traggono beneficio da un'interfaccia intuitiva attraverso la quale possono creare, addestrare, convalidare e implementare modelli di AI generativa e altri sistemi di deep learning. AutoML facilita l'implementazione dell'AI nei settori regolamentati con i suoi risultati spiegabili e riproducibili.
Senza AutoML, ogni fase del workflow di machine learning (ML), preparazione dei dati, pre-elaborazione dei dati, ingegneria delle funzioni e ottimizzazione degli iperparametri, deve essere eseguita manualmente. AutoML democratizza il machine learning rendendolo accessibile a chiunque voglia esplorarne il potenziale. Nel frattempo, team esperti di MLOps e professionisti di data science possono automatizzare gli aspetti di routine dei workflow di machine learning concentrandosi su attività di apprendimento più impegnative.
Le soluzioni AutoML funzionano costruendo numerose pipeline di machine learning per gestire l'attività prevista, quindi identificando la scelta ottimale. La valutazione e la selezione del modello sono automatizzate come parte del processo iterativo di scelta del modello migliore per il lavoro. Gli strumenti di visualizzazione dei dati semplificano ancora di più il processo di AutoML.
La differenza tra AutoML e il machine learning tradizionale è che AutoML automatizza quasi ogni fase della pipeline di machine learning. Le pipeline tradizionali richiedono molto tempo, richiedono molte risorse e sono soggette a errori umani. In confronto, i progressi in AutoML hanno portato a una maggiore efficienza e risultati migliori.
Una tipica pipeline di machine learning è costituita dai seguenti passaggi:
La preparazione dei dati è il processo di raccolta dei dati non elaborati e della loro integrazione in un set di dati. La preparazione dei dati aiuta a garantire che i dati di addestramento siano privi di pregiudizi ed è ciò che predispone un modello al successo: dati accurati portano a previsioni e insights accurati. Poiché le aziende collegano i sistemi AI agli storage dei dati proprietari, ad esempio tramite la retrieval-augmented generation (RAG), la preparazione dei dati è critica per un'implementazione affidabile dell'AI.
Gli utenti collegano la piattaforma AutoML alla fonte dei dati di addestramento, idealmente un set di dati di grandi dimensioni contenente dati pronti per l'uso nell'addestramento. La fase di preparazione dei dati avviene prima della distribuzione di una soluzione AutoML.
La soluzione AutoML interviene per pre-elaborare e pulire ulteriormente i dati. Una pre-elaborazione dei dati più completa porta a migliori prestazioni del modello AI.
Quando si creano manualmente modelli per attività di apprendimento supervisionato e di apprendimento semi-supervisionato, i dati di addestramento devono essere etichettati manualmente. Le funzioni e gli output devono essere selezionati in base al caso d'uso previsto del modello. Le soluzioni AutoML possono gestire l'ingegneria delle funzioni per conto degli utenti per selezionare le funzioni di dati che hanno maggiori probabilità di migliorare le prestazioni del modello.
Le funzioni o le variabili dei dati sono gli attributi di un set di dati che i modelli di machine learning utilizzano per prendere decisioni e fare previsioni. Ad esempio, per un modello di computer vision creato per identificare le specie vegetali, le funzioni dei dati potrebbero includere la forma e il colore delle foglie.
L'ingegneria delle funzioni è il processo trasformativo mediante il quale un data scientist estrae nuove informazioni dai dati di input e le prepara per il machine learning. Una buona ingegneria e selezione delle funzioni può determinare la differenza tra prestazioni del modello accettabili e di alta qualità.
L'ingegneria automatizzata delle funzioni automatizza il processo di esplorazione dello spazio delle funzioni, compilazione dei valori mancanti e selezione delle funzioni da utilizzare. Costruire manualmente una singola funzione può richiedere ore, e il numero di funzioni necessarie per un punteggio minimo di precisione (per non parlare di una linea di base di precisione a livello di produzione) può arrivare a centinaia. La progettazione automatizzata delle funzioni riduce questa fase da giorni a minuti.
Oltre ai vantaggi in termini di efficienza, l'efficienza della funzione automatizzata aumenta anche la spiegabilità dell'AI—importante per settori altamente regolamentati come l'assistenza sanitaria o la finanza. Una maggiore chiarezza delle funzioni rende i modelli più convincenti e attuabili scoprendo nuovi KPI.
Qual è il tipo di modello migliore per il caso d'uso previsto? Con il machine learning tradizionale, la selezione dei modelli richiede una conoscenza approfondita dei tipi di modelli AI insieme alle rispettive funzionalità e limitazioni.
Gli strumenti di AutoML migliorano i processi tradizionali creando e addestrando automaticamente diversi modelli contemporaneamente con una gamma di algoritmi e configurazioni di iperparametri. Molte soluzioni AutoML combinano più modelli in un processo noto come apprendimento d'insieme.
Un'attività complessa, propensa agli errori e dispendiosa in termini di tempo durante la costruzione di reti neurali profonde è la creazione dell'architettura neurale. Le attività avanzate richiedono reti a più livelli con configurazioni iperparametriche complesse.
La ricerca dell'architettura neurale (NAS) automatizza questo processo, riducendo il tempo impiegato e il potenziale di errore. Con l'uso di algoritmi avanzati, la NAS identifica l'architettura ottimale in base al contesto e al set di dati. I recenti progressi nel campo della NAS si concentrano sullo sviluppo di tecniche più efficienti per ridurre i costi computazionali associati.
Gli iperparametri sono le regole che governano il processo di apprendimento del modello. A differenza dei parametri interni che un modello aggiorna durante l'addestramento, gli iperparametri sono esterni al modello e sono configurati dai data scientist. Anche la struttura della rete neurale è definita dagli iperparametri.
Nei contesti di data modeling su piccola scala, gli iperparametri possono essere configurati manualmente e ottimizzati attraverso tentativi ed errori. Ma con le applicazioni di deep learning, il numero di iperparametri cresce in modo esponenziale. L'ottimizzazione automatizzata degli iperparametri consente ai team di iterare e sperimentare per scoprire i migliori iperparametri tra le funzioni e i modelli.
L'ottimizzazione degli iperparametri viene automatizzata attraverso algoritmi avanzati come l'ottimizzazione bayesiana. L'ottimizzazione automatizzata degli iperparametri consente ai data scientist di concentrarsi sul perché della creazione del modello piuttosto che sul come durante il processo di apprendimento automatico. I team di analytics possono invece concentrarsi sull'ottimizzazione dei modelli per casi d'uso designati, ad esempio per ridurre al minimo i falsi negativi nei test medici.
I data scientist devono convalidare i progressi di un algoritmo di machine learning durante l'addestramento. In seguito, il modello viene testato con nuovi dati per valutarne le prestazioni prima della distribuzione nel mondo reale. Le prestazioni del modello vengono valutate con metriche che includono una matrice di confusione, il punteggio F1, la curva ROC e altre.
Al termine dell'addestramento, lo strumento di AutoML testa ogni modello per identificare quale offre le migliori prestazioni nei set di dati di addestramento e test, quindi seleziona automaticamente il modello con i migliori risultati per la distribuzione.
La creazione del modello è solo il primo passo nella timeline del prodotto. I modelli completi devono essere messi a disposizione degli utenti, monitorati per le prestazioni e mantenuti nel tempo per contribuire a garantire affidabilità e precisione. Senza automazione, i team di sviluppo devono scrivere script e creare sistemi per integrare il modello nelle loro operazioni e consegnarlo alla sua base utenti.
Molte soluzioni AutoML includono strumenti di distribuzione per una perfetta integrazione nel mondo reale. I modelli possono essere implementati come servizio accessibile tramite un sito web, un'app o una connessione API. Le piattaforme AutoML possono automatizzare la distribuzione dei modelli nelle offerte di prodotti preesistenti, gestire la scalabilità, gli aggiornamenti e il versioning e aumentare la spiegabilità con la visualizzazione dei dati.
La vasta gamma di strumenti AutoML significa che la tecnica può essere applicata a molteplici attività di machine learning, tra cui:
Classificazione
Regressione
Computer vision
Elaborazione del linguaggio naturale
La classificazione è l'attività di machine learning che consiste nell'assegnare gli input di dati in categorie designate. I modelli predittivi utilizzano le funzioni dei dati di input per prevedere le etichette o gli output corretti. I sistemi AutoML possono creare e testare una serie di algoritmi, come foreste casuali e macchine a vettori di supporto (SVM), per elaborare dati tabulari.
Gli strumenti AutoML rilevano automaticamente i pattern nei set di dati etichettati e possono progettare modelli per attività di classificazione comuni come il rilevamento delle frodi e il filtro antispam nelle e-mail.
La regressione nel machine learning è la sfida di utilizzare dati storici per prevedere valori futuri. La regressione lineare prevede il valore di una variabile dipendente in base a una o più variabili indipendenti, ad esempio con analisi del rischio o forecasting del mercato. La regressione logistica prevede la probabilità di un evento futuro, come la probabilità del paziente di contrarre una malattia, anziché un valore discreto.
AutoML semplifica il processo di creazione di relazioni tra le variabili di input e le variabili di destinazione, in particolare con attività multivariate complesse.
La computer vision è l'uso dei computer per elaborare i dati visivi, come le immagini e i video. I sistemi AutoML possono generare modelli adatti ad attività di classificazione basate sulla visione, tra cui il rilevamento di oggetti, la classificazione di immagini e il riconoscimento ottico dei caratteri intelligente. I casi d'uso possono riguardare la moderazione e il filtraggio dei contenuti, l'etichettatura delle immagini e altre attività correlate.
I sistemi AutoML possono anche mettere a punto i modelli per l'uso in contesti di computer vision più avanzati, come le automobili a guida autonoma.
L'elaborazione del linguaggio naturale (NLP) consente ai sistemi AI di interpretare input testuali, come i prompt dell'utente e i documenti legali. La creazione di chatbot, la classificazione di testo multi-classe e multi-etichetta, l'analisi del sentiment dei clienti, la named entity recognition e la traduzione linguistica sono tutti esempi di attività NLP complesse che possono essere facilmente gestite con AutoML.
I data scientist possono creare modelli personalizzati con AutoML che vengono automaticamente ottimizzati per prestazioni elevate nei casi d'uso previsti. Altrimenti, quando creano modelli NLP manualmente, i data scientist devono partire da zero o basare i loro modelli su quelli precedenti che potrebbero non funzionare bene come un modello su misura generato automaticamente.
Sebbene AutoML apporti molti benefici agli sviluppatori AI, non sostituisce completamente la conoscenza, l'esperienza, le competenze e la creatività umana. Le limitazioni di AutoML includono:
Costi elevati: più il compito è impegnativo, più avanzato deve essere il modello corrispondente. I costi di AutoML possono rapidamente andare fuori controllo quando la tecnica viene applicata alla creazione di modelli grandi e complessi.
Mancanza di interpretabilità: i modelli generati da AutoML a volte possono cadere nella trappola della "black box AI", dove il funzionamento interno del modello è poco chiaro. Gli sviluppatori umani possono creare modelli progettati secondo i principi dell'AI spiegabile, che non è garantito con le soluzioni AutoML.
Rischio di overfitting: l'overfitting, cioè quando un modello addestrato si avvicina troppo ai dati di addestramento e non riesce a trasferire ciò che ha appreso ai dati del mondo reale, può essere mitigato con l'intervento umano e un attento monitoraggio del processo di apprendimento.
Controllo limitato: con l'automazione, gli sviluppatori sacrificano il controllo per ottenere efficienza. In casi particolari in cui sono necessari modelli altamente personalizzati, le soluzioni AutoML possono avere difficoltà a fornire un modello appropriato.
Affidamento ai dati: un modello AI è valido quanto i suoi dati di addestramento. Sia i modelli creati dall'uomo che quelli creati da AutoML non possono funzionare bene se non ricevono dati di alta qualità.
I creatori dei modelli AI hanno a portata di mano un'ampia gamma di strumenti AutoML. Le opzioni includono:
AutoKeras: uno strumento open source basato sulla libreria Keras e TensorFlow.
Auto-PyTorch: una soluzione AutoML progettata per automatizzare i progetti di machine learning creati con PyTorch.
Google Cloud AutoML: la soluzione AutoML di Google disponibile sulla sua piattaforma cloud per il machine learning.
Lale1: una libreria Python semi-automatizzata open source che si integra senza soluzione di continuità con le pipeline di scikit-learn.
Microsoft Azure AutoML: gli sviluppatori che utilizzano Microsoft Azure possono trarre beneficio dalle sue funzionalità AutoML.
Auto-Sklearn: una piattaforma AutoML open source basata sulla libreria scikit-learn.
1. Library for Semi-Automated Data Science, Hirzel et al, IBM/lale, 28 agosto 2024
IBM Granite è la nostra famiglia di modelli AI aperti, efficienti e affidabili, su misura per le aziende e ottimizzati per scalare le applicazioni di AI. Esplora le opzioni di linguaggio, codice, serie temporali e guardrail.
Abbiamo intervistato 2.000 organizzazioni in merito alle loro iniziative di AI per scoprire cosa funziona, cosa non funziona e come giocare d'anticipo.
Scopri come incorporare l'AI generativa, il machine learning e i foundation model nelle operazioni di business per migliorare le prestazioni.
Scopri come scegliere il foundation model di AI più adatto al tuo caso d'uso.
L'apprendimento automatico è una branca dell'AI e dell'informatica che si concentra sull'utilizzo di dati e algoritmi per consentire all'AI di imitare il modo in cui gli esseri umani imparano.
Approfondisci i 3 elementi critici di una solida strategia AI: creare un vantaggio competitivo, scalare l'AI attraverso l'azienda e promuovere un'AI affidabile.
Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.
Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.
Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.