My IBM Accedi Iscriviti

Che cos'è l'inferenza AI?

18 giugno 2024

Autori

Mesh Flinders

Author, IBM Think

Ian Smalley

Senior Editorial Strategist

Che cos'è l'inferenza AI?

L'inferenza AI è la capacità dei modelli AI addestrati di riconoscere schemi e trarre conclusioni da informazioni che non hanno mai visto prima.

L'inferenza AI è fondamentale per il progresso delle tecnologie di AI ed è alla base delle sue applicazioni più interessanti, come l'AI generativa, la funzionalità alla base della popolare applicazione ChatGPT. I modelli AI si basano sull'inferenza AI per imitare il modo in cui le persone pensano, ragionano e rispondono alle richieste.

L'inferenza AI inizia addestrando un modello AI su un ampio set di dati con algoritmi decisionali. I modelli AI sono costituiti da algoritmi decisionali addestrati su reti neurali, ovvero modelli linguistici di grandi dimensioni (LLM), costruiti come il cervello umano. Ad esempio, un modello AI progettato per il riconoscimento facciale potrebbe essere addestrato su milioni di immagini del volto umano. Alla fine, impara a identificare con precisione caratteristiche come il colore degli occhi, la forma del naso e il colore dei capelli, e può quindi utilizzarle per riconoscere un individuo in un'immagine.

La differenza tra l'inferenza AI e l'apprendimento automatico

Sebbene strettamente correlati, l'inferenza AI e il machine learning (ML) sono due fasi diverse del ciclo di vita dei modelli AI.

  • Il machine learning è il processo che consiste nell'utilizzare algoritmi e dati di addestramento, attraverso il processo di apprendimento supervisionato, per consentire all'AI di imitare il modo in cui gli esseri umani apprendono, migliorandone gradualmente la precisione.
  • L'inferenza AI è invece il processo di applicazione di ciò che il modello AI ha appreso attraverso il machine learning (ML) per decidere, prevedere o trarre conclusioni dai dati.
Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI 


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

Vantaggi dell'inferenza AI

Se i modelli AI non sono addestrati su un set di dati solido e appropriato per la loro applicazione, semplicemente non risultano efficaci. Data la natura sensibile della tecnologia e l'attenzione con cui viene esaminata dalla stampa1, le aziende devono essere caute. Ma con applicazioni che abbracciano diversi settori e offrono il potenziale della trasformazione digitale e dell'innovazione scalabile, i suoi vantaggi sono numerosi:

  • Risultati precisi e accurati: i modelli AI diventano sempre più precisi e accurati con il progredire della tecnologia. Ad esempio, i nuovi LLM sono in grado di scegliere parole, frasi e la grammatica in modo da imitare il tono di un autore specifico. Nell'arte e nei video, possono fare lo stesso, selezionando colori e stili per trasmettere un'atmosfera, un tono o uno stile artistico precisi.
  • Migliore controllo della qualità: una delle conquiste più recenti e potenzialmente più entusiasmanti dell'AI riguarda il monitoraggio e le ispezioni dei sistemi. I modelli AI addestrati su set di dati che vanno dalla qualità dell'acqua ai modelli meteorologici vengono utilizzati per monitorare lo stato delle attrezzature industriali sul campo.
  • Apprendimento robotico: robot e robotica con funzionalità di inferenza AI vengono utilizzati per varie attività per aggiungere valore aziendale. Forse l'applicazione più popolare dell'apprendimento robotico sono le auto con guida autonoma. L'inferenza AI è ampiamente utilizzata dalle case automobilistiche che producono auto a guida autonoma come Tesla, Waymo e Cruz per insegnare alle reti neurali a riconoscere e rispettare le regole del traffico.
  • Apprendimento senza direzione: l' inferenza AI si addestra sui dati senza essere programmata, riducendo il contributo umano e le risorse necessarie per funzionare in modo efficace. Ad esempio, un modello AI addestrato sulle immagini di ambienti agricoli può essere utilizzato per aiutare gli agricoltori a individuare e mitigare la presenza di erbacce e le colture malate.
  • Guida e processo decisionale informati: una delle applicazioni più entusiasmanti dell'inferenza AI è la capacità dell'AI di comprendere sfumature e complessità e offrire consigli basati sui set di dati su cui è stata addestrata. Ad esempio, i modelli AI addestrati sui principi finanziari possono offrire una solida consulenza in materia di investimenti e individuare attività potenzialmente fraudolente. Allo stesso modo, l'AI può eliminare il rischio di errore umano in procedure delicate, come la diagnosi di malattie o il pilotaggio di un aereo.
  • Funzionalità di edge computing: l'inferenza AI e l'edge computing offrono tutti i vantaggi dell'AI in tempo reale, senza la necessità di spostare i dati in un data center per elaborarli. Il potenziale dell'inferenza AI sull'edge ha ripercussioni ad ampio raggio, dalla gestione e monitoraggio dei livelli delle scorte in un magazzino alle reazioni in millisecondi necessarie per il funzionamento in condizioni di sicurezza di un veicolo autonomo.
Mixture of Experts | Podcast

Decoding AI: Weekly News Roundup

Unisciti al nostro gruppo di livello mondiale di ingegneri, ricercatori, leader di prodotto e molti altri mentre si fanno strada nell'enorme quantità di informazioni sull'AI per darti le ultime notizie e gli ultimi insight sull'argomento.

Sfide dell'inferenza AI

Sebbene i vantaggi dell'inferenza AI siano numerosi, essendo una tecnologia recente e in rapida crescita, non è priva di sfide. Ecco alcuni dei problemi che le aziende che intendono investire nell'AI devono considerare:

  • Conformità: il compito di regolamentare le applicazioni e l'inferenza AI è complesso e in continua evoluzione. Un esempio di questo è l'area della sovranità dei dati, il concetto secondo cui i dati sono soggetti alle leggi del paese o della regione in cui sono stati generati. Le aziende a livello globale che raccolgono, memorizzano ed elaborano dati per scopi di AI in più di un territorio hanno difficoltà a rimanere conformi alle leggi in più territori, pur continuando a innovare in modi che andranno a vantaggio del loro business.
  • Qualità: nell'addestramento dei modelli AI, la qualità dei dati su cui i modelli vengono addestrati è fondamentale per il loro successo. Proprio come gli umani che imparano da un insegnante non preparato, un modello AI addestrato su un set di dati scadente non funzionerà bene. I set di dati devono essere etichettati in modo chiaro ed essere altamente pertinenti alle competenze che il modello AI sta tentando di apprendere. Una delle principali sfide dell'AI (e in particolare dell'accuratezza dell'inferenza AI) è la scelta del modello giusto su cui effettuare l'addestramento.
  • Complessità: come nel caso della qualità dei dati, anche la complessità dei dati può causare problemi con i modelli AI. Utilizzando nuovamente l'analogia di uno studente, più semplice è la cosa per cui l'AI viene addestrata, più facile è l'apprendimento. I modelli AI utilizzati per problemi semplici, come un customer service chatbot o un agente di viaggio virtuale, sono relativamente facili da addestrare rispetto ai modelli progettati per problemi più complessi, come l'imaging medico o la consulenza finanziaria.
  • Miglioramento delle competenze: per quanto possa essere emozionante immaginare le possibilità di un campo nuovo e in rapida crescita come l'AI, l'esperienza richiesta per creare applicazioni di AI funzionanti e un'inferenza AI accurata richiede tempo e risorse. Fino a quando la pipeline di talenti non raggiungerà il ritmo dell'innovazione, gli esperti in questo campo rimarranno particolarmente richiesti e costosi da assumere.
  • Dipendenza da Taiwan: ben il 60% dei semiconduttori mondiali e il 90% dei chip avanzati (inclusi gli acceleratori di AI necessari per l'inferenza AI) vengono prodotti sull'isola di Taiwan.2Inoltre, Nvidia, la più grande azienda di hardware e software per l'AI al mondo, per i suoi acceleratori di AI si affida quasi esclusivamente a un'unica azienda, la Taiwan Semiconductor Manufacturing Corporation (TSMC). Calamità naturali o altri incidenti imprevisti potrebbero mettere a repentaglio la produzione e la distribuzione dei chip necessari per alimentare l'inferenza AI e le sue numerose applicazioni.

Componenti critici per l'inferenza AI

L'inferenza AI è un processo complesso che prevede l'addestramento di un modello AI su set di dati appropriati fino a quando non è in grado di dedurre risposte accurate. Si tratta di un processo ad alta intensità di calcolo, che richiede hardware e software specializzati. Prima di esaminare il processo di addestramento dei modelli AI per l'inferenza AI, esploriamo alcune delle componenti hardware specializzate che lo rendono possibile:

Unità di elaborazione centrale

L'unità di elaborazione centrale (CPU) è il componente funzionale principale di un computer. Nell'addestramento e nell'inferenza AI, la CPU esegue il sistema operativo e aiuta a gestire le risorse di calcolo necessarie per l'addestramento.

Unità di elaborazione grafica

Le unità di elaborazione grafica (GPU), o circuiti elettronici costruiti per la computer grafica e l'elaborazione delle immagini ad alte prestazioni, sono utilizzate in vari dispositivi, tra cui schede video, schede madri e telefoni cellulari. Tuttavia, grazie alle loro capacità di elaborazione parallela, vengono sempre più utilizzate anche nell'addestramento dei modelli AI. Un metodo consiste nel collegare più GPU a un singolo sistema di AI per aumentarne la potenza di elaborazione.

Field Programmable Gate Array

Gli FPGA (Field-Programmable Gate Array) sono acceleratori AI altamente personalizzabili che richiedono conoscenze specialistiche per essere riprogrammati per uno scopo specifico. A differenza di altri acceleratori AI, gli FPGA hanno un design unico che si adatta a una funzione specifica, che spesso ha a che fare con l'elaborazione dei dati in tempo reale, che è fondamentale per l'inferenza AI. Gli FPGA sono riprogrammabili a livello hardware, consentendo un livello di personalizzazione più elevato.

Circuiti integrati specifici per l'applicazione

Gli ASIC sono acceleratori AI progettati per uno scopo o un workload specifico, come il deep learning nel caso dell'acceleratore ASIC WSE-3 prodotto da Cerebras. Gli ASIC aiutano i data scientist a velocizzare le capacità di inferenza AI e a ridurre i costi. A differenza degli FPGA, gli ASIC non possono essere riprogrammati, ma poiché sono costruiti per un unico scopo, in genere superano gli altri acceleratori più generici. Un esempio di questi è la Tensor Processing Unit (TPU) di Google, sviluppata per il machine learning delle reti neurali utilizzando il software TensorFlow di Google.

Come funziona l'inferenza AI

Le aziende interessate a investire in applicazioni di AI come parte del loro percorso di trasformazione digitale dovrebbero informarsi sui vantaggi e le sfide dell'inferenza AI. Per coloro che hanno esaminato a fondo le sue varie applicazioni e sono pronti a metterla in pratica, ecco cinque passaggi per implementare un'inferenza AI efficace:

Prepara i dati

La preparazione dei dati è fondamentale per creare applicazioni e modelli AI efficaci. Le aziende possono creare set di dati per l'addestramento dei modelli AI utilizzando dati interni o esterni alla propria organizzazione. Per ottenere risultati ottimali, è consigliabile utilizzare una combinazione di entrambi. Un altro aspetto fondamentale dell'assemblaggio dei dati su cui verrà addestrata l'AI è la pulizia dei dati,ovvero la rimozione di eventuali voci duplicate e la risoluzione di eventuali problemi di formattazione.

Scegli un modello di addestramento

Una volta assemblato il set di dati, il passo successivo è la selezione del modello AI più adatto alla propria applicazione. I modelli vanno dal semplice al complesso, con quelli più complessi in grado di accogliere più input e di dedurre a un livello più sottile rispetto a quelli meno complessi. Durante questa fase, è importante avere ben chiare le proprie esigenze, poiché l'addestramento di modelli più complessi può richiedere più tempo, denaro e altre risorse rispetto all'addestramento di quelli più semplici.

Addestra il tuo modello

Per ottenere i risultati desiderati da un'applicazione AI, le aziende devono generalmente affrontare numerosi e rigorosi cicli di addestramento dell'AI. Man mano che i modelli vengono addestrati, l'accuratezza delle loro inferenze diventa più nitida e la quantità di risorse di elaborazione necessarie per raggiungere tali inferenze, come potenza di calcolo e latenza, diminuisce. Man mano che il modello matura, passa a una nuova fase in cui può iniziare a fare inferenze su nuovi dati a partire dai dati su cui è stato addestrato. Questa è una fase entusiasmante, perché si può vedere il modello iniziare a funzionare nel modo in cui è stato progettato.

Monitoraggio del risultato

Prima che il modello venga considerato operativo, è importante controllare e monitorare gli output alla ricerca di eventuali imprecisioni, distorsioni o problemi di privacy dei dati. La post-elaborazione, come viene talvolta chiamata questa fase, consiste in un processo passo-passo per garantire l'accuratezza del modello. La fase di post-elaborazione è il momento in cui si crea una metodologia che garantisca che l'AI fornisca le risposte desiderate e funzioni nel modo previsto.

Distribuzione

Dopo un rigoroso monitoraggio e post-elaborazione, il modello AI è pronto per essere distribuito per l'uso aziendale. Quest'ultima fase comprende l'implementazione dell'architettura e dei sistemi di dati che consentiranno al modello AI di funzionare, nonché la creazione di eventuali procedure di gestione delle modifiche per istruire gli stakeholder su come utilizzare l'applicazione di AI nei loro ruoli quotidiani.

Tipi di inferenza AI

A seconda del tipo di applicazione di AI di cui le aziende hanno bisogno, esistono diversi tipi di inferenza AI tra cui scegliere. Se un'azienda sta cercando di creare un modello AI da utilizzare con un'applicazione Internet of Things (IoT), l'inferenza in streaming (con le sue capacità di misurazione) è probabilmente la scelta più appropriata. Tuttavia, se un modello AI è progettato per interagire con gli esseri umani, l'inferenza online (con le sue capacità LLM) sarebbe più adatta. Ecco i tre tipi di inferenza AI e le caratteristiche che li contraddistinguono.

1. Inferenza dinamica

L'inferenza dinamica, nota anche come inferenza online, è il tipo più veloce di inferenza AI e viene utilizzata nelle applicazioni LLM AI più diffuse, come ChatGPT di OpenAI. L'inferenza dinamica produce output e previsioni nell'istante in cui viene richiesto e, successivamente, richiede una bassa latenza e un accesso rapido ai dati per funzionare. Un'altra caratteristica dell'inferenza dinamica è che gli output possono arrivare così rapidamente che non c'è tempo per esaminarli prima che raggiungano l'utente finale. Questo fa sì che alcune aziende aggiungano un livello di monitoraggio tra l'output e l'utente finale per garantire il controllo della qualità.

2. Inferenza nel batch

L'inferenza batch genera previsioni di AI offline utilizzando grandi quantità di dati. Con un approccio di inferenza batch, i dati raccolti in precedenza vengono quindi applicati agli algoritmi di ML. Sebbene non sia l'ideale per le situazioni in cui sono richiesti output in pochi secondi o meno, l'inferenza batch è adatta per le previsioni di AI che vengono aggiornate regolarmente durante il giorno o nel corso di una settimana, come dashboard di vendita o marketing o valutazioni del rischio.

3. Inferenza nello streaming

L'inferenza in streaming utilizza una pipeline di dati, solitamente forniti attraverso misurazioni regolari dai sensori, e li trasmette a un algoritmo che utilizza i dati per effettuare continuamente calcoli e previsioni. Le applicazioni IoT, come l'AI utilizzata per monitorare una centrale elettrica o il traffico in una città attraverso sensori connessi a internet, si basano sull'inferenza in streaming per prendere decisioni.

Soluzioni correlate

Soluzioni correlate

IBM watsonx.ai

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.

Scopri watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Consulenza e servizi sull'AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Ottieni l'accesso completo a funzionalità che coprono l'intero ciclo di vita dello sviluppo dell'AI. Crea soluzioni AI all'avanguardia con interfacce intuitive, workflow e accesso alle API e agli SDK standard di settore.

Esplora watsonx.ai Prenota una demo live