Cos'è un modello generativo?

Autori

Ivan Belcic

Staff writer

Cos'è un modello generativo? 

Un modello generativo è un modello di machine learning progettato per creare nuovi dati simili ai dati di addestramento. I modelli di intelligenza artificiale generativa apprendono i modelli e le distribuzioni dei dati di addestramento, quindi applicano tali comprensioni per generare nuovi contenuti in risposta a nuovi dati di input. 

L'atto della generazione di contenuti è ciò che separa i modelli di AI generativa da altri tipi di AI. I modelli generativi sono reti neurali avanzate che imitano la struttura del cervello umano e applicano algoritmi di machine learning complessi per elaborare i dati di addestramento e produrre nuovo output. 

I modelli di AI generativa e i loro sviluppatori hanno principalmente guidato lo zeitgeist dell'AI degli ultimi anni. I modelli generativi continuano a ricevere la maggior parte dell'attenzione mediatica legata all'AI e ad attrarre significativi investimenti e interesse. 

Che cos'è l'AI generativa? 

L'AI generativa è un tipo di AI che utilizza modelli sofisticati per generare nuovi contenuti in base a un prompt di input. Il modello generativo è il programma informatico che impiega dati e algoritmi per facilitare la pratica dell'AI generativa. I casi d'uso dell'AI generativa includono riepilogo del testo, generazione di testo e generazione di immagini, nonché la modellazione 3D e la creazione di audio. 

Come funzionano i modelli generativi? 

I modelli generativi funzionano identificando schemi e distribuzioni nei loro dati di addestramento e poi applicando queste scoperte alla generazione di nuovi dati basati sugli input dell'utente. Il processo di addestramento insegna al modello a riconoscere le distribuzioni di probabilità congiunte delle caratteristiche nel set di dati di addestramento. Poi, il modello attinge a ciò che ha imparato per creare nuovi campioni di dati simili a quelli di addestramento. 

I modelli generativi vengono in genere addestrati con tecniche di apprendimento non supervisionato: ovvero, vengono alimentati con una massa di dati non etichettati e li elaborano autonomamente. I modelli apprendono la distribuzione dei dati e, in questo modo, sviluppano la logica interna che poi utilizzano per creare nuovi dati. 

Durante l'addestramento, il modello applica una funzione di perdita per misurare il divario tra i risultati effettivi e le previsioni del modello. L'obiettivo dell'addestramento è ridurre al minimo la funzione di perdita, avvicinando il più possibile gli output alla realtà. 

La generazione di contenuti è un processo probabilistico. I modelli generativi non conoscono le cose allo stesso modo degli esseri umani. Piuttosto, un modello generativo utilizza complicate equazioni matematiche per prevedere l'output più probabile in base alle regole apprese durante l'addestramento. 

Modelli generativi rispetto ad altri tipi di modelli 

I modelli generativi tentano di generare nuovi dati di una determinata classe. I modelli discriminativi separano gli elementi in gruppi noti, mentre i modelli di clustering riescono a capire come raggruppare gli elementi in un set di dati. I modelli predittivi fanno previsioni su eventi o stati futuri sulla base di dati storici. 

  • I modelli discriminativi vengono utilizzati nei compiti di apprendimento supervisionato in cui le etichette o le categorie dei dati sono note. Molti modelli discriminativi sono classificatori che cercano di identificare le relazioni tra caratteristiche ed etichette e quindi assegnano etichette di classe a nuovi dati in base alla probabilità condizionale di tali etichette.

    Ad esempio, un modello discriminante addestrato a distinguere tra immagini di pesci e uccelli può indovinare se è più probabile che le immagini siano pesci o uccelli. Il riconoscimento delle immagini, un tipo di classificazione nel machine learning, è un'applicazione comune per i modelli discriminativi.

    Sebbene i modelli generativi e i modelli discriminativi presentino differenze distinte, spesso lavorano insieme, ad esempio in una rete generativa avversaria (GAN)

  • I modelli di clustering vengono utilizzati nei compiti di di apprendimento non supervisionato per raggruppare i record all'interno di un set di dati in cluster. Possono identificare elementi simili e anche apprendere cosa separa tali elementi da altri gruppi del set di dati.

    I modelli di clustering non hanno una conoscenza preliminare degli elementi del set di dati, inclusa la conoscenza di quanti gruppi potrebbero esserci. Un ricercatore di mercato potrebbe utilizzare un modello di clustering per identificare le buyer personas all'interno dei dati demografici target. 

  • I modelli predittivi elaborano dati storici per fare previsioni su eventi futuri utilizzando il machine learning e l'analisi statistica. Sono spesso utilizzati per aiutare i leader aziendali a prendere decisioni basate sui dati. I modelli predittivi alimentano anche i servizi di testo predittivo, i software di riconoscimento facciale, il rilevamento delle frodi e le soluzioni di supply chain management. 

  • Ai modelli generativi vengono forniti dati non etichettati durante l'addestramento. Quindi, i modelli decodificano i criteri di categorizzazione. Data un'etichetta specifica, quali sono le caratteristiche che fanno sì che un punto dati riceva quell'etichetta? I modelli generativi mirano a prevedere le caratteristiche di un'etichetta e quindi utilizzare tali caratteristiche per generare nuovi esempi di tali dati.

    Un modello generativo addestrato a generare immagini di animali può tentare di creare un'immagine di un pesce in base a ciò che ritiene renda un pesce diverso dagli altri animali. La generazione di immagini è un caso d'uso frequente per i modelli generativi.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Tipi di modelli generativi

Esistono molti tipi di modelli generativi, ognuno con la propria architettura distintiva, ovvero la struttura del modello che ne governa il funzionamento. I modelli generativi profondi sono un sottotipo di modelli generativi che utilizzano strutture di reti neurali multilivello di deep learning, ossia reti neurali profonde, per comprendere le relazioni complesse e sfaccettate tra i punti dati in un set di dati. 

  • I modelli di diffusione creano nuovi dati aggiungendo gradualmente rumore a un set di dati, quindi scoprendo come rimuovere il rumore e produrre nuovi output. 

  • Le reti generative avversarie (GAN) combinano un modello discriminativo e uno generativo in una competizione, con l'obiettivo di far sì che il generatore crei un output in grado di ingannare il discriminatore. 

  • Gli autoencoder variazionali (VAE) comprimono i dati di input con un encoder, quindi invertono il processo con un decoder per creare nuovi dati simili. 

  • I modelli basati sul flusso apprendono le relazioni tra distribuzioni di dati semplici e complesse attraverso operazioni matematiche reversibili. 

Modelli autoregressivi

I modelli autoregressivi prevedono l'elemento successivo in una sequenza in base agli elementi precedenti. Valutano i componenti della sequenza per determinare la correlazione probabilistica tra di loro, poi utilizzano queste informazioni per identificare il nuovo componente che probabilmente seguirà. 

L'autoregressione è un tipo di regressione lineare, ovvero una tecnica statistica che prevede il valore di una variabile in base ai valori di una o più variabili. L'autoregressione restringe l'attenzione alla variabile target ma ne considera i valori nel tempo. L'autoregressione differisce anche dalla regressione logistica in quanto prevede valori definiti, mentre quest'ultima produce una probabilità percentuale che si verifichi un evento specifico. 

I modelli autoregressivi assumono la forma di reti neurali ricorrenti (RNN) o architetture trasformative. 

Modelli trasformatori

Emersi per la prima volta nel 20171, i modelli trasformatori hanno rapidamente eclissato le RNN, che fino ad allora erano la principale forma di modello autoregressivo. Il trasformatore ha risolto diverse evidenti debolezze delle RNN. Le RNN faticavano rilevare dipendenze a lungo raggio, ovvero relazioni tra elementi distanti in una sequenza, ed erano inefficienti dal punto di vista del calcolo perché elaboravano gli elementi in sequenza, uno per uno. 

I trasformatori hanno introdotto 2 innovazioni che hanno scavalcato l'architettura oltre le RNN e li hanno resi lo standard di fatto per i modelli linguistici di grandi dimensioni (LLM) nell'AI generativa: 

  • Elaborazione parallela: i trasformatori elaborano tutti gli elementi in una sequenza contemporaneamente, migliorando l'efficienza rispetto alle RNN sequenziali. I trasformatori possono essere addestrati in molto meno tempo, soprattutto con i set di dati su larga scala necessari per le massime prestazioni degli LLM. 

  • Meccanismi di auto-attenzione: i trasformatori sono in grado di considerare l'importanza relativa di tutti gli elementi di una sequenza quando elaborano gli elementi. L'auto-attenzione consente ai trasformatori di catturare relazioni chiave tra elementi distanti in una serie, consentendo una comprensione contestuale che mancava alle RNN. La capacità di elaborare il contesto attraverso grandi sequenze di input porta i trasformatori a eccellere in compiti di PNL come la generazione di testo e la traduzione linguistica. 

Dei 3 tipi di modelli trasformatori (encoder, decoder ed encoder-decoder), gli ultimi 2 contengono componenti autoregressivi. I decoder costituiscono il componente generativo e utilizzano l'autoregressione per generare token basati su token generati in precedenza. 

Casi d'uso del modello autoregressivo

I modelli autoregressivi, in particolare i trasformatori, sono oggi ampiamente utilizzati. Molti dei principali modelli di AI generativa sono trasformatori, tra cui GPT e GPT-4o di OpenAI, Claude di Anthropic, Llama di Meta, Gemini di Google e Granite di IBM. 

I casi d'uso del modello autoregressivo includono: 

  • Elaborazione del linguaggio naturale: i trasformatori possono elaborare query complesse in linguaggio naturale e rispondere in modo conversazionale con la generazione automatica di testo, il che li rende ideali per essere utilizzati come chatbot. Ad esempio, ChatGPT è l'implementazione del modello generativo GPT di OpenAI per i chatbot. Altre applicazioni della NLP includono l'analisi del sentiment, il riconoscimento vocale, le applicazioni text-to-speech (TTS) e il riassunto di documenti. 

  • Supporto alla programmazione: le stesse funzionalità autoregressive che consentono ai trasformatori di eccellere nella generazione di testo consentono loro anche di eseguire il debug del codice e generare frammenti di codice. 

  • Previsione delle serie temporali: l'autoregressione può essere facilmente applicata alla previsione di serie temporali, in cui un modello prevede i valori futuri in base alle tendenze precedenti. La previsione delle serie temporali viene spesso applicata alla modellazione finanziaria, alle previsioni di mercato e alle previsioni meteorologiche. 

  • Apprendimento per rinforzo: i trasformatori hanno iniziato a essere utilizzati nell'l'apprendimento per rinforzo, una tecnica di addestramento del machine learning che insegna il processo decisionale autonomo. I trasformatori vengono applicati anche alle attività di classificazione

Modelli di diffusione

I modelli di diffusione offuscano o diffondono gradualmente i dati di input aggiungendo rumore, per poi ripulire il disordine creato in nuovi dati simili. Generano nuovi dati imparando a trasformare il rumore in dati simili a quelli dei loro set di dati di addestramento. I modelli di diffusione funzionano attraverso un processo in 3 fasi: 

  • Fase 1: Diffusione: durante l'addestramento, il modello introduce gradualmente del rumore nei dati di input fino a quando i dati non sono più riconoscibili. Il modello aggiunge una piccola quantità di rumore gaussiano ai dati in ogni fase di un processo matematico noto come catena di Markov.

    Immagina il processo di diffusione che si verifica quando un chitarrista alza lentamente il gain dell'amplificatore fino a quando il suono della chitarra diventa un muro di pura elettricità statica. È così che i chitarristi rock ottengono un suono distorto, anche se in genere non in questa misura. 

  • Fase 2: Apprendimento: il modello traccia l'evoluzione dei dati ora distrutti per comprendere come siano stati alterati attraverso il processo di aggiunta del rumore. I modelli di diffusione ripetono questo processo in ogni fase del rumore. 

  • Passaggio 3: diffusione inversa: comprendendo come il rumore altera i dati, il modello di diffusione impara a invertire il processo di aggiunta di rumore e a ricostruire i dati di input. L'obiettivo della diffusione inversa è quello di quello di percorrere a ritroso la catena di Markov, rimuovendo il rumore gaussiano fino a quando non rimangono solo i dati puri. Il chitarrista degli passaggio 1 è stato rimproverato dai suoi compagni di band e sta abbassando il volume a un livello accettabile. 

I passaggi 1 e 2 vengono utilizzati per addestrare i modelli di diffusione. Dopo l'addestramento, i modelli di diffusione generano dati mediante diffusione inversa del rumore casuale per "trovare" i dati richiesti dal prompt.

Casi d'uso dei modelli di diffusione

Spesso utilizzati per la generazione di immagini, i modelli di diffusione hanno anche altri casi d'uso importanti. Le applicazioni dei modelli di diffusione includono: 

  • Generazione di immagini: i modelli di diffusione alimentano gli strumenti di generazione e sintesi delle immagini mainstream come Midjourney, Stable Diffusion e DALL-E 2 di OpenAI. Questi modelli generano immagini in risposta ai prompt dell'utente. I modelli di diffusione possono generare immagini realistiche di alta qualità, comprese quelle di volti umani.

    L'Ufficio del copyright degli Stati Uniti ha stabilito nel 2023 che le immagini generate dall'AI non hanno diritto alla protezione del copyright. Nel frattempo, numerose cause legali in corso2 determineranno alla fine se le immagini generate dall'AI sono considerate violazioni del copyright. 

  • Inpainting e outpainting: l'inpainting è il processo di aggiunta o rimozione di contenuto all'interno di un'immagine, mentre l'outpainting espande un'immagine oltre i bordi originali. 

  • Modellazione 3D: DreamFusion di Google e Magic3D di NVIDIA sono modelli di diffusione che creano modelli 3D da input di testo. 

  • Ricerca di mercato: i modelli di diffusione mostrano come le cose si evolvono nel tempo, il che li rende utili per capire come i consumatori reagiscono a un prodotto. 

  • Rilevamento delle anomalie: poiché possono apprendere come i dati cambiano nel tempo, i modelli di diffusione possono identificare quando i punti dati non si adattano alle tendenze stabilite. Le applicazioni di rilevamento delle anomalie includono la cybersecurity, la prevenzione delle frodi e il rilevamento delle malattie. 

Reti generative avversarie (GAN)

Introdotte nel 2014, le reti generative avversarie (GAN) sono tra i primi tipi di modelli di AI generativa a mettere 2 modelli in competizione. Un modello generativo crea output che un modello discriminatore deve considerare autentici o falsi. L'obiettivo della competizione è che il generatore generi contenuti che passino per autentici quando vengono valutati dal discriminatore. 

Se il generatore può essere paragonato a un falsario, il discriminatore è un autenticatore di opere d'arte. Un mercante d'arte può acquisire un'opera contraffatta e provare a venderla a un museo, ma non prima che l'opera superi l'autenticazione. Man mano che il falsario diventa più abile nell'imitare i grandi maestri, l'autenticatore potrebbe avere difficoltà a rilevare i falsi successivi. Non passerà molto tempo prima che il museo ospiti una mostra ricca di opere contraffatte. 

Lo stesso processo di addestramento che conduce a output realistici può anche portare al collasso della modalità: ciò avviene quando il generatore ignora alcuni dei dati di addestramento e si limita a una gamma ristretta di tipi di campioni. Le GAN, così come i modelli di diffusione e i trasformatori, richiedono enormi set di dati di addestramento per prestazioni efficaci. 

Entrambe le reti di una GAN sono spesso reti neurali convoluzionali (CNN), un primo tipo di rete neurale noto per le sue elevate prestazioni nei compiti di computer vision.

Casi d'uso del GAN

Le GAN vengono utilizzate principalmente nel campo della computer vision e in altre attività relative alla grafica. 

  • Computer vision: la computer vision è l'uso del machine learning per elaborare informazioni a partire da immagini. Le attività comuni di computer vision includono il rilevamento e la classificazione degli oggetti, il riconoscimento facciale, la traduzione nel linguaggio dei segni e il tracciamento degli oggetti. 

  • Generazione di immagini: le GAN possono superare i modelli di diffusione nella generazione di immagini realistiche. Richiedono anche meno tempo di addestramento e sono più efficienti dal punto di vista del calcolo, sebbene i modelli di diffusione offrano un controllo più preciso, una maggiore versatilità e una maggiore stabilità. Il framework Diffusion-GAN3 addestra una GAN con diffusione per massimizzare i benefici di entrambi i tipi di modello.
  • Rilevamento delle anomalie: se addestrati a generare set di dati normali, i GAN possono essere applicati alle attività di rilevamento delle anomalie. La GAN crea un set di dati sintetico modellato sui dati reali e, confrontando i due, emergono le anomalie in questi ultimi. Il discriminatore può anche rilevare anomalie dichiarando che alcuni punti dati hanno maggiori probabilità di essere falsi. 
  • Data augmentation: la data augmentation, ovvero l'uso di dati preesistenti per creare più campioni di dati, può aumentare ulteriormente le prestazioni della computer vision con le CNN. Questo processo differisce dai dati sintetici in quanto si basa su dati reali, anziché generare qualcosa da zero.

Un esempio di aumento dei dati utilizzando la fotografia di un gatto Un esempio di aumento dei dati

Autoencoder variazionali (VAE)

Gli autoencoder variazionali (VAE) comprimono i dati di input, quindi espandono o decodificano tale compressione per generare nuovi dati simili. I VAE apprendono la distribuzione di un set di dati di addestramento e applicano tali aspettative quando generano nuovi dati da campioni codificati. Come tutti gli autoencoder, i VAE sono composti da due componenti: un encoder e un decoder. 

Il compito dell'encoder è quello di apprendere le variabili latenti in un set di dati. Le variabili latenti non sono direttamente osservabili ma svolgono un ruolo significativo nella distribuzione dei dati. Lo spazio latente è il nome collettivo di tutte le variabili latenti in un set di dati. L'encoder modella lo spazio latente in modo da acquisire le informazioni necessarie per ricostruire accuratamente i dati. Tutte le altre variabili vengono omesse. 

Il decoder prende la rappresentazione compressa dei dati, nota anche come collo di bottiglia, e li estrapola nella forma originale. Un decoder efficace produce un output simile ai dati originali precompressi.

Un diagramma che mostra come funziona un autoencoder variazionale (VAE)

Casi d’uso VAE

Rispetto ai modelli di diffusione e alle GAN, i VAE hanno difficoltà nelle attività di generazione di immagini, ma eccellono in altre aree. 

  • Generazione di immagini: i VAE vengono utilizzati nella generazione di immagini, sebbene con le applicazioni di generazione di immagini tradizionali, i modelli di diffusione li abbiano ampiamente sostituiti. Rispetto ad altri generatori di immagini, i VAE tendono a produrre immagini più sfocate a causa della "media" dello spazio latente. 

  • Genomica: i VAE aiutano i genetisti a calcolare i valori riproduttivi, ovvero il valore previsto che un animale fornirà alla sua prole, e a determinare punteggi di rischio di malattia. 

  • Rilevamento delle anomalie: i VAE sono più economici e facili da addestrare rispetto alle GAN e ai diffusori, il che li rende una scelta interessante per le attività di rilevamento delle anomalie. I dati ricreati vengono confrontati con i dati originali per isolare le istanze che si discostano dalla distribuzione prevista. 

  • Imputazione dei dati: I VAE possono generare nuovi dati per sostituire i dati mancanti e ripristinare i file danneggiati. Gli esempi includono la cancellazione dei file audio e il denoising dei video, nonché l'imaging medico. Sebbene i VAE tendano a generare immagini sfocate da zero, possono ripristinare immagini sfocate preesistenti riducendo il rumore dell'immagine. 

  • Apprendimento semisupervisionato: i VAE aiutano ad addestrare i classificatori acquisendo le distribuzioni dei dati nei set di dati con etichettatura incompleta. I VAE possono anche arricchire i dati per generare ulteriori campioni di addestramento per il classificatore.

Modelli basati sul flusso

I modelli basati sul flusso apprendono la distribuzione dei dati attraverso una serie di trasformazioni matematiche invertibili o reversibili. I dati possono avanzare senza perdite di dati attraverso questa pipeline, nota come flusso di normalizzazione, in entrambe le direzioni. Mentre i VAE e le GAN stimano le distribuzioni dei dati, i modelli basati sul flusso apprendono esplicitamente la funzione di densità di probabilità per il set di dati. 

In un determinato set di dati, la funzione di densità di probabilità descrive come vengono distribuiti i dati. I flussi di normalizzazione passano da distribuzioni semplici a distribuzioni complesse fino all'identificazione della funzione di densità di probabilità della variabile bersaglio. 

I modelli basati sul flusso possono generare nuovi campioni di dati che mantengono le stesse proprietà statistiche del set di dati iniziale. Come tutti i modelli generativi, il processo si basa sull'estrazione di campioni dai dati di addestramento e sull'applicazione della matematica statistica complessa per produrre risultati simili e nuovi.

Casi d'uso dei modelli basati sul flusso

I modelli basati sul flusso eccellono nei casi in cui è fondamentale una valutazione accurata della distribuzione dei dati.

  • Generazione di immagini: i modelli basati sul flusso generano immagini eseguendo il rumore campionato casualmente attraverso flussi di normalizzazione per produrre un'immagine pulita. PixelCNN è un notevole modello di generazione di immagini del 2016 che applica l'autoregressione alla sequenza di trasformazioni, modellando le immagini pixel per pixel. 

  • Stima accurata della densità: la stima della densità è la sfida di identificare la funzione di densità di probabilità di un set di dati sulla base di dati osservabili. Sebbene i modelli basati sul flusso possano rappresentare con precisione distribuzioni di dati complesse, faticano a catturare le dipendenze a lungo raggio rispetto ai trasformatori. 

  • Generazione di grafi molecolari: i modelli basati sul flusso hanno trovato impiego nella generazione di grafi molecolari, in cui nuove strutture molecolari sono modellate come grafici da modelli di AI generativa. La generazione di grafi molecolari è uno strumento importante per aiutare gli scienziati e gli ingegneri nella scoperta di nuovi farmaci e materiali.

Modelli generativi e allucinazioni

Gli stessi processi che spesso portano a risultati impressionanti sono anche ciò che causa allucinazioni nei modelli generativi, ovvero la produzione di output errato o fuorviante. Le allucinazioni o le confabulazioni si verificano quando i modelli percepiscono schemi nei loro set di dati di addestramento che non esistono nel mondo reale. 

Ad esempio, se si chiede a ChatGPT-4o mini "In quale episodio di Seinfeld Kramer va in Bangladesh?", si ottiene questa risposta: 

Kramer si reca in Bangladesh nell'episodio intitolato "The Little Jerry", che è il 145° episodio di Seinfeld. È il 145° episodio della serie ed è andato in onda originariamente durante l'ottava stagione. In questo episodio, Kramer viene coinvolto in un piano per importare un giocattolo dal Bangladesh.

Sebbene The Little Jerry sia il 145esimo episodio di Seinfeld e sia andato in onda durante l'ottava stagione, mostra Kramer che compra e addestra un gallo, chiamato Little Jerry. Porre nuovamente al chatbot la stessa domanda ha prodotto una seconda allucinazione diversa: 

Kramer va in Bangladesh nell'episodio intitolato "The Maldives", che è il 18° episodio della nona stagione. In questo episodio, cerca di iniziare una nuova vita dopo il suo viaggio, e la trama ruota attorno all'idea di diventare un pescatore del Bangladesh.

In realtà, l'episodio 18 della stagione 9 di Seinfeld è The Frogger, in cui Kramer arriva solo fino alla stazione di polizia. Non c'è nessun episodio di Seinfeld chiamato The Maldives, e in nessun momento dell'intera serie Kramer va in Bangladesh. 

Così come i modelli autoregressivi come GPT sono noti per avere allucinazioni con fatti inventati, altri tipi di modelli possono avere allucinazioni a modo loro. I modelli di diffusione utilizzati per la generazione di immagini a volte raffigurano oggetti del mondo reale in modi che non corrispondono alla realtà.

Come mitigare le allucinazioni

Sebbene non sia ancora possibile eliminare completamente la possibilità che i modelli di AI generativa abbiano allucinazioni, le best practice per la mitigazione delle allucinazioni includono: 

  • Clear prompting: più il prompt dell'utente è esplicito, più mirata sarà la risposta dell'AI. Lascia all'AI lo spazio necessario per rispondere in modo dettagliato. 

  • Direzione mirata: dare all'AI un ruolo chiaro e istruirla a fornire informazioni veritiere e verificabili può aiutare a garantire che le sue risposte riflettano meglio la realtà. 

  • Dati di alta qualità: più i dati di addestramento di un modello AI sono aggiornati e pertinenti, minore è la possibilità che le sue risposte siano distorte. 

  • Verifica umana: i risultati generati dall'AI non dovrebbero essere utilizzati senza essere prima verificati da esseri umani esperti. 

  • RAG e messa a punto: l'uso della RAG per migliorare l'AI con dati credibili e la messa a punto dei modelli per renderli più specifici per un dominio sono entrambi metodi efficaci nel ridurre le allucinazioni. 

AI Academy

Ascesa dell'AI generativa nel mondo del business

Scopri di più sull'ascesa dell'AI generativa e cosa comporta per le aziende.

Soluzioni correlate
IBM watsonx.ai

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.

Scopri watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Servizi AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Ottieni l'accesso completo a funzionalità che coprono l'intero ciclo di vita dello sviluppo dell'AI. Crea soluzioni AI all'avanguardia con interfacce intuitive, workflow e accesso alle API e agli SDK standard di settore.

Esplora watsonx.ai Prenota una demo live
Note a piè di pagina

1. Attention Is All You Need, Vaswani et al, 2 agosto 2023

2. Artists Score Major Win in Copyright Case Against AI Art Generators, Winston Cho, The Hollywood Reporter, 13 agosto 2024

3. Diffusion-GAN: Training GANs with Diffusion, Wang et al, 25 agosto 2023