Secondo una ricerca di IBM, circa il 42% delle aziende intervistate utilizza l'AI nell'ambito del proprio business. Tra tutti i casi d'uso, molti di noi conoscono ormai molto bene i chatbot di AI per l'elaborazione del linguaggio naturale, in grado di rispondere alle nostre domande e di assisterci in attività come la composizione di e-mail o documenti. Eppure, anche con l'adozione diffusa di questi chatbot, le aziende si trovano ancora occasionalmente ad affrontare alcune problematiche. Ad esempio, i chatbot possono produrre risultati poco coerenti poiché attingono da grandi data store che potrebbero non essere pertinenti alla query in questione.
Per fortuna, la retrieval-augmented generation (RAG) è emersa come una soluzione promettente per basare i modelli linguistici di grandi dimensioni (LLM) sulle informazioni più accurate e aggiornate. In quanto framework di AI, la RAG lavora per migliorare la qualità delle risposte generate dall'LLM basando il modello su fonti di conoscenze, al fine di integrare la rappresentazione interna delle informazioni dell'LLM. IBM ha presentato watsonx, il suo nuovo portfolio di prodotti di AI che include la RAG, nel maggio 2023.
In poche parole, utilizzare la RAG è come far sostenere al modello un esame a libro aperto, poiché si chiede al chatbot di rispondere a una domanda con tutte le informazioni prontamente disponibili. Come opera tuttavia la RAG a livello di infrastruttura? Grazie a una combinazione di servizi platform-as-a-service (PaaS), la RAG può funzionare bene e facilmente, supportando i risultati dell'AI generativa delle organizzazioni che utilizzano gli LLM in vari tipi di settori.
L'AI di livello aziendale, inclusa l'AI generativa, richiede un'infrastruttura distribuita altamente sostenibile, ad alta intensità di dati e computing. Sebbene l'AI sia il componente chiave del framework RAG, altri "ingredienti" come le soluzioni PaaS sono una parte integrante del mix. Queste offerte, in particolare le offerte serverless e storage, operano diligentemente dietro le quinte, consentendo di elaborare e memorizzare i dati più facilmente e fornendo ai chatbot degli output sempre più accurati.
La tecnologia serverless supporta workload ad alta intensità di calcolo, come quelli prodotti dalla RAG, gestendo e proteggendo l'infrastruttura circostante. Ciò consente agli sviluppatori di avere più tempo da dedicare alla codifica. La tecnologia serverless consente agli sviluppatori di creare ed eseguire il codice delle applicazioni senza ricorrere al provisioning e senza dover gestire server o infrastrutture di backend.
Se uno sviluppatore sta caricando dati in un LLM o un chatbot ma non è sicuro di come pre-elaborarli in modo che siano nel formato giusto o filtrati per punti dati specifici, IBM Cloud Code Engine può fare tutto questo per loro, facilitando il processo complessivo di ottenimento degli output corretti dai modelli AI. Essendo una piattaforma serverless completamente gestita, IBM Cloud Code Engine può scalare l'applicazione con facilità attraverso funzionalità di automazione che gestiscono e proteggono l'infrastruttura sottostante.
Inoltre, se uno sviluppatore sta caricando le sorgenti per gli LLM, è importante disporre di uno storage altamente sicuro, resiliente e durevole. Ciò è particolarmente critico nei settori altamente regolamentati come i servizi finanziari, la sanità e le telecomunicazioni.
IBM Cloud Object Storage, ad esempio, fornisce sicurezza e durabilità dei dati per memorizzarne grandi quantità. Grazie alle funzionalità di controllo e conservazione immutabile dei dati, IBM Cloud Object Storage supporta la RAG aiutando a proteggere i tuoi dati dalla manomissione o dalla manipolazione a causa di attacchi ransomware e contribuendo a garantire la soddisfazione dei requisiti di conformità aziendale.
Attraverso il vasto stack di IBM che include IBM Code Engine e Cloud Object Storage, le organizzazioni di tutti i settori possono attingere facilmente alla RAG e concentrarsi sull'uso più efficace dell'AI per le proprie attività.
Abbiamo stabilito che la RAG è estremamente preziosa per supportare i risultati dell'AI generativa, ma cosa significa questo nella pratica?
Blendow Group, fornitore leader di servizi legali in Svezia, gestisce una vasta gamma di documenti legali analizzando, riassumendo e valutando tutti questi documenti, che vanno dalle sentenze dei tribunali alla legislazione e alla giurisprudenza. Con un team relativamente piccolo, Blendow Group necessitava di una soluzione scalabile per supportare le proprie analisi legali. Lavorando con IBM Client Engineering e NEXER, Blendow Group ha creato uno strumento innovativo basato sull'AI che utilizza le funzionalità di IBM per migliorare la ricerca e l'analisi e semplifica il processo di creazione dei contenuti legali, il tutto mantenendo la massima riservatezza dei dati sensibili.
Utilizzando lo stack tecnologico di IBM, che include IBM Cloud Object Storage e IBM Code Engine, la soluzione AI è stata progettata su misura per aumentare l'efficienza e l'ampiezza dell'analisi dei documenti legali di Blendow.
Anche la Mawson's Huts Foundation costituisce un eccellente esempio di utilizzo della RAG per migliorare i risultati dell'AI. La missione della fondazione è quella di preservare il lascito di Mawson, che include la rivendicazione territoriale del 42 percento dell'Antartide da parte dell'Australia e le attività educative sull'Antartide e sull'importanza di sostenerne l'ambiente incontaminato.
Con The Antarctic Explorer, una piattaforma di apprendimento alimentata dall'AI in esecuzione su IBM Cloud, Mawson consente ai bambini e a molti altri di accedere a risorse sull'Antartide da un browser ovunque si trovino. Gli utenti possono inviare domande tramite un'interfaccia basata su browser e la piattaforma di apprendimento utilizza funzionalità di elaborazione del linguaggio naturale basate su AI fornite da IBM watsonx Assistant per interpretare le domande e fornire risposte adeguate con i supporti associati (video, immagini e documenti), memorizzati e recuperati da IBM Cloud Object Storage.
Utilizzando le soluzioni infrastrutturali as-a-service in tandem con watsonx, sia la Mawson Huts Foundation che il Gruppo Blendow sono in grado di ottenere maggiori insight dai loro modelli AI, semplificando così il processo di gestione e memorizzazione dei dati in essi contenuti.
L'AI generativa e gli LLM hanno già dimostrato di avere un grande potenziale per trasformare le organizzazioni in tutti i settori. Indipendentemente dal fatto che si tratti di educare una vasta popolazione o di analizzare documenti legali, le soluzioni PaaS all'interno del cloud sono critiche per il successo della RAG e per l'esecuzione dei modelli AI.
IBM crede che i workload AI saranno probabilmente la spina dorsale dei workload mission-critical e, in ultima analisi, ospiteranno e gestiranno i dati più affidabili, quindi l'infrastruttura circostante deve essere affidabile e resiliente fin dalla progettazione. Con IBM Cloud, le aziende di tutti i settori che utilizzano l'AI possono attingere a livelli più elevati di resilienza, prestazioni, sicurezza, conformità e costo totale di proprietà. Qui di seguito maggiori informazioni su IBM Cloud Code Engine e IBM Cloud Object Storage.
Red Hat OpenShift on IBM Cloud è una OpenShift Container Platform (OCP) completamente gestita.
Le soluzioni basate su container eseguono e scalano workload containerizzati con sicurezza, innovazione open source e implementazione rapida.
Sblocca nuove funzionalità e promuovi l'agilità aziendale con i servizi di consulenza cloud di IBM. Scopri come creare insieme soluzioni, accelerare la trasformazione digitale e ottimizzare le prestazioni attraverso strategie di hybrid cloud e partnership di esperti.