L'intelligenza artificiale sta rivoluzionando molte funzioni aziendali. Il potenziale di questa tecnologia è particolarmente evidente nelle aree del servizio clienti, dei talenti e della modernizzazione delle applicazioni. Secondo l'IBM’s Institute of Business Value (IBV), l'AI può ridurre i casi gestiti dal contact center, migliorando del 70% l'esperienza del cliente. Inoltre, l'AI può aumentare del 40% la produttività dell'HR e del 30% la modernizzazione delle applicazioni. Un esempio di ciò è la riduzione del carico di lavoro, automatizzando la gestione dei ticket di supporto attraverso le operazioni IT. Tuttavia, sebbene queste cifre mettano in evidenza le opportunità di trasformazione per le aziende, la capacità di scalare e rendere operativa l'AI è sempre stata complessa per le organizzazioni.
L'AI è efficace solo quanto i dati che utilizza e la necessità di una giusta base di dati non è mai stata così grande.
Quando i dati sono memorizzati nei cloud e negli ambienti on-premise, diventa difficile accedervi mentre si gestisce la governance e si tengono sotto controllo i costi. A complicare ulteriormente le cose, gli utilizzi dei dati sono diventati più vari e le aziende si trovano a dover gestire dati complessi o di scarsa qualità.
Precisely ha condotto uno studio scoprendo che, all'interno delle aziende, i data scientist dedicano l'80% del tempo a pulire, integrare e preparare i dati, gestendo molti formati, inclusi documenti, immagini e video. Nel complesso, è importante creare una piattaforma dati affidabile e integrata per AI.
Con l'accesso ai dati giusti, è più facile democratizzare l'AI per tutti gli utenti utilizzando la potenza dei foundation model per supportare un'ampia gamma di attività. Tuttavia, è importante tenere conto delle opportunità e dei rischi dei foundation model, in particolare l'affidabilità dei modelli nell'implementazione dell'AI su larga scala.
La fiducia è uno dei principali fattori che impediscono agli stakeholder di implementare l'AI. Di fatto, l'IBV ha scoperto che il 67% dei dirigenti è preoccupato per le potenziali responsabilità dell'AI. Gli strumenti di AI responsabile esistenti mancano di capacità tecniche e sono limitati ad ambienti specifici, il che significa che i clienti non sono in grado di utilizzare questi strumenti per governare i modelli su altre piattaforme. Tutto questo è allarmante, considerando il modo in cui i modelli generativi spesso producono output contenenti un linguaggio tossico, tra cui odio, abuso e parolacce, oppure divulgano informazioni personali identificabili (PII). Le aziende ricevono sempre più commenti negativi sull'uso dell'AI, il che danneggia la loro reputazione. Poiché la qualità dei dati ha un forte impatto sulla qualità e sull'utilità dei contenuti prodotti da un modello AI, è importante affrontare le problematiche legate ai dati.
Un'applicazione emergente di AI generativa è la gestione delle conoscenze. Con la potenza dell'AI, le aziende possono utilizzare gli strumenti di gestione delle conoscenze per raccogliere, creare, accedere e condividere dati pertinenti per gli insight organizzativi. Le applicazioni software di gestione delle conoscenze sono spesso implementate in un sistema centralizzato, o knowledge base, per supportare domini e attività aziendali, tra cui talenti, servizio clienti e modernizzazione.
I reparti delle Risorse Umane (HR) possono utilizzare l'AI attraverso attività come la generazione di contenuti, la retrieval-augmented generation (RAG) e la classificazione. La generazione di contenuti può essere utilizzata per creare rapidamente la descrizione di un ruolo. La retrieval-augmented generation (RAG) può aiutare a identificare le competenze necessarie per un ruolo in base ai documenti interni dell'HR. La classificazione può aiutare a determinare se, alla luce del suo curriculum, un candidato sia adatto all'azienda. Queste attività semplificano il tempo di elaborazione dal momento in cui una persona invia la propria candidatura al momento in cui riceve la decisione finale.
Le divisioni del servizio clienti possono utilizzare al meglio l'AI attraverso RAG, sintesi e classificazione. Ad esempio, le aziende possono incorporare nel proprio sito web un customer service chatbot che utilizzerebbe l'AI generativa per essere più conversazionale e specifico riguardo al contesto. La retrieval-augmented generation può essere utilizzata per eseguire ricerche nei documenti interni aziendali e rispondere alle richieste dei clienti generando un output personalizzato. La capacità di sintesi può aiutare i dipendenti fornendo loro un riepilogo del problema del cliente e delle precedenti interazioni con l'azienda. La classificazione del testo può essere utilizzata per classificare il sentiment del cliente. Queste attività possono ridurre il lavoro manuale, migliorando al contempo il supporto clienti e, si spera, la soddisfazione e la fidelizzazione dei clienti.
La modernizzazione delle applicazioni può essere ottenuta anche con l'aiuto di attività di sintesi e generazione di contenuti. Grazie al riepilogo delle conoscenze e degli obiettivi aziendali, gli sviluppatori possono dedicare meno tempo all'apprendimento delle informazioni necessarie e più tempo alla codifica. Gli addetti all'IT possono anche creare una richiesta di ticket riassuntivo per risolvere rapidamente e dare priorità ai problemi riscontrati in un ticket di assistenza. Un altro modo in cui gli sviluppatori possono utilizzare l'AI generativa consiste nella comunicazione con modelli linguistici di grandi dimensioni (LLM) in linguaggio umano, chiedendo al modello di generare del codice. Questo può aiutare lo sviluppatore a tradurre i linguaggi di codice, risolvere bug e ridurre il tempo dedicato alla codifica, lasciando più spazio alla creatività.
Le organizzazioni necessitano di un data lakehouse per affrontare le sfide relative ai dati che si verificano durante l'implementazione di un sistema di gestione delle conoscenze basato su AI. Un data lakehouse abbina la flessibilità di un data lake alle prestazioni di un data warehouse per aiutare a scalare l'AI. Un data lakehouse è uno storage dei dati "fit-for-purpose".
Per preparare i dati per l'AI, i data engineer devono poter accedere a qualsiasi tipo di dati da grandi quantità di fonti e ambienti hybrid cloud da un unico punto d'ingresso. Un data lakehouse con più motori di query e storage può consentire ai membri del team di condividere i dati in formati aperti. Inoltre, gli ingegneri possono pulire, trasformare e standardizzare i dati per la modellazione AI/ML senza necessità di duplicare o creare pipeline aggiuntive. Inoltre, le aziende dovrebbero prendere in considerazione soluzioni di data lakehouse che incorporano l'AI generativa per aiutare i data engineer e gli utenti non tecnici a scoprire, aumentare e arricchire facilmente i dati con il linguaggio naturale. I data lakehouse migliorano l'efficienza dell'implementazione dell'AI e della generazione di pipeline di dati.
I sistemi di gestione delle conoscenze basati su AI contengono dati sensibili, tra cui l'automazione delle e-mail dell'HR, le traduzioni di video di marketing e l'analisi delle trascrizioni dei call center. Quando si tratta di informazioni così sensibili, l'accesso a dati sicuri diventa sempre più importante. I clienti necessitano di un data lakehouse che offra una governance centralizzata integrata e un'applicazione automatica locale delle policy, supportata dalla catalogazione dei dati, dai controlli degli accessi, dalla sicurezza e dalla trasparenza nel data lineage.
Grazie a queste basi di dati stabilite da una soluzione di data lakehouse, i data scientist possono utilizzare con fiducia i dati governati per creare, addestrare, adattare e distribuire modelli AI, garantendo fiducia e sicurezza.
Come accennato in precedenza, i chatbot sono un tipo di sistema di gestione delle conoscenze basato su AI generativa molto diffuso e utilizzato per l'esperienza del cliente. Sebbene questa applicazione possa produrre valore per un'azienda, comporta anche dei rischi.
Ad esempio, un chatbot per un'azienda sanitaria può ridurre il workload degli infermieri e migliorare il servizio clienti rispondendo alle domande sui trattamenti utilizzando dettagli noti dalle interazioni precedenti. Tuttavia, se la qualità dei dati è scarsa o se sono state introdotti bias nel modello durante il fine-tuning o la messa a punto dei prompt, è possibile che il modello non sia affidabile. Di conseguenza, il chatbot potrebbe offrire al paziente una risposta che include un linguaggio inappropriato o che divulga informazioni personali di un altro paziente.
Per evitare che questa situazione si verifichi, le organizzazioni devono essere in grado di rilevare e mitigare in modo proattivo le distorsioni (bias) e le deviazioni durante la distribuzione dei modelli AI. Una funzionalità di filtro automatico dei contenuti per rilevare l'uso di linguaggio inappropriato e fughe di PII ridurrebbe il carico di lavoro dei validatori di modelli a livello di convalida manuale dei modelli.
Come detto in precedenza, una strategia di gestione delle conoscenze riguarda la raccolta, creazione e condivisione delle conoscenze all'interno di un'organizzazione. È spesso implementata in un sistema di condivisione delle conoscenze che può essere condiviso con gli stakeholder per apprendere e utilizzare le conoscenze collettive e gli insight esistenti. Ad esempio, un'attività di AI a livello di RAG può aiutare a identificare le competenze necessarie per un ruolo lavorativo sulla base di documenti interni delle Risorse Umane o supportare un customer service chatbot per eseguire ricerche nei documenti interni e rispondere alla richiesta di un cliente e generare un output.
Quando desiderano implementare modelli di AI generativa, le aziende dovrebbero unire le proprie forze con un partner affidabile che abbia creato o acquisito modelli di qualità da dati di qualità e che supporti la personalizzazione in base ai dati e agli obiettivi dell'azienda.
Per aiutare i nostri clienti a risolvere i problemi di gestione delle conoscenze, offriamo IBM watsonx.ai. Nell'ambito del portfolio IBM watsonx di prodotti di AI che riunisce nuove funzionalità di AI generativa, watsonx.ai è alimentato da foundation model e machine learning tradizionale, dando vita a uno studio potente che copre l'intero ciclo di vita dell'AI. Con watsonx.ai puoi addestrare, convalidare, adattare e implementare l'AI generativa, i foundation model e le funzionalità di machine learning con facilità, creando applicazioni di AI in una frazione del tempo e con una frazione dei dati.