È stato sviluppato dalla società di ricerca e consulenza Gartner e “fornisce soluzioni proattive per identificare e mitigare questi rischi, garantendo affidabilità, attendibilità e sicurezza”.2
Sebbene numerosi framework separati si concentrino specificamente sulla fiducia dell'AI, sul rischio dell'AI o sulla sicurezza dell'AI, secondo i ricercatori sono difficili da integrare e sincronizzare. Questa mancanza di coordinamento può portare a una gestione frammentata dell'AI. Può anche portare a lacune di conoscenza dei rischi e delle conseguenze sulla sicurezza derivanti dall'implementazione dell'AI e dalle pratiche dell'AI.
Tuttavia, il framework AI TRiSM offre un approccio unificato. Riunisce le parti importanti di diversi framework per una gestione più completa delle tecnologie di AI.
I sostenitori dell'AI TRiSM ritengono che il framework sia importante per mitigare i rischi e le minacce informatiche legati al progresso e all'aumento dell'uso dell'AI generativa (gen AI), come i modelli linguistici di grandi dimensioni (LLM). L'uso dell'AI generativa può aumentare le superfici di attacco delle organizzazioni, consentire attacchi informatici più sofisticati da parte degli hacker e introdurre nuove considerazioni etiche. I benefici delle applicazioni AI TRiSM in aree come l'assistenza sanitaria e la finanza includono la mitigazione del rischio, misure avanzate per il monitoraggio dei modelli e protezioni contro attacchi avversari e accessi non autorizzati.3
Secondo Gartner: "la gestione della fiducia, del rischio e della sicurezza dell'AI (AI TRiSM) garantisce:
La governance dell'AI si riferisce ai processi, agli standard e alle misure di sicurezza che contribuiscono a garantire che i sistemi e gli strumenti di AI siano sicuri ed etici. Una governance dell'AI include la gestione del rischio, con meccanismi per affrontare potenziali pregiudizi, violazioni della privacy dei dati e altri timori, creando al contempo fiducia e sostenendo l'innovazione.
Si tratta della costante supervisione e valutazione dei sistemi di AI per garantirne la conformità alle norme etiche e alle disposizioni di legge vigenti. La governance dell'AI include la governance dei dati, una disciplina della gestione dei dati progettata per mantenere dati sicuri e di alta qualità, facilmente accessibili per iniziative di business intelligence e data discovery.
Diversi framework e organizzazioni sottolineano vari principi e obiettivi guida per determinare l'affidabilità dei sistemi AI. I principi di un'AI affidabile citati di frequente includono responsabilità, spiegabilità e interpretabilità.
Quando gli utenti del modello AI e gli altri stakeholder hanno difficoltà a comprendere il funzionamento di un modello, ciò può compromettere la loro fiducia nel sistema di AI. I processi e le metodologie giusti possono aiutare gli utenti a comprendere e ad affidarsi ai processi decisionali e agli output dei modelli di machine learning.
L'equità spesso implica la mitigazione o l'eliminazione delle distorsioni nei modelli e nei dati di AI durante il ciclo di vita dello sviluppo dell'AI. I modelli AI assorbono i pregiudizi della società che possono essere incorporati nei dati di addestramento. Un insieme di dati distorti, che riflette le disuguaglianze sociali, può causare danni a gruppi storicamente emarginati nelle valutazioni del credito, nelle assunzioni e in altre aree.
L'identificazione e la risoluzione delle distorsioni nell'AI richiedono la capacità di dirigere, gestire e monitorare le attività di AI di un'organizzazione. Ciò può essere ottenuto attraverso la governance dell'AI, in particolare la creazione di politiche e pratiche per guidare lo sviluppo dell'AI responsabile e l'uso delle tecnologie AI.
L'affidabilità si riferisce generalmente alla capacità, da parte di qualcosa, di funzionare come previsto o richiesto per un determinato periodo di tempo in determinate condizioni. Per quanto riguarda i sistemi AI, soddisfare le aspettative a livello di prestazioni include la fornitura di output corretti per un periodo che può estendersi fino alla fine di vita del sistema.5
La protezione dei dati è la pratica di salvaguardare i dati sensibili da perdite e corruzione. La protezione dei dati mira a preservare la disponibilità dei dati, garantendo che gli utenti possano accedere ai dati per le operazioni aziendali, anche se i dati vengono danneggiati o persi a causa di una violazione dei dati o di un attacco malware.
La protezione dei dati comprende la sicurezza dei dati (la protezione delle informazioni digitali da accessi non autorizzati, corruzione o furto) e la privacy dei dati (il principio secondo cui una persona dovrebbe avere il controllo dei propri dati personali). La protezione dei dati è fondamentale per la conformità ai principali regimi normativi, come il Regolamento generale europeo sulla protezione dei dati (GDPR).
Sia le tecnologie tradizionali che le nuove soluzioni specifiche per l'AI supportano il TriM AI. I primi includono strumenti per fornire la gestione delle identità e degli accessi (IAM) e soluzioni per la gestione della sicurezza dei dati.
Le tecnologie specifiche per l'AI TRiSM variano a seconda del fornitore. Alcuni si concentrano su determinate funzioni, come la sicurezza o la conformità. Altri offrono prodotti più completi con una serie di funzionalità per la governance dell'AI e l'ispezione e l'applicazione del tempo di esecuzione dell'AI:
Il software di governance dell'AI può consentire alle aziende di registrare e monitorare automaticamente le informazioni del modello, comprese le attività di sviluppo dell'AI, per supportare gli audit, così come condurre valutazioni del rischio del modello, valutare le prestazioni del modello, prevenire la generazione di contenuti dannosi e gestire la conformità normativa. Mentre alcuni strumenti di governance sono limitati ai modelli AI creati internamente per un'organizzazione, altri possono essere applicati a modelli creati su piattaforme di terze parti, come Amazon Bedrock e Microsoft Azure.
Secondo un webinar, le funzioni di ispezione e applicazione del tempo di esecuzione dell'AI comprendono modelli AI, applicazioni AI e agenti AI. I modelli AI, le applicazioni AI e gli agenti AI garantiscono "la conformità con i controlli interni ed esterni" e le applicazioni AI forniscono "il controllo degli accessi basato sul contesto e la classificazione dinamica dei dati contestuali".6
Esistono molteplici casi d'uso per l'implementazione di AI TRiSM nella distribuzione e nella gestione dell'AI aziendale. Questi includono:
I medici professionisti utilizzano sempre più strumenti basati su AI per una serie di scopi, dall'automazione dei dispositivi medici all'analisi delle immagini. Un programma AI TriSM può aiutare a proteggere dalle violazioni i dati sanitari utilizzati in questi sistemi. Misure come i controlli degli accessi, ad esempio, possono mitigare i potenziali rischi di accesso non autorizzato.
Quando i set di dati che contengono pregiudizi demografici vengono utilizzati per addestrare algoritmi di AI, i risultati possono essere distorti. Si tratta di un problema noto nel settore finanziario, che riguarda l'approvazione dei prestiti, gli oneri sui tassi di interesse e molto altro. In Danimarca, la Danish Business Association ha applicato le pratiche di AI TRiSM eseguendo test di equità per convalidare le previsioni dei modelli AI che supervisionano le transazioni finanziarie, aumentando la fiducia dei clienti.7
Oltre a garantire una maggiore equità nelle transazioni finanziarie, le misure AI TriSM possono aiutare a proteggere i sistemi di rilevamento delle frodi degli istituti finanziari dagli attacchi avversari.8 Queste soluzioni AI aiutano anche le banche a rispettare i requisiti legali sulla protezione dei consumatori e sulla salvaguardia delle informazioni sensibili.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione su cloud o on-premise con IBM watsonx.governance.
Scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei suoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fidelizzazione dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
1 Glossario Gartner, AI TRiSM, https://www.gartner.com/en/information-technology/glossary/ai-trism. GARTNER è un marchio registrato e un marchio di servizio di Gartner, Inc. e/o delle sue affiliate negli Stati Uniti e a livello internazionale ed è usato qui con l'autorizzazione. Tutti i diritti riservati.
2, 4 Articolo di Gartner, Tackling Trust, Risk and Security nei modelli AI, Avivah Litan, 24 dicembre 2024, https://www.gartner.com/en/articles/ai-trust-and-ai-risk.
3, 7 “Artificial Intelligence Trust, Risk and Security Management (AI TRiSM): Frameworks, applications, challenges and future research directions.” Expert Systems with Applications. 15 aprile 2024.
5 “AI Risks and Trustworthiness.” National Institute of Standards and Technology. Accesso: 23 febbraio 2025.
6 The Gartner Framework to Manage AI Governance, Trust, Risk and Security. [Webinar] Gartner. Accesso: 28 gennaio 2025, Agenda | The Gartner Framework to Manage AI Governance, Trust, Risk and Security
8 ”The Role of Artificial Intelligence in Modern Finance: Current Applications and Future Prospects.” Applied and Computational Engineering. Dicembre 2024.