L'intelligenza artificiale (AI) è polarizzante. Entusiasma i progressisti e genera trepidazione nei conservatori. Nel mio post precedente, ho descritto le diverse capacità sia dell'AI discriminativa che di quella generativa, e ho delineato un mondo di opportunità in cui l'AI cambia il modo in cui assicuratori e assicurati interagirebbero. Questo blog continua la discussione, ora indagando sui rischi dell'adozione dell'AI e proponendo misure per una risposta sicura e giudiziosa alla sua adozione.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Il rischio associato all'adozione dell'AI nelle assicurazioni può essere suddiviso in due categories: tecnologico e d'uso.
Il principale rischio tecnologico riguarda la riservatezza dei dati. Lo sviluppo dell'AI ha permesso la raccolta, lo storage e l'elaborazione delle informazioni su scala senza precedenti, rendendo così estremamente facile identificare, analizzare e utilizzare dati personali a basso costo senza il consenso altrui. Il rischio di perdita di privacy derivante dall'interazione con le tecnologie AI è una delle principali fonti di preoccupazione e sfiducia dei consumatori.
L'avvento dell'AI generativa, in cui l'AI manipola i tuoi dati per creare nuovi contenuti, rappresenta un ulteriore rischio per la riservatezza dei dati aziendali. Ad esempio, fornire a un sistema di AI generativa come Chat GPT dati aziendali per produrre un riepilogo di ricerca aziendale riservata significherebbe che un'impronta di dati rimarrebbe indelebile sul server cloud esterno dell'AI e accessibile alle richieste dei concorrenti.
Gli algoritmi di AI sono i parametri che ottimizzano i dati di addestramento che danno all'AI la capacità di fornire insight. Se i parametri di un algoritmo dovessero trapelare, una terza parte potrebbe essere in grado di copiare il modello, causando una perdita economica e di proprietà intellettuale al proprietario del modello. Inoltre, se i parametri del modello algoritmico di AI possono essere illegalmente modificati da un attaccante informatico, ciò causerà il deterioramento delle prestazioni del modello AI e comporterà conseguenze indesiderate.
La caratteristica di black-box dei sistemi di AI, in particolare dell'AI generativa, rende il processo decisionale degli algoritmi di AI difficile da comprendere. Fondamentalmente, il settore assicurativo è un settore regolamentato finanziariamente in cui la trasparenza, la spiegabilità e la revisionibilità degli algoritmi sono di fondamentale importanza per il regolatore.
Le prestazioni di un sistema AI dipendono fortemente dai dati da cui apprende. Se un sistema di AI viene addestrato su dati imprecisi, distorti o plagiati, fornirà risultati indesiderati anche se è tecnicamente ben progettato.
Sebbene un sistema di AI possa operare correttamente nella sua analisi, decisione, coordinamento e altre attività, esiste comunque il rischio di abusi. Lo scopo d'uso dell'operatore, il metodo di utilizzo, l'intervallo di utilizzo e così via potrebbero essere alterati o deviati e destinati a causare effetti avversi. Un esempio è il riconoscimento facciale utilizzato per tracciare illegalmente gli spostamenti delle persone.
L'eccessiva dipendenza dall'AI si verifica quando gli utenti iniziano ad accettare le raccomandazioni errate dell'AI, commettendo errori di commissione. Gli utenti hanno difficoltà a determinare i livelli di fiducia appropriati perché mancano di consapevolezza di cosa può fare l'AI, di come si esegue o di come funziona. Un corollario di questo rischio è l'indebolimento dello sviluppo delle competenze dell'utente dell'AI. Ad esempio, un perito la cui capacità di gestire nuove situazioni, o di considerare molteplici prospettive, è deteriorata o limitata solo ai casi a cui l'AI ha accesso.
I rischi posti dall'adozione dell'AI evidenziano la necessità di sviluppare un approccio di governance per mitigare i rischi tecnici e d'uso derivanti dall'adozione dell'AI.
Per mitigare il rischio d'uso si propone un approccio a tre fronti:
Per mitigare il rischio tecnologico, la governance IT dovrebbe essere ampliata per tenere conto dei seguenti aspetti:
La promessa e il potenziale dell'AI nel settore assicurativo risiedono nella sua capacità di trarre nuove intuizioni da set di dati attuariali e di sinistri sempre più grandi e complessi. Questi set di dati, combinati con dati comportamentali ed ecologici, creano il potenziale per i sistemi di AI che interrogano i database di trarre inferenze errate, preannunciando conseguenze assicurative reali.
Un'AI efficiente e precisa richiede una data science meticolosa. Richiede un'attenta cura delle rappresentazioni della conoscenza nel database, la scomposizione delle matrici dati per ridurre la dimensionalità e la pre-elaborazione dei set di dati per mitigare gli effetti di confusione di dati mancanti, ridondanti e outlier. Gli utenti dell'AI assicurativa devono essere consapevoli che i limiti di qualità dei dati input hanno implicazioni assicurative, riducendo potenzialmente l'accuratezza del modello analitico attuariale.
Con la continua maturazione delle tecnologie AI e l'espansione dei casi d'uso, gli assicuratori non dovrebbero rifuggire dalla tecnologia. Ma gli assicuratori dovrebbero contribuire con la loro esperienza nel settore assicurativo allo sviluppo delle tecnologie di AI. La loro capacità di informare sulla provenienza dei dati di input e di garantire la qualità dei dati contribuirà a un'applicazione sicura e controllata dell'AI nel settore assicurativo.
Mentre intraprendi il tuo viaggio verso l'AI nel settore assicurativo, esplora e crea casi assicurativi. Soprattutto, metti in atto un solido programma di governance dell'AI