Cos'è l'intelligenza artificiale (AI)?
L'intelligenza artificiale (AI) è una tecnologia che consente ai computer e alle macchine di simulare l'apprendimento umano, la comprensione, la risoluzione dei problemi, il processo decisionale, la creatività e l'autonomia.
Le applicazioni e i dispositivi dotati di AI possono vedere e identificare gli oggetti. Sono in grado di comprendere e rispondere al linguaggio umano. Possono imparare da nuove informazioni ed esperienze. Possono fornire raccomandazioni dettagliate agli utenti e agli esperti. Possono agire in modo indipendente, sostituendo la necessità dell'intelligenza o dell'intervento umano (un classico esempio è un'auto a guida autonoma).
Ma nel 2024, la maggior parte dei ricercatori e dei professionisti dell'AI, e la maggior parte dei titoli dei giornali dedicati al tema si concentra sui progressi in AI generativa (gen AI), una tecnologia in grado di creare testi, immagini, video e altri contenuti originali. Per comprendere appieno l'AI generativa, è importante anzitutto comprendere le tecnologie su cui si basano gli strumenti di AI generativa: machine learning (ML) e deep learning.
Un modo semplice di pensare all'intelligenza artificiale è come una serie di concetti annidati o derivati emersi in più di 70 anni:
Direttamente sottostante all'AI, abbiamo il machine learning, che prevede la creazione di modelli addestrando un algoritmo per fare previsioni o decisioni basate sui dati. Comprende un'ampia gamma di tecniche che consentono ai computer di apprendere e fare inferenze basate sui dati senza essere esplicitamente programmati per compiti specifici.
Esistono molti tipi di tecniche o algoritmi di machine learning, tra cui la regressione lineare, la regressione logistica, gli alberi decisionali, la foresta casuale, le macchine vettoriali di supporto (SVM), il k-nearest neighbor (KNN), il clustering e altro ancora. Ciascuno di questi approcci è adatto a diversi tipi di problemi e dati.
Ma uno dei tipi più popolari di algoritmo di machine learning è chiamato rete neurale (o rete neuronale artificiale). Le reti neurali sono modellate sulla struttura e sulla funzione del cervello umano. Una rete neurale è costituita da strati di nodi interconnessi (analoghi ai neuroni) che collaborano per elaborare e analizzare dati complessi. Le reti neurali sono adatte per attività che comportano l'identificazione di modelli e relazioni complesse in grandi quantità di dati.
La forma più semplice di machine learning è chiamata apprendimento supervisionato, che prevede l'uso di set di dati etichettati per addestrare algoritmi a classificare i dati o prevedere i risultati in modo accurato. Nell'apprendimento supervisionato, gli esseri umani abbinano a ogni esempio di addestramento un'etichetta di output. L'obiettivo è che il modello apprenda la mappatura tra input e output nei dati di addestramento, in modo da poter prevedere le etichette di nuovi dati non visualizzati.
Il deep learning è un sottoinsieme del machine learning che utilizza reti neurali multistrato, chiamate reti neurali profonde, che simulano in modo più accurato il complesso potere decisionale del cervello umano.
Le reti neuronali profonde includono un livello di input, almeno tre (ma di solito centinaia) di livelli nascosti, e un livello di output, a differenza delle neural network utilizzate nei modelli classici di apprendimento automatico, che di solito hanno solo uno o due livelli nascosti.
Questi livelli multipli consentono l'apprendimento non supervisionato: possono automatizzare l'estrazione di funzionalità da set di dati di grandi dimensioni, non etichettati e non strutturati, e fare previsioni su ciò che rappresentano i dati.
Poiché il deep learning non richiede l'intervento umano, consente il machine learning su vasta scala. È adatto per l'elaborazione del linguaggio naturale (NLP), la computer vision e altre attività che implicano l'identificazione rapida e accurata di modelli e relazioni complessi in grandi quantità di dati. Il deep learning supporta la maggior parte delle applicazioni di intelligenza artificiale (AI) che utilizziamo nella nostra vita quotidiana.
Il deep learning consente inoltre:
L'AI generativa, talvolta chiamata "gen AI", si riferisce a modelli di deep learning che possono creare contenuti originali complessi, come testi lunghi, immagini di alta qualità, video o audio realistici e altro, in risposta a un prompt o a una richiesta dell'utente.
Ad un livello superiore, i modelli generativi codificano una rappresentazione semplificata dei loro dati di addestramento e poi ne attingono per creare nuovi risultati simili, ma non identici, ai dati originali.
I modelli generativi sono stati utilizzati per anni in statistica per analizzare i dati numerici. Ma, nell'ultimo decennio, si sono evoluti per analizzare e generare tipologie di dati più complesse. Questa evoluzione ha coinciso con l'emergere di tre sofisticati tipi di modelli di deep learning:
In generale, l'AI generativa opera in tre fasi:
L'AI generativa parte da un "foundation model", un modello di deep learning che serve da base per diversi tipi di applicazioni di AI generativa.
Attualmente, i foundation model più comuni sono modelli linguistici di grandi dimensioni (LLM), creati per applicazioni di generazione di testo. Ma esistono anche foundation model per la generazione di immagini, video, suoni o musica e modelli di base multimodali in grado di supportare diversi tipi di contenuti.
Per creare un foundation model, i professionisti addestrano un algoritmo di deep learning su enormi volumi di dati grezzi, rilevanti, non strutturati e non etichettati, come terabyte o petabyte di testo, immagini o video dal web. L'addestramento produce una rete neurale di miliardi di parametri , rappresentazioni codificate delle entità, dei pattern e delle relazioni nei dati, in grado di generare contenuti in modo autonomo in risposta ai prompt. Questo è il foundation model.
Questo processo di formazione è intenso in termini di calcolo, richiede tempo ed è costoso. Esso richiede infatti migliaia di unità di elaborazione grafica (GPU) in cluster e settimane di elaborazione, e il costo si misura solitamente in milioni di dollari. I progetti di modelli di fondazione open source, come Llama-2 di Meta, permettono agli sviluppatori di GenAI di evitare questo passaggio e i relativi costi.
Successivamente, il modello deve essere ottimizzato secondo un'attività di generazione di contenuti specifica. Ciò può essere fatto in vari modi, tra cui:
Gli sviluppatori e gli utenti valutano regolarmente gli output delle app di AI generativa e ne adattano ulteriormente il modello, anche una volta alla settimana, per una maggiore precisione o pertinenza. Il foundation model viene aggiornato molto meno frequentemente, forse ogni anno o 18 mesi.
Un'altra opzione per migliorare le prestazioni di un'app di gen AI è la Retrieval-augmented generation (RAG), una tecnica per estendere il foundation model all'utilizzo di fonti pertinenti al di fuori dei dati di addestramento per perfezionare i parametri ai fini di una maggiore precisione o pertinenza.
Un agente AI è un programma AI autonomo, può eseguire attività e raggiungere obiettivi per conto di un utente o di un altro sistema senza intervento umano, progettando il proprio workflow e utilizzando gli strumenti disponibili (altre applicazioni o servizi).
L'agentic AI è un sistema composto da più agenti AI, i cui sforzi sono coordinati o orchestrati per portare a termine un compito più complesso o un obiettivo più grande di quello che qualsiasi singolo agente AI nel sistema potrebbe raggiungere.
A differenza dei chatbot e di altri modelli AI che operano entro vincoli predefiniti e richiedono l'intervento umano, gli agenti AI e l'agentic AI mostrano autonomia, comportamento orientato agli obiettivi e adattabilità alle mutevoli circostanze. I termini "agente" e "agentic" si riferiscono all'azione di questi modelli, ovvero alla loro capacità di agire in modo indipendente e intenzionale.
Un modo di pensare gli agenti è come un naturale passo successivo dopo l'AI generativa. I modelli AI si concentrano sulla creazione di contenuti basati su schemi appresi; gli agenti utilizzano quei contenuti per interagire tra loro e con altri strumenti per prendere decisioni, risolvere problemi e completare compiti. Ad esempio, un'app di gen AI potrebbe essere in grado di dire qual è il momento migliore per scalare il Monte Everest, dato il tuo programma di lavoro, ma un agente può dirtelo e poi utilizzare un servizio di viaggio online per prenotare il volo migliore e prenotare una camera nell'hotel più conveniente del Nepal.
L'AI offre numerosi vantaggi in diversi settori e applicazioni. Alcuni dei benefici più frequentemente citati includono:
L'AI può automatizzare compiti di routine, ripetitivi e spesso noiosi, compresi quelli digitali come la raccolta, l'inserimento e l'elaborazione preventiva dei dati, e quelli fisici, come la raccolta delle scorte di magazzino e i processi di produzione. Questo tipo di automazione permette di dedicarsi a lavori di maggior valore e più creativi.
Sia che venga utilizzata per il supporto decisionale o per un processo decisionale completamente automatizzato, l'AI consente previsioni più rapide e accurate e decisioni affidabili e basate sui dati. Combinata con l'automazione, l'AI consente alle aziende di cogliere le opportunità e rispondere alle crisi nel momento in cui emergono, in tempo reale e senza l'intervento umano.
L'AI può ridurre gli errori umani in vari modi: guidando le persone attraverso le fasi corrette di un processo, segnalando potenziali errori prima che si verifichino e automatizzando completamente i processi senza l'intervento umano. Ciò è particolarmente importante in settori come quello sanitario dove, ad esempio, la robotica chirurgica guidata dall'intelligenza artificiale consente una precisione costante.
Gli algoritmi di apprendimento automatico possono migliorare continuamente la loro precisione e ridurre ulteriormente gli errori man mano che sono esposti a più dati e "imparano" dall'esperienza.
L'AI è sempre attiva, disponibile 24 ore su 24 e offre prestazioni costanti ogni volta. Strumenti come i chatbot AI o gli assistenti virtuali possono alleggerire le richieste di personale per il servizio clienti o l'assistenza. In altre applicazioni, come la lavorazione dei materiali o le linee di produzione, l'AI può aiutare a mantenere costanti la qualità del lavoro e i livelli di output quando viene utilizzata per completare attività ripetitive o noiose.
Automatizzando i lavori pericolosi, come il controllo degli animali, la manipolazione di esplosivi, le operazioni in acque oceaniche profonde, ad alta quota o nello spazio esterno, l'AI può eliminare la necessità di mettere i lavoratori umani a rischio di lesioni o conseguenze peggiori. Anche se non sono ancora state perfezionate, le auto a guida autonoma e altri veicoli offrono il potenziale per ridurre il rischio di lesioni ai passeggeri.
Le applicazioni dell'AI nel mondo reale sono molteplici. Ecco solo un piccolo esempio di casi d'uso in vari settori per illustrarne il potenziale:
Le aziende possono implementare chatbot e assistenti virtuali basati sull'AI per gestire le richieste dei clienti, i ticket di supporto e altro ancora. Questi strumenti utilizzano l'elaborazione del linguaggio naturale (NLP) e le funzionalità di AI generativa per comprendere e rispondere alle domande dei clienti sullo stato degli ordini, sui dettagli del prodotto e sulle politiche di reso.
I chatbot e gli assistenti virtuali offrono un supporto sempre attivo, forniscono risposte più rapide alle domande frequenti (FAQ), consentono agli agenti umani di concentrarsi su attività di livello superiore e offrono ai clienti un servizio più rapido e coerente.
Gli algoritmi di machine learning e deep learning possono analizzare i modelli di transazione e segnalare anomalie, come spese insolite o posizioni di accesso, che indicano transazioni fraudolente. Ciò consente alle organizzazioni di rispondere più rapidamente a potenziali frodi e di limitarne l'impatto, offrendo a se stesse e ai clienti una maggiore tranquillità.
I rivenditori, le banche e altre società rivolte ai clienti possono utilizzare l'intelligenza artificiale per creare esperienze personalizzate e campagne di marketing che soddisfino i clienti, migliorino le vendite e prevengano il tasso di abbandono. Sulla base dei dati relativi alla cronologia degli acquisti e ai comportamenti dei clienti, gli algoritmi di deep learning possono consigliare prodotti e servizi che i clienti potrebbero desiderare, e persino generare testi personalizzati e offerte speciali per singoli clienti in tempo reale.
Le piattaforme di recruiting basate sull'intelligenza artificiale possono semplificare le assunzioni esaminando i curriculum, abbinando i candidati alle descrizioni dei lavori e persino conducendo colloqui preliminari utilizzando l'analisi video. Questi e altri strumenti possono ridurre drasticamente la montagna di scartoffie amministrative associate alla selezione di un gran numero di candidati. Possono, inoltre, ridurre i tempi di risposta e di assunzione, migliorando l'esperienza dei candidati, indipendentemente dal fatto che ottengano o meno il lavoro.
Gli strumenti di generazione di codice AI e gli strumenti di automazione possono snellire le attività di codifica ripetitive associate allo sviluppo delle applicazioni e accelerare la migrazione e la modernizzazione (riformattazione e replatorming) delle applicazioni legacy su scala. Questi strumenti possono accelerare le attività, aiutare a garantire la coerenza del codice e ridurre gli errori.
I modelli di machine learning possono analizzare i dati provenienti da sensori, dispositivi Internet of Things (IoT) e tecnologia operativa (OT) per stabilire quando sarà necessaria la manutenzione e prevedere i malfunzionamenti delle apparecchiature prima che si verifichino. La manutenzione preventiva basata sull'intelligenza artificiale aiuta a prevenire i tempi di inattività e consente di anticipare i problemi della supply chain prima che si ripercuotano sui profitti.
Le organizzazioni si stanno dando da fare per utilizzare al meglio le ultime tecnologie di AI e capitalizzarne i numerosi benefici. Questa rapida adozione è necessaria, ma l'adozione e il mantenimento dei workflow dell'AI comportano sfide e rischi.
I sistemi di AI si basano su set di dati che potrebbero essere vulnerabili all'avvelenamento, alla manomissione, alla distorsione dei dati o agli attacchi informatici che possono portare a violazioni dei dati. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità dei dati e implementando sicurezza e disponibilità in tutto il ciclo di vita dell'AI, dallo sviluppo all'addestramento, fino all'implementazione e alla post-implementazione.
Gli attori delle minacce possono prendere di mira i modelli AI a scopo di furto, reverse engineering o manipolazione non autorizzata. Gli autori di un attacco possono compromettere l'integrità di un modello manomettendo l'architettura, i pesi o i parametri, ovvero i componenti fondamentali che determinano il comportamento, la precisione e le prestazioni di un modello.
Come tutte le tecnologie, anche i modelli sono suscettibili a rischi operativi come la deriva dei modelli, le distorsioni e le interruzioni nella struttura di governance. Se non affrontati, questi rischi possono portare a malfunzionamenti del sistema e vulnerabilità della cybersecurity di cui gli attori delle minacce potrebbero poi approfittare.
Se le organizzazioni non danno priorità alla sicurezza e all'etica durante lo sviluppo e l'implementazione dei sistemi di AI, rischiano di commettere delle violazioni della privacy e di generare risultati distorti. Ad esempio, dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni potrebbero rafforzare gli stereotipi di genere o razziali e creare modelli AI che favoriscono alcuni gruppi demografici rispetto ad altri.
L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'AI riducendone al contempo i rischi e gli esiti negativi. I principi etici dell'AI vengono applicati tramite un sistema di governance dell'AI costituito da guardrail che aiutano a garantire la sicurezza e l'etica degli strumenti e dei sistemi di AI.
La governance dell'AI comprende meccanismi di supervisione atti a gestire i rischi. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori, utenti, responsabili politici ed etici, al fine di garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.
Ecco i valori comuni associati all'etica dell'AI e all' AI responsabile:
Con l'avanzare della tecnologia AI, per gli esseri umani diventa sempre più difficile comprendere e risalire al modo in cui l'algoritmo ha ottenuto un determinato risultato. L'AI spiegabile è un insieme di processi e metodi che consente agli utenti umani di interpretare, comprendere e ritenere affidabili i risultati e gli output creati dagli algoritmi.
Sebbene l'apprendimento automatico, per sua natura, sia una forma di discriminazione statistica, la discriminazione diventa discutibile quando pone gruppi privilegiati in vantaggio sistematico e alcuni gruppi non privilegiati in svantaggio sistematico, causando potenzialmente vari danni. Per favorire l'equità, i professionisti possono cercare di ridurre al minimo i bias algoritmici nella raccolta dei dati e nella progettazione dei modelli e creare team più diversificati e inclusivi.
L'AI robusta gestisce in modo efficace condizioni eccezionali, come anomalie nell'input o attacchi dannosi, senza causare danni involontari. È inoltre costruita per resistere alle interferenze intenzionali e non intenzionali proteggendo dalle vulnerabilità esposte.
Le organizzazioni devono implementare responsabilità chiare e strutture di governance
per lo sviluppo, l'implementazione e i risultati dei sistemi di IA.
Inoltre, agli utenti dovrebbe essere consentito di vedere come funziona un servizio AI,
valutarne la funzionalità e comprendere i suoi punti di forza e
i suoi limiti. Una maggiore trasparenza fornisce informazioni ai consumatori di AI
per capire meglio come è stato creato il modello o il servizio di AI.
Molti framework normativi, tra cui il GDPR, impongono alle organizzazioni di attenersi a determinati principi di privacy quando elaborano le informazioni personali. È fondamentale essere in grado di proteggere i modelli di AI che potrebbero contenere informazioni personali, di controllare quali dati vengono inseriti nel modello e di costruire sistemi adattabili che possano adattarsi ai cambiamenti della normativa e dell'atteggiamento nei confronti dell'etica dell'AI.
Al fine di contestualizzare l'uso dell'AI a vari livelli di complessità e sofisticazione, i ricercatori hanno definito diversi tipi di AI che si riferiscono al suo livello di sofisticazione:
AI debole: nota anche come "AI ristretta", definisce i sistemi di AI progettati per eseguire un compito specifico o una serie di compiti. Gli esempi potrebbero includere app "intelligenti" per l'assistente vocale, come Alexa di Amazon, Siri di Apple, un chatbot sui social media o i veicoli autonomi promessi da Tesla.
Intelligenza artificiale forte: nota anche come "intelligenza artificiale generale" (AGI) o "AI generale", possiede la capacità di comprendere, apprendere e applicare le conoscenze in un'ampia gamma di attività a un livello pari o superiore all'intelligenza umana. Questo livello di AI è attualmente teorico e nessun sistema di AI conosciuto si avvicina a questo livello di sofisticazione. I ricercatori sostengono che, se l'AGI è possibile, richiede un aumento sostanziale della potenza di calcolo. Nonostante i recenti progressi nello sviluppo dell'AI, i sistemi di AI dotati di coscienza autonoma della fantascienza rimangono saldamente in quel regno.
L'idea di una "macchina che pensa" risale all'antica Grecia. Dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'AI sono i seguenti:
1950
Alan Turing pubblica Computing Machinery and Intelligence. In questo articolo, Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il "padre dell'informatica", pone la seguente domanda: "Le macchine possono pensare?".
Da lì, offre un test, ora noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere una risposta testuale umana da quella del computer. Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, oltre ad essere un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.
1956
John McCarthy conia il termine “intelligenza artificiale” in occasione della prima conferenza sull’AI al Dartmouth College. (McCarthy avrebbe inventato successivamente il linguaggio LISP). Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma informatico di AI funzionante.
1967
Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori. Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro le future iniziative di ricerca sulle reti neurali.
1980
Le reti neurali, che utilizzano un algoritmo di retropropagazione per l'addestramento, sono diventate ampiamente utilizzate nelle applicazioni di AI.
1995
Stuart Russell e Peter Norvig pubblicano Artificial Intelligence: A Modern Approach, che diventa uno dei principali manuali di studio sull'AI. In questa sede approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione.
1997
IBM® Deep Blue batte l'allora campione del mondo di scacchi Garry Kasparov in una partita a scacchi (e rivincita).
2004
John McCarthy scrive un articolo, What Is Artificial Intelligence?, e propone una definizione spesso citata di AI. A questo punto, è iniziata l'era dei big data e del cloud computing, che consentirà alle organizzazioni di gestire un patrimonio di dati sempre più ampio, che un giorno verrà utilizzato per addestrare modelli di AI.
2011
IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy! Inoltre, in questo periodo, la data science inizia a emergere come disciplina popolare.
2015
Il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.
2016
Il programma AlphaGo di DeepMind, supportato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite. La vittoria è significativa considerando il numero enorme di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo soli quattro mosse). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.
2022
L'aumento dei modelli di linguaggio di grandi dimensioni o LLM, come ChatGPT di OpenAI, crea un enorme cambiamento nelle prestazioni dell'AI e nel suo potenziale di generare valore aziendale. Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di deep learning su grandi quantità di dati.
2024
Le ultime tendenze AI indicano una continua rinascita dell'AI. I modelli multimodali in grado di accettare più tipi di dati come input offrono esperienze più ricche e affidabili. Questi modelli combinano funzionalità di computer vision, riconoscimento delle immagini e riconoscimento vocale NLP. Anche i modelli più piccoli stanno facendo passi da gigante in un'epoca di rendimenti decrescenti con modelli massicci dotati di un numero elevato di parametri.