Cos'è l'intelligenza artificiale (AI)?

Rendering 3D di un cervello circondato da icone di chat

Che cos'è l'AI? 

L'intelligenza artificiale (AI) è una tecnologia che consente ai computer e alle macchine di simulare l'apprendimento umano, la comprensione, la risoluzione dei problemi, il processo decisionale, la creatività e l'autonomia.

Le applicazioni e i dispositivi dotati di AI possono vedere e identificare gli oggetti. Sono in grado di comprendere e rispondere al linguaggio umano. Possono imparare da nuove informazioni ed esperienze. Possono fornire raccomandazioni dettagliate agli utenti e agli esperti. Possono agire in modo indipendente, sostituendo la necessità dell'intelligenza o dell'intervento umano (un classico esempio è un'auto a guida autonoma).

Ma nel 2024, la maggior parte dei ricercatori e dei professionisti dell'AI, e la maggior parte dei titoli dei giornali dedicati al tema si concentra sui progressi in AI generativa (gen AI), una tecnologia in grado di creare testi, immagini, video e altri contenuti originali. Per comprendere appieno l'AI generativa, è importante anzitutto comprendere le tecnologie su cui si basano gli strumenti di AI generativa: machine learning (ML) e deep learning.

Apprendimento automatico

Un modo semplice di pensare all'intelligenza artificiale è come una serie di concetti annidati o derivati emersi in più di 70 anni:

Diagramma che confronta diversi tipi di concetti di machine learning come caselle annidate in tonalità bluastre. In che modo intelligenza artificiale, machine learning, deep learning e AI generativa sono correlati.

Direttamente sottostante all'AI, abbiamo il machine learning, che prevede la creazione di modelli addestrando un algoritmo per fare previsioni o decisioni basate sui dati. Comprende un'ampia gamma di tecniche che consentono ai computer di apprendere e fare inferenze basate sui dati senza essere esplicitamente programmati per compiti specifici.

Esistono molti tipi di tecniche o algoritmi di machine learning, tra cui la regressione lineare, la regressione logistica, gli alberi decisionali, la foresta casuale, le macchine vettoriali di supporto (SVM), il k-nearest neighbor (KNN), il clustering e altro ancora. Ciascuno di questi approcci è adatto a diversi tipi di problemi e dati.

Ma uno dei tipi più popolari di algoritmo di machine learning è chiamato rete neurale (o rete neuronale artificiale). Le reti neurali sono modellate sulla struttura e sulla funzione del cervello umano. Una rete neurale è costituita da strati di nodi interconnessi (analoghi ai neuroni) che collaborano per elaborare e analizzare dati complessi. Le reti neurali sono adatte per attività che comportano l'identificazione di modelli e relazioni complesse in grandi quantità di dati.

La forma più semplice di machine learning è chiamata apprendimento supervisionato, che prevede l'uso di set di dati etichettati per addestrare algoritmi a classificare i dati o prevedere i risultati in modo accurato. Nell'apprendimento supervisionato, gli esseri umani abbinano a ogni esempio di addestramento un'etichetta di output. L'obiettivo è che il modello apprenda la mappatura tra input e output nei dati di addestramento, in modo da poter prevedere le etichette di nuovi dati non visualizzati.

Deep Learning

Il deep learning è un sottoinsieme del machine learning che utilizza reti neurali multistrato, chiamate reti neurali profonde, che simulano in modo più accurato il complesso potere decisionale del cervello umano.

Le reti neuronali profonde includono un livello di input, almeno tre (ma di solito centinaia) di livelli nascosti, e un livello di output, a differenza delle neural network utilizzate nei modelli classici di apprendimento automatico, che di solito hanno solo uno o due livelli nascosti.

Questi livelli multipli consentono l'apprendimento non supervisionato: possono automatizzare l'estrazione di funzionalità da set di dati di grandi dimensioni, non etichettati e non strutturati, e fare previsioni su ciò che rappresentano i dati.

Poiché il deep learning non richiede l'intervento umano, consente il machine learning su vasta scala. È adatto per l'elaborazione del linguaggio naturale (NLP), la computer vision e altre attività che implicano l'identificazione rapida e accurata di modelli e relazioni complessi in grandi quantità di dati. Il deep learning supporta la maggior parte delle applicazioni di intelligenza artificiale (AI) che utilizziamo nella nostra vita quotidiana.

Un diagramma che mostra come vengono elaborati i dati in una rete neurale profonda In una rete neurale profonda, più livelli di nodi possono estrarre significato e relazioni da grandi volumi di dati non strutturati e non etichettati.

Il deep learning consente inoltre:

  • Apprendimento semi-supervisionato, che combina l'apprendimento supervisionato e non supervisionato utilizzando dati etichettati e non etichettati per addestrare modelli AI per attività di classificazione e regressione.

  • L'apprendimento auto-supervisionato, che genera etichette implicite da dati non strutturati, piuttosto che basarsi su set di dati etichettati per i segnali di supervisione.

  • Apprendimento per rinforzo, che apprende per tentativi ed errori e funzioni di ricompensa anziché estraendo informazioni da schemi nascosti.

  • L'apprendimento per trasferimento, in cui le conoscenze acquisite tramite un'attività o un set di dati vengono utilizzate per migliorare le prestazioni del modello su un'altra attività correlata o su un set di dati diverso.

Generative AI

L'AI generativa, talvolta chiamata "gen AI", si riferisce a modelli di deep learning che possono creare contenuti originali complessi, come testi lunghi, immagini di alta qualità, video o audio realistici e altro, in risposta a un prompt o a una richiesta dell'utente.

Ad un livello superiore, i modelli generativi codificano una rappresentazione semplificata dei loro dati di addestramento e poi ne attingono per creare nuovi risultati simili, ma non identici, ai dati originali.

I modelli generativi sono stati utilizzati per anni in statistica per analizzare i dati numerici. Ma, nell'ultimo decennio, si sono evoluti per analizzare e generare tipologie di dati più complesse. Questa evoluzione ha coinciso con l'emergere di tre sofisticati tipi di modelli di deep learning:

  • Gli autoencoder variazionali o VAE, introdotti nel 2013, hanno permesso di creare modelli in grado di generare molteplici variazioni di contenuto in risposta a un prompt o a un'istruzione.

  • I modelli di diffusione, visti per la prima volta nel 2014, che aggiungono "rumore" alle immagini fino a renderle irriconoscibili, e poi rimuovono il rumore per generare immagini originali in risposta alle richieste.

  • Trasformatori (chiamati anche modelli di trasformatori), che vengono addestrati su dati sequenziati per generare sequenze estese di contenuti (come parole in frasi, forme in un'immagine, fotogrammi di un video o comandi nel codice software). I trasformatori sono alla base della maggior parte degli strumenti di AI generativa all'avanguardia di oggi, tra cui ChatGPT e GPT-4, Copilot, BERT, Bard e Midjourney.
AI Academy

Diventa un esperto di AI

Acquisisci le conoscenze necessarie per dare priorità agli investimenti nell'AI alla base della crescita aziendale. Inizia oggi stesso con la nostra AI Academy gratuita e guida il futuro dell'AI nella tua organizzazione.

Come funziona l'AI generativa

In generale, l'AI generativa opera in tre fasi:

  1. Addestramento, per creare un foundation model.
  2. Ottimizzazione, per adattare il modello a una specifica applicazione.
  3. Generazione, valutazione e ulteriore messa a punto, per migliorare la precisione.

Formazione

L'AI generativa parte da un "foundation model", un modello di deep learning che serve da base per diversi tipi di applicazioni di AI generativa.

Attualmente, i foundation model più comuni sono modelli linguistici di grandi dimensioni (LLM), creati per applicazioni di generazione di testo. Ma esistono anche foundation model per la generazione di immagini, video, suoni o musica e modelli di base multimodali in grado di supportare diversi tipi di contenuti.

Per creare un foundation model, i professionisti addestrano un algoritmo di deep learning su enormi volumi di dati grezzi, rilevanti, non strutturati e non etichettati, come terabyte o petabyte di testo, immagini o video dal web. L'addestramento produce una rete neurale di miliardi di parametri , rappresentazioni codificate delle entità, dei pattern e delle relazioni nei dati, in grado di generare contenuti in modo autonomo in risposta ai prompt. Questo è il foundation model.

Questo processo di formazione è intenso in termini di calcolo, richiede tempo ed è costoso. Esso richiede infatti migliaia di unità di elaborazione grafica (GPU) in cluster e settimane di elaborazione, e il costo si misura solitamente in milioni di dollari. I progetti di modelli di fondazione open source, come Llama-2 di Meta, permettono agli sviluppatori di GenAI di evitare questo passaggio e i relativi costi.

Ottimizzazione

Successivamente, il modello deve essere ottimizzato secondo un'attività di generazione di contenuti specifica. Ciò può essere fatto in vari modi, tra cui:

  • La messa a punto, che comporta l'importazione nel modello di dati etichettati specifici dell'applicazione (domande o prompt che l'applicazione probabilmente riceve e le corrispondenti risposte corrette nel formato desiderato).

  • Apprendimento per rinforzo con feedback umano (RLHF), in cui gli utenti umani valutano l'accuratezza o la pertinenza dei risultati del modello in modo che quest'ultimo possa migliorarsi da solo. Ciò può essere semplice come far digitare o rispondere alle correzioni di un chatbot o di un assistente virtuale.

Generazione, valutazione e ulteriore messa a punto

Gli sviluppatori e gli utenti valutano regolarmente gli output delle app di AI generativa e ne adattano ulteriormente il modello, anche una volta alla settimana, per una maggiore precisione o pertinenza. Il foundation model viene aggiornato molto meno frequentemente, forse ogni anno o 18 mesi.

Un'altra opzione per migliorare le prestazioni di un'app di gen AI è la Retrieval-augmented generation (RAG), una tecnica per estendere il foundation model all'utilizzo di fonti pertinenti al di fuori dei dati di addestramento per perfezionare i parametri ai fini di una maggiore precisione o pertinenza.

Agenti AI e agentic AI

Un agente AI è un programma AI autonomo, può eseguire attività e raggiungere obiettivi per conto di un utente o di un altro sistema senza intervento umano, progettando il proprio workflow e utilizzando gli strumenti disponibili (altre applicazioni o servizi).

L'agentic AI è un sistema composto da più agenti AI, i cui sforzi sono coordinati o orchestrati per portare a termine un compito più complesso o un obiettivo più grande di quello che qualsiasi singolo agente AI nel sistema potrebbe raggiungere.

A differenza dei chatbot e di altri modelli AI che operano entro vincoli predefiniti e richiedono l'intervento umano, gli agenti AI e l'agentic AI mostrano autonomia, comportamento orientato agli obiettivi e adattabilità alle mutevoli circostanze. I termini "agente" e "agentic" si riferiscono all'azione di questi modelli, ovvero alla loro capacità di agire in modo indipendente e intenzionale.

Un modo di pensare gli agenti è come un naturale passo successivo dopo l'AI generativa. I modelli AI si concentrano sulla creazione di contenuti basati su schemi appresi; gli agenti utilizzano quei contenuti per interagire tra loro e con altri strumenti per prendere decisioni, risolvere problemi e completare compiti. Ad esempio, un'app di gen AI potrebbe essere in grado di dire qual è il momento migliore per scalare il Monte Everest, dato il tuo programma di lavoro, ma un agente può dirtelo e poi utilizzare un servizio di viaggio online per prenotare il volo migliore e prenotare una camera nell'hotel più conveniente del Nepal.

I vantaggi dell'AI 

L'AI offre numerosi vantaggi in diversi settori e applicazioni. Alcuni dei benefici più frequentemente citati includono:

  • Automazione delle attività ripetitive.
  • Informazioni più dettagliate e più rapide dai dati.
  • Miglioramento a livello di processi decisionali.
  • Meno errori umani.
  • Disponibilità 24 ore su 24, 7 giorni su 7.
  • Riduzione dei rischi fisici.

Automazione di attività ripetitive

L'AI può automatizzare compiti di routine, ripetitivi e spesso noiosi, compresi quelli digitali come la raccolta, l'inserimento e l'elaborazione preventiva dei dati, e quelli fisici, come la raccolta delle scorte di magazzino e i processi di produzione. Questo tipo di automazione permette di dedicarsi a lavori di maggior valore e più creativi.

Processi decisionali migliori

Sia che venga utilizzata per il supporto decisionale o per un processo decisionale completamente automatizzato, l'AI consente previsioni più rapide e accurate e decisioni affidabili e basate sui dati. Combinata con l'automazione, l'AI consente alle aziende di cogliere le opportunità e rispondere alle crisi nel momento in cui emergono, in tempo reale e senza l'intervento umano.

Riduzione degli errori umani

L'AI può ridurre gli errori umani in vari modi: guidando le persone attraverso le fasi corrette di un processo, segnalando potenziali errori prima che si verifichino e automatizzando completamente i processi senza l'intervento umano. Ciò è particolarmente importante in settori come quello sanitario dove, ad esempio, la robotica chirurgica guidata dall'intelligenza artificiale consente una precisione costante.

Gli algoritmi di apprendimento automatico possono migliorare continuamente la loro precisione e ridurre ulteriormente gli errori man mano che sono esposti a più dati e "imparano" dall'esperienza.

Disponibilità e coerenza 24 ore su 24

L'AI è sempre attiva, disponibile 24 ore su 24 e offre prestazioni costanti ogni volta. Strumenti come i chatbot AI o gli assistenti virtuali possono alleggerire le richieste di personale per il servizio clienti o l'assistenza. In altre applicazioni, come la lavorazione dei materiali o le linee di produzione, l'AI può aiutare a mantenere costanti la qualità del lavoro e i livelli di output quando viene utilizzata per completare attività ripetitive o noiose.

Riduzione dei rischi fisici

Automatizzando i lavori pericolosi, come il controllo degli animali, la manipolazione di esplosivi, le operazioni in acque oceaniche profonde, ad alta quota o nello spazio esterno, l'AI può eliminare la necessità di mettere i lavoratori umani a rischio di lesioni o conseguenze peggiori. Anche se non sono ancora state perfezionate, le auto a guida autonoma e altri veicoli offrono il potenziale per ridurre il rischio di lesioni ai passeggeri.

Casi d'uso dell'AI 

Le applicazioni dell'AI nel mondo reale sono molteplici. Ecco solo un piccolo esempio di casi d'uso in vari settori per illustrarne il potenziale:

Esperienza, assistenza e supporto del cliente

Le aziende possono implementare chatbot e assistenti virtuali basati sull'AI per gestire le richieste dei clienti, i ticket di supporto e altro ancora. Questi strumenti utilizzano l'elaborazione del linguaggio naturale (NLP) e le funzionalità di AI generativa per comprendere e rispondere alle domande dei clienti sullo stato degli ordini, sui dettagli del prodotto e sulle politiche di reso.

I chatbot e gli assistenti virtuali offrono un supporto sempre attivo, forniscono risposte più rapide alle domande frequenti (FAQ), consentono agli agenti umani di concentrarsi su attività di livello superiore e offrono ai clienti un servizio più rapido e coerente.

Rilevamento delle frodi

Gli algoritmi di machine learning e deep learning possono analizzare i modelli di transazione e segnalare anomalie, come spese insolite o posizioni di accesso, che indicano transazioni fraudolente. Ciò consente alle organizzazioni di rispondere più rapidamente a potenziali frodi e di limitarne l'impatto, offrendo a se stesse e ai clienti una maggiore tranquillità.

Marketing personalizzato

I rivenditori, le banche e altre società rivolte ai clienti possono utilizzare l'intelligenza artificiale per creare esperienze personalizzate e campagne di marketing che soddisfino i clienti, migliorino le vendite e prevengano il tasso di abbandono. Sulla base dei dati relativi alla cronologia degli acquisti e ai comportamenti dei clienti, gli algoritmi di deep learning possono consigliare prodotti e servizi che i clienti potrebbero desiderare, e persino generare testi personalizzati e offerte speciali per singoli clienti in tempo reale.

Risorse umane e recruiting

Le piattaforme di recruiting basate sull'intelligenza artificiale possono semplificare le assunzioni esaminando i curriculum, abbinando i candidati alle descrizioni dei lavori e persino conducendo colloqui preliminari utilizzando l'analisi video. Questi e altri strumenti possono ridurre drasticamente la montagna di scartoffie amministrative associate alla selezione di un gran numero di candidati. Possono, inoltre, ridurre i tempi di risposta e di assunzione, migliorando l'esperienza dei candidati, indipendentemente dal fatto che ottengano o meno il lavoro.

Sviluppo e modernizzazione di applicazioni

Gli strumenti di generazione di codice AI e gli strumenti di automazione possono snellire le attività di codifica ripetitive associate allo sviluppo delle applicazioni e accelerare la migrazione e la modernizzazione (riformattazione e replatorming) delle applicazioni legacy su scala. Questi strumenti possono accelerare le attività, aiutare a garantire la coerenza del codice e ridurre gli errori.

Manutenzione predittiva

I modelli di machine learning possono analizzare i dati provenienti da sensori, dispositivi Internet of Things (IoT) e tecnologia operativa (OT) per stabilire quando sarà necessaria la manutenzione e prevedere i malfunzionamenti delle apparecchiature prima che si verifichino. La manutenzione preventiva basata sull'intelligenza artificiale aiuta a prevenire i tempi di inattività e consente di anticipare i problemi della supply chain prima che si ripercuotano sui profitti.

Sfide e rischi dell’intelligenza artificiale 

Le organizzazioni si stanno dando da fare per utilizzare al meglio le ultime tecnologie di AI e capitalizzarne i numerosi benefici. Questa rapida adozione è necessaria, ma l'adozione e il mantenimento dei workflow dell'AI comportano sfide e rischi.

Rischi relativi ai dati

I sistemi di AI si basano su set di dati che potrebbero essere vulnerabili all'avvelenamento, alla manomissione, alla distorsione dei dati o agli attacchi informatici che possono portare a violazioni dei dati. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità dei dati e implementando sicurezza e disponibilità in tutto il ciclo di vita dell'AI, dallo sviluppo all'addestramento, fino all'implementazione e alla post-implementazione.

Rischi relativi al modello

Gli attori delle minacce possono prendere di mira i modelli AI a scopo di furto, reverse engineering o manipolazione non autorizzata. Gli autori di un attacco possono compromettere l'integrità di un modello manomettendo l'architettura, i pesi o i parametri, ovvero i componenti fondamentali che determinano il comportamento, la precisione e le prestazioni di un modello.

Rischi operativi

Come tutte le tecnologie, anche i modelli sono suscettibili a rischi operativi come la deriva dei modelli, le distorsioni e le interruzioni nella struttura di governance. Se non affrontati, questi rischi possono portare a malfunzionamenti del sistema e vulnerabilità della cybersecurity di cui gli attori delle minacce potrebbero poi approfittare.

Rischi etici e legali

Se le organizzazioni non danno priorità alla sicurezza e all'etica durante lo sviluppo e l'implementazione dei sistemi di AI, rischiano di commettere delle violazioni della privacy e di generare risultati distorti. Ad esempio, dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni potrebbero rafforzare gli stereotipi di genere o razziali e creare modelli AI che favoriscono alcuni gruppi demografici rispetto ad altri.

Etica e governance dell'AI 

L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'AI riducendone al contempo i rischi e gli esiti negativi. I principi etici dell'AI vengono applicati tramite un sistema di governance dell'AI costituito da guardrail che aiutano a garantire la sicurezza e l'etica degli strumenti e dei sistemi di AI.

La governance dell'AI comprende meccanismi di supervisione atti a gestire i rischi. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori, utenti, responsabili politici ed etici, al fine di garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.

Ecco i valori comuni associati all'etica dell'AI e all' AI responsabile:

Spiegabilità e interpretabilità

Con l'avanzare della tecnologia AI, per gli esseri umani diventa sempre più difficile comprendere e risalire al modo in cui l'algoritmo ha ottenuto un determinato risultato. L'AI spiegabile è un insieme di processi e metodi che consente agli utenti umani di interpretare, comprendere e ritenere affidabili i risultati e gli output creati dagli algoritmi.

Equità e inclusione

Sebbene l'apprendimento automatico, per sua natura, sia una forma di discriminazione statistica, la discriminazione diventa discutibile quando pone gruppi privilegiati in vantaggio sistematico e alcuni gruppi non privilegiati in svantaggio sistematico, causando potenzialmente vari danni. Per favorire l'equità, i professionisti possono cercare di ridurre al minimo i bias algoritmici nella raccolta dei dati e nella progettazione dei modelli e creare team più diversificati e inclusivi.

Robustezza e sicurezza

L'AI robusta gestisce in modo efficace condizioni eccezionali, come anomalie nell'input o attacchi dannosi, senza causare danni involontari. È inoltre costruita per resistere alle interferenze intenzionali e non intenzionali proteggendo dalle vulnerabilità esposte.

Responsabilità e trasparenza

Le organizzazioni devono implementare responsabilità chiare e strutture di governance per lo sviluppo, l'implementazione e i risultati dei sistemi di IA. Inoltre, agli utenti dovrebbe essere consentito di vedere come funziona un servizio AI, valutarne la funzionalità e comprendere i suoi punti di forza e i suoi limiti. Una maggiore trasparenza fornisce informazioni ai consumatori di AI per capire meglio come è stato creato il modello o il servizio di AI.

Privacy e conformità

Molti framework normativi, tra cui il GDPR, impongono alle organizzazioni di attenersi a determinati principi di privacy quando elaborano le informazioni personali. È fondamentale essere in grado di proteggere i modelli di AI che potrebbero contenere informazioni personali, di controllare quali dati vengono inseriti nel modello e di costruire sistemi adattabili che possano adattarsi ai cambiamenti della normativa e dell'atteggiamento nei confronti dell'etica dell'AI.

AI debole e AI forte 

Al fine di contestualizzare l'uso dell'AI a vari livelli di complessità e sofisticazione, i ricercatori hanno definito diversi tipi di AI che si riferiscono al suo livello di sofisticazione:

AI debole: nota anche come "AI ristretta", definisce i sistemi di AI progettati per eseguire un compito specifico o una serie di compiti. Gli esempi potrebbero includere app "intelligenti" per l'assistente vocale, come Alexa di Amazon, Siri di Apple, un chatbot sui social media o i veicoli autonomi promessi da Tesla.

Intelligenza artificiale forte: nota anche come "intelligenza artificiale generale" (AGI) o "AI generale", possiede la capacità di comprendere, apprendere e applicare le conoscenze in un'ampia gamma di attività a un livello pari o superiore all'intelligenza umana. Questo livello di AI è attualmente teorico e nessun sistema di AI conosciuto si avvicina a questo livello di sofisticazione. I ricercatori sostengono che, se l'AGI è possibile, richiede un aumento sostanziale della potenza di calcolo. Nonostante i recenti progressi nello sviluppo dell'AI, i sistemi di AI dotati di coscienza autonoma della fantascienza rimangono saldamente in quel regno.

Storia dell'AI 

L'idea di una "macchina che pensa" risale all'antica Grecia. Dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'AI sono i seguenti:

1950
Alan Turing pubblica Computing Machinery and Intelligence. In questo articolo, Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il "padre dell'informatica", pone la seguente domanda: "Le macchine possono pensare?".

Da lì, offre un test, ora noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere una risposta testuale umana da quella del computer. Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, oltre ad essere un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.

1956
John McCarthy conia il termine “intelligenza artificiale” in occasione della prima conferenza sull’AI al Dartmouth College. (McCarthy avrebbe inventato successivamente il linguaggio LISP). Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma informatico di AI funzionante.

1967
Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori. Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro le future iniziative di ricerca sulle reti neurali.

1980
Le reti neurali, che utilizzano un algoritmo di retropropagazione per l'addestramento, sono diventate ampiamente utilizzate nelle applicazioni di AI.

1995
Stuart Russell e Peter Norvig pubblicano Artificial Intelligence: A Modern Approach, che diventa uno dei principali manuali di studio sull'AI. In questa sede approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione.

1997
IBM® Deep Blue batte l'allora campione del mondo di scacchi Garry Kasparov in una partita a scacchi (e rivincita).

2004
John McCarthy scrive un articolo, What Is Artificial Intelligence?, e propone una definizione spesso citata di AI. A questo punto, è iniziata l'era dei big data e del cloud computing, che consentirà alle organizzazioni di gestire un patrimonio di dati sempre più ampio, che un giorno verrà utilizzato per addestrare modelli di AI. 

2011
IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy! Inoltre, in questo periodo, la data science inizia a emergere come disciplina popolare.

2015
Il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.

2016
Il programma AlphaGo di DeepMind, supportato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite. La vittoria è significativa considerando il numero enorme di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo soli quattro mosse). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.

2022
L'aumento dei modelli di linguaggio di grandi dimensioni o LLM, come ChatGPT di OpenAI, crea un enorme cambiamento nelle prestazioni dell'AI e nel suo potenziale di generare valore aziendale. Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di deep learning su grandi quantità di dati.

2024
Le ultime tendenze AI indicano una continua rinascita dell'AI. I modelli multimodali in grado di accettare più tipi di dati come input offrono esperienze più ricche e affidabili. Questi modelli combinano funzionalità di computer vision, riconoscimento delle immagini e riconoscimento vocale NLP. Anche i modelli più piccoli stanno facendo passi da gigante in un'epoca di rendimenti decrescenti con modelli massicci dotati di un numero elevato di parametri.

Autori

Cole Stryker

Staff Editor, AI Models

IBM Think

Eda Kavlakoglu

Business Development + Partnerships

IBM Research

Soluzioni correlate
IBM® watsonx.ai

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e una minima quantità di dati.

Esplora watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda con l'esperienza leader di settore e il portfolio di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Consulenza e servizi per l'intelligenza artificiale (AI)

I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.

Esplora i servizi AI
Prossimi passi

Attraverso l'AI, IBM Concert scopre insight di importanza chiave sulle operazioni e fornisce raccomandazioni specifiche per migliorare le applicazioni. Scopri come Concert può migliorare il tuo business.

  1. Esplora Concert
  2. Esplora le soluzioni di automazione dei processi aziendali