La storia dell'AI

21 ottobre 2024

 

 

Autori

Tim Mucci

Writer, Gather

La storia dell'intelligenza artificiale

Gli umani hanno sognato di creare macchine pensanti fin dai tempi antichi. Il folklore e i tentativi storici di costruire dispositivi programmabili riflettono questa ambizione di lunga data, mentre la narrativa abbonda delle possibilità offerte dalle macchine intelligenti, immaginandone i benefici e pericoli. Non c'è da meravigliarsi che quando OpenAI ha rilasciato la prima versione di GPT (Generative Pretrained Transformer), abbia rapidamente attirato l'attenzione di tutti, segnando un passo significativo verso la realizzazione di questo antico sogno.

GPT-3 è stato un momento fondamentale per l'AI grazie alle sue dimensioni senza precedenti, con 175 miliardi di parametri, che gli hanno permesso di eseguire un'ampia gamma di compiti in linguaggio naturale senza un'ampia messa a punto. Questo modello è stato addestrato utilizzando i big data, che gli consentono di generare testo simile a quello umano e di intrattenere conversazioni. Aveva anche la capacità di eseguire il few-shot learning, migliorando significativamente la sua versatilità, e ha dimostrato l'utilità nelle applicazioni di AI commerciali come chatbot e assistenti virtuali.

Oggi, l'AI sta diventando sempre più parte della vita quotidiana, dai social media ai processi di lavoro, e man mano che la tecnologia migliora, la sua influenza continua a crescere. Per capire quali direzioni può prendere la tecnologia, è utile capire come siamo arrivati fin qui. Ecco i principali sviluppi dell'AI in ordine cronologico:

Prima del 20° secolo

1726

Il romanzo satirico di Jonathan Swift "I viaggi di Gulliver" introduce il concetto di Motore, un grande marchingegno meccanico utilizzato per aiutare gli studiosi a generare nuove idee, frasi e libri.  

Gli studiosi girano le manopole della macchina, che fa ruotare blocchi di legno su cui sono incise delle parole. Si dice che la macchina crei nuove idee e trattati filosofici combinando parole in diverse disposizioni:

"Tutti sapevano quanto sia faticoso il metodo consueto per giungere alle arti e alle scienze; mentre, grazie al suo espediente, la persona più ignorante, a un prezzo ragionevole e con un po’ di lavoro fisico, potrebbe scrivere libri di filosofia, poesia, politica, diritto, matematica e teologia, senza il minimo aiuto del genio o dello studio."

- I viaggi di Gulliver di Jonathan Swift (1726)

La satira di Swift anticipa il concetto di generazione algoritmica di testo, che ora è diventata realtà con l'AI moderna. I modelli AI possono produrre testo coerente combinando parole e idee sulla base di algoritmi sottostanti, in modo simile a quello a cui è destinato il Motore fittizio di Swift.

1900–1950

1914

L'ingegnere spagnolo Leonardo Torres y Quevedo presenta la prima macchina per giocare a scacchi, El Ajedrecista , all'Esposizione Universale di Parigi. Utilizzava elettromagneti ed era completamente automatizzata. El Ajedrecista ha giocato automaticamente una semplice finale di scacchi di re e torre contro re. Una volta impostata, la macchina non richiedeva alcun intervento umano: eseguiva autonomamente mosse di scacchi consentite e se l'avversario umano faceva una mossa non consentita, la macchina segnalava l'errore. Se la macchina era posta in una posizione vincente, era in grado di dare scacco matto all'avversario umano in modo affidabile.

1921

Un'opera teatrale intitolata "Rossum's Universal Robots" (R.U.R, "I Robot Universali di Rossum") viene messa in scena a Londra. Nell'opera di Karel Čapek, la parola "robot" viene utilizzata per la prima volta in inglese. In ceco, la parola "robota" è associata al lavoro obbligatorio o forzato svolto dai contadini in un sistema feudale. Grazie al successo dell'opera, il termine "robot" ottiene rapidamente un riconoscimento internazionale, diventando lo standard per indicare gli esseri meccanici o artificiali creati per svolgere dei compiti. Sebbene i robot di Čapek siano organici, la parola viene associata a macchine meccaniche, umanoidi, progettate per eseguire lavori monotoni e non qualificati.

1939

John Vincent Atanasoff, professore di fisica e matematica presso l'Iowa State College, e il suo studente laureato Clifford Berry creano l'Atanasoff-Berry Computer (ABC) grazie a una sovvenzione di 650 dollari presso l'Iowa State University. Il computer ABC è considerato uno dei primi computer elettronici digitali e una pietra miliare nel campo dell'informatica americana.

Sebbene mai completamente operativo o ampiamente utilizzato, l'ABC ha introdotto diversi concetti chiave destinati a diventare fondamentali nello sviluppo dell'informatica moderna.

A differenza dei precedenti dispositivi di calcolo, che si basavano su sistemi decimali, l'ABC utilizza il sistema binario (1 e 0) per rappresentare i dati, diventando lo standard per i computer. L'ABC è anche uno dei primi computer a utilizzare circuiti elettronici per il calcolo invece di sistemi meccanici o elettromeccanici, consentendo calcoli più rapidi e affidabili. L'ABC separava il data storage (memoria) dall'unità di elaborazione (operazioni logiche), un principio ancora seguito nella moderna architettura dei computer. Esso utilizzava condensatori per memorizzare i dati e poteva gestire fino a 30 equazioni simultanee.

L'ABC utilizzava circa 300 tubi a vuoto per le operazioni logiche, rendendolo molto più veloce dei precedenti calcolatori meccanici. I tubi a vuoto, sebbene ingombranti e soggetti a guasti, sono uno sviluppo chiave nell'informatica elettronica. L'ABC pesava più di 300 chili e poteva risolvere fino a 29 equazioni lineari simultanee.

1943

Warren S. McCulloch e Walter Pitts pubblicano "A Logical Calculus of the Ideas Immanent in Nervous Activity" nel Bulletin of Mathematical Biophysics. 1 È una delle opere fondamentali nella storia delle neuroscienze e dell'AI. L'articolo getta le basi per l'idea che il cervello può essere inteso come un sistema computazionale e introduce il concetto di reti neurali artificiali, ora una tecnologia chiave nell'AI moderna. Questa idea ispira sistemi informatici che simulano funzioni e processi simili a quelli del cervello, in particolare attraverso reti neurali e deep learning.

1950

L'importante articolo del matematico britannico Alan Turing "Computing Machinery and Intelligence" viene pubblicato su Mind. 2 Questo articolo è un testo fondamentale sull'AI e risponde alla domanda: "Le macchine possono pensare?" L'approccio di Turing ha gettato le basi per future discussioni sulla natura delle macchine pensanti e su come la loro intelligenza potrebbe essere misurata tramite il "gioco dell'imitazione", ora noto come Test di Turing. Turing ha introdotto un esperimento mentale per evitare di rispondere direttamente alla domanda "Le macchine possono pensare?" Invece, ha riformulato il problema in una forma più specifica e operativa: una macchina può mostrare un comportamento intelligente indistinguibile da quello di un essere umano?

Diventato un concetto centrale nell'AI, il test di Turing è un modo per misurare l'intelligenza di una macchina valutando la capacità della stessa di imitare la conversazione e il comportamento umani in modo convincente.

1950–1980

1951

Marvin Minsky e Dean Edmunds realizzano la prima rete neurale artificiale. Lo Stochastic Neural Analog Reinforcement Calculator (SNARC) è un primo tentativo di modellare i processi di apprendimento nel cervello umano, in particolare attraverso l'apprendimento per rinforzo.

Lo SNARC è progettato per simulare il comportamento di un topo in un labirinto. L'idea è che la macchina imiti il modo in cui gli animali imparano attraverso premi e punizioni, regolando il comportamento nel tempo in base al feedback. Si tratta di un computer analogico che utilizza una rete di 3.000 tubi a vuoto e pesi sinaptici per simulare 40 unità simili a neuroni.

1952

Allen Newell, matematico e informatico, e Herbert A. Simon, politologo, sviluppano programmi importanti come Logic Theorist e General Problem Solver, che sono tra i primi a imitare le capacità umane di risoluzione dei problemi utilizzando metodi computazionali.

1955

Il termine "intelligenza artificiale" è stato coniato per la prima volta in una proposta di workshop intitolata "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence",3 inviata da John McCarthy del Dartmouth College, Marvin Minsky dell'Università di Harvard, Nathaniel Rochester da IBM e Claude Shannon dei Bell Telephone Laboratories.

Il seminario, che si svolse tra luglio e agosto dell'anno successivo, è generalmente considerato la nascita ufficiale del fiorente campo dell'AI.

1957

Frank Rosenblatt, psicologo e informatico, sviluppa il Perceptron, una prima rete neurale artificiale che consente il riconoscimento di modelli basati su una rete di apprendimento informatico a due strati. Il Perceptron introduce il concetto di classificatore binario in grado di apprendere dai dati regolando i pesi dei suoi input attraverso algoritmi di apprendimento. Sebbene limitato alla risoluzione di problemi linearmente separabili, ha gettato le basi per i futuri sviluppi delle reti neurali e del machine learning.

1958

John McCarthy sviluppa il linguaggio di programmazione Lisp4, acronimo di List Processing. Il Lisp è stato sviluppato a partire dal lavoro di McCarthy sulla formalizzazione degli algoritmi e della logica matematica, particolarmente influenzato dal suo desiderio di creare un linguaggio di programmazione in grado di gestire informazioni simboliche. Il Lisp diventa presto il linguaggio di programmazione più popolare utilizzato nella ricerca sull'AI.

1959

Arthur Samuel è il pioniere del concetto di machine learning, avendo sviluppato un programma per computer che ne migliora le prestazioni a dama nel tempo. Samuel dimostra che un computer può essere programmato per seguire regole predefinite e "imparare" dall'esperienza, giocando alla fine meglio del programmatore. Il suo lavoro segna un passo importante verso l'insegnamento alle macchine a migliorare attraverso l'esperienza, coniando nel processo il termine "machine learning".

 

Oliver Selfridge pubblica il suo articolo "Pandemonium: A paradigm for learning".5 Il suo modello di pandemonio proponeva un sistema in cui vari "demoni" (unità di elaborazione) lavorano insieme per riconoscere i modelli. I demoni competono per identificare le caratteristiche nei dati che non sono stati pre-programmati, simulando l'apprendimento non supervisionato. Il modello di Selfridge è un primo contributo al riconoscimento dei modelli, influenzando gli sviluppi futuri della visione artificiale e dell'AI.

 

John McCarthy introduce il concetto di Advice Taker nel suo articolo "Programs with Common Sense".6 Questo programma mira a risolvere i problemi manipolando le frasi in logica formale, gettando le basi per il ragionamento nell'AI. McCarthy immagina un sistema in grado di comprendere le istruzioni, ragionare con conoscenze di buon senso e imparare dall'esperienza, con l'obiettivo a lungo termine di sviluppare un'AI in grado di adattarsi e apprendere con la stessa efficacia degli umani. Questo concetto aiuta a dare forma alle prime ricerche sulla rappresentazione della conoscenza e sul ragionamento automatico.

1965

Il filosofo Hubert Dreyfus pubblica "Alchemy and Artificial Intelligence, "7 sostenendo che la mente umana opera in modo fondamentalmente diverso dai computer. Prevede i limiti al progresso dell'AI dovuti alle sfide legate alla replica dell'intuizione e della comprensione umane. La sua critica è influente nell'innescare dibattiti sui limiti filosofici e pratici dell'AI.

 

I.J. Good scrive "Speculations Concerning the First Ultraintelligent Machine"8, affermando notoriamente che una volta creata, una macchina ultra-intelligente può progettare sistemi ancora più intelligenti, rendendola l'ultima invenzione dell'umanità, a condizione che rimanga controllabile. Le sue idee prefigurano i dibattiti moderni sulla superintelligenza AI e sui suoi rischi.

 

Joseph Weizenbaum sviluppa ELIZA,9, un programma che imita la conversazione umana rispondendo agli input digitati in linguaggio naturale. Sebbene Weizenbaum intenda mostrare la superficialità della comunicazione uomo-computer, è sorpreso dal numero di utenti che hanno attribuito emozioni simili a quelle umane al programma, sollevando questioni etiche sull'intelligenza artificiale e sull'interazione umana.

 

Edward Feigenbaum, Bruce Buchanan, Joshua Lederberg e Carl Djerassi hanno sviluppato DENDRAL presso la Stanford University.10 Si tratta del primo sistema avanzato ad automatizzare il processo decisionale dei chimici organici simulando la formazione di ipotesi. Il successo di DENDRAL segna un progresso nell'AI, dimostrando come i sistemi possano svolgere attività specializzate altrettanto bene o meglio degli esperti umani.

1966

Sviluppato alla SRI alla fine degli anni '60, Shakey è il primo robot mobile in grado di ragionare sulle proprie azioni, combinando percezione, pianificazione e risoluzione dei problemi.11 In un articolo del 1970 sulla rivista Life, Marvin Minsky ha previsto che entro tre/otto anni l'AI avrebbe raggiunto l'intelligenza generale di un essere umano medio. I risultati di Shakey segnano una pietra miliare nella robotica e nell'AI, anche se l'ambiziosa tempistica di Minsky si rivela eccessivamente ottimistica.

1969

Arthur Bryson e Yu-Chi Ho introducono la retropropagazione, un metodo per ottimizzare i sistemi dinamici a più stadi. Sebbene originariamente sviluppato per i sistemi di controllo, questo algoritmo diventa fondamentale per l'addestramento di reti neurali multistrato. La retropropagazione ha guadagnato importanza solo negli anni 2000 e 2010 con i progressi nella potenza di calcolo, consentendo l'ascesa del deep learning.

 

Marvin Minsky e Seymour Papert pubblicano Perceptrons: An Introduction to Computational Geometry,12, che analizza criticamente i limiti delle reti neurali a strato singolo. Il loro lavoro è spesso accusato di ridurre l'interesse per le reti neurali. Nell'edizione del 1988, sostengono che il progresso si era già fermato a causa della mancanza di comprensione teorica, nonostante i numerosi esperimenti con i percettroni a metà degli anni '60.

1970

Terry Winograd crea SHRDLU, un innovativo programma di natural language understanding.13 SHRDLU può interagire con gli utenti in un inglese semplice per manipolare oggetti in un mondo virtuale a blocchi, dimostrando il potenziale dei computer di comprendere e rispondere a istruzioni complesse. Si tratta di un primo risultato nell'elaborazione del linguaggio naturale, sebbene il suo successo sia limitato ad ambienti specifici e altamente strutturati. Le funzionalità di SHRDLU evidenziano sia le promesse che le sfide nel raggiungere una più ampia comprensione del linguaggio dell'AI.

1972

Sviluppato presso la Stanford University, MYCIN è uno dei primi sistemi avanzati creati per assistere i medici nella diagnosi di infezioni batteriche e nella raccomandazione di trattamenti antibiotici.14 MYCIN utilizza un approccio basato su regole per simulare il processo decisionale di esperti umani e crea una piattaforma per lo sviluppo di sistemi medici di AI. Tuttavia, a causa di preoccupazioni etiche e legali, non viene mai implementato nella pratica clinica.

1973

James Lighthill presenta un rapporto d'importanza critica al British Science Research Council sui progressi della ricerca sull'AI, concludendo che l'AI non è riuscita a mantenere le sue promesse iniziali.15 Lighthill sostiene che il settore non ha generato progressi significativi, portando a una drastica riduzione dei finanziamenti del governo per l'AI nel Regno Unito. Questo report ha contribuito all'inizio del primo AI winter16, un periodo di calo dell'interesse e degli investimenti nella ricerca sull'AI.

1980–2000

1980

WABOT-217, un robot umanoide sviluppato presso la Waseda University in Giappone, viene costruito a partire dal 1980 e completato intorno al 1984. Segue il WABOT-1, che era stato costruito nel 1973. Mentre WABOT-1 si concentrava sulla mobilità e la comunicazione di base, WABOT-2 è più specializzato, progettato specificamente come robot musicista. Può leggere gli spartiti musicali con gli "occhi" della sua fotocamera, conversare con gli esseri umani, suonare musica su un organo elettronico e persino accompagnare un cantante umano. Questo progetto rappresenta un passo significativo verso lo sviluppo di robot umanoidi e AI in grado di svolgere compiti complessi e simili a quelli umani, come l'espressione artistica.

1982

Il Giappone lancia il Fifth Generation Computer Systems Project (FGCS) con l'obiettivo di sviluppare computer in grado di gestire il ragionamento logico e la risoluzione dei problemi, portando avanti la ricerca sull'AI. Questo ambizioso progetto mira a costruire macchine in grado di eseguire attività come l'elaborazione del linguaggio naturale e i sistemi esperti. Sebbene interrotto nel 1992, il progetto FGCS e i suoi risultati hanno contribuito notevolmente allo sviluppo del campo della programmazione logica.

1984

Alla riunione annuale dell'Association for the Advancement of Artificial Intelligence (AAAI), Roger Schank e Marvin Minsky mettono in guardia dall'imminente "AI winter", o inverno dell'AI, prevedendo che le aspettative gonfiate riguardo all'AI porteranno presto a un crollo degli investimenti e della ricerca, simile al calo dei finanziamenti avvenuto a metà degli anni '70. La loro previsione si avvera nel giro di tre anni, in quanto l'interesse per l'AI diminuisce a causa delle promesse non mantenute, con una conseguente riduzione dei finanziamenti e un rallentamento dei progressi. Questo periodo è noto come il secondo AI winter.

L'avvertimento di Schank e Minsky evidenzia la natura ciclica dell'interesse per l'AI, in cui da esplosioni di ottimismo si passa alla disillusione quando la tecnologia non riesce a soddisfare le aspettative di investitori e pubblico.

1986

David Rumelhart, Geoffrey Hinton e Ronald Williams pubblicano l'articolo fondamentale "Learning representations by back-propagating errors", in cui descrivono l'algoritmo di retropropagazione.18 Questo metodo consente alle reti neurali di regolare i loro pesi interni "retropropagando" l'errore attraverso la rete, migliorando la capacità delle reti multistrato di apprendere schemi complessi. L'algoritmo di retropropagazione diventa una base per il moderno deep learning, suscitando un rinnovato interesse per le reti neurali e superando alcuni limiti evidenziati in precedenti ricerche sull'AI. Questa scoperta si basa sul lavoro del 1969 di Arthur Bryson e Yu-Chi Ho applicando l'algoritmo di retropropagazione specificamente alle reti neurali, superando le precedenti limitazioni nell'addestramento delle reti multistrato.

Questa svolta rende le reti neurali artificiali utilizzabili per applicazioni pratiche e apre le porte alla rivoluzione del deep learning degli anni 2000 e 2010.

1987

Durante il suo discorso di apertura a Educom, il CEO di Apple John Sculley presenta il video Knowledge Navigator, che immagina un futuro in cui gli agenti digitali intelligenti aiutano gli utenti ad accedere a grandi quantità di informazioni su sistemi in rete.19 Questo concetto visionario raffigura un professore che interagisce con un assistente esperto e ad attivazione vocale in grado di recuperare dati, rispondere a domande e visualizzare informazioni da ciò che ora riconosciamo come internet. Il video ha previsto molti elementi delle moderne tecnologie come gli assistenti AI, i database di conoscenze in rete e il nostro mondo digitale interconnesso.

1988

Judea Pearl pubblica Probabilistic Reasoning in Intelligent Systems, rivoluzionando il modo in cui l'AI elabora le informazioni in condizioni di incertezza.20 Questo lavoro introduce le reti bayesiane, un formalismo per la rappresentazione di modelli di probabilità complessi e gli algoritmi per eseguire l'inferenza al loro interno. I metodi di Pearl hanno permesso ai sistemi di intelligenza artificiale di prendere decisioni ragionate in ambienti incerti, influenzando campi ben oltre l'AI, tra cui l'ingegneria e le scienze naturali. I suoi contributi sono stati riconosciuti con il suo Turing Award 2011, che ha citato il suo ruolo nella creazione della "base rappresentazionale e computazionale" per il moderno ragionamento probabilistico nell'AI.21

 

Rollo Carpenter ha sviluppato Jabberwacky22, uno dei primi chatbot progettati per simulare conversazioni simili a quelle umane, interessanti, divertenti e umoristiche. A differenza dei sistemi basati su regole, Jabberwacky impara dalle interazioni umane per generare un dialogo più naturale, aprendo la strada ai successivi modelli di AI conversazionale. Questo chatbot è uno dei primi tentativi di creare un'intelligenza artificiale che imiti la conversazione umana spontanea e quotidiana attraverso l'apprendimento continuo dalle sue interazioni con gli utenti.

 

I ricercatori dell'IBM T.J. Watson Research Center pubblicano "A Statistical Approach to Language Translation", che segna un passaggio fondamentale dai metodi basati su regole a quelli probabilistici nella traduzione automatica.23 Questo approccio, esemplificato dal progetto Candide di IBM24, utilizza 2,2 milioni di coppie di frasi inglese-francese, provenienti principalmente dagli atti del Parlamento canadese. Questa nuova metodologia enfatizza l'apprendimento da modelli statistici nei dati piuttosto che il tentativo di comprendere o "capire" le lingue, riflettendo la tendenza più ampia verso l'apprendimento automatico che si basa sull'analisi di esempi noti. Questo modello probabilistico ha aperto la strada a molti progressi futuri nell'elaborazione del linguaggio naturale e nella traduzione automatica.

 

Marvin Minsky e Seymour Papert pubblicano un'edizione ampliata del loro libro del 1969 Perceptrons, una critica determinante delle prime reti neurali. Nel nuovo prologo, intitolato "A View from 1988", si è riflettuto sui lenti progressi nel campo dell'AI, osservando che molti ricercatori continuavano a ripetere gli errori del passato a causa della scarsa familiarità con le sfide precedenti.12 Si evidenzia la necessità di una comprensione teorica più approfondita, che mancava nella precedente ricerca sulle reti neurali. Si sottolineano le critiche originali pur riconoscendo gli approcci emergenti che in seguito avrebbero portato ai moderni progressi del deep learning.

1989

Yann LeCun e un team di ricercatori di AT&T Bell Labs hanno raggiunto una svolta applicando con successo l'algoritmo di retropropagazione a una rete neurale multistrato per riconoscere le immagini del codice postale scritte a mano.24 Questa è una delle prime applicazioni pratiche del deep learning che utilizza reti neurali convoluzionali. Nonostante l'hardware limitato dell'epoca, ci vogliono circa tre giorni per addestrare la rete, un miglioramento significativo rispetto ai tentativi precedenti. Il successo del sistema nel riconoscimento delle cifre scritte a mano, un compito chiave per l'automazione dei servizi postali, dimostra il potenziale delle reti neurali per le attività di riconoscimento delle immagini e ha gettato le basi per la crescita esplosiva del deep learning nei decenni successivi.

1993

L'autore di fantascienza e matematico Vernor Vinge pubblica il saggio "The Coming Technological Singularity", in cui prevede che nei prossimi 30 anni verrà creata un'intelligenza sovrumana, trasformando radicalmente la civiltà umana.25 Vinge sostiene che i progressi tecnologici, in particolare nell'AI, porteranno a un'esplosione di intelligenza (macchine che supereranno l'intelligenza umana) e alla fine dell'era umana come la conosciamo. Il suo saggio è determinante nel rendere popolare il concetto di "singolarità tecnologica", un momento in cui l'AI supererà il controllo umano, innescando un dibattito nelle comunità di AI, etica e futurismo.

Questa previsione continua a influenzare il dibattito riguardo ai potenziali impatti dell'AI e della superintelligenza, in particolare i rischi esistenziali e le considerazioni etiche relative alla creazione di macchine con un'intelligenza che va ben oltre le capacità umane.

1995

Richard Wallace sviluppa il chatbot A.L.I.C.E.26 (Artificial Linguistic Internet Computer Entity), basandosi sulle basi gettate dal programma ELIZA di Joseph Weizenbaum. A differenza di ELIZA, che si basava su risposte scritte per simulare una conversazione, A.L.I.C.E. utilizza il nuovo World Wide Web per raccogliere ed elaborare grandi quantità di dati in linguaggio naturale, consentendogli di intrattenere conversazioni più complesse e fluide. A.L.I.C.E. utilizza una tecnica di pattern-matching chiamata AIML (Artificial Intelligence Markup Language) per analizzare e generare risposte, che la rende più adattabile e scalabile rispetto ai suoi predecessori. Il lavoro di Wallace pone le basi per ulteriori progressi nell'intelligenza artificiale conversazionale, influenzando i moderni assistenti virtuali e chatbot.

1997

Sepp Hochreiter e Jürgen Schmidhuber introducono la Long Short-Term Memory (LSTM), un tipo di rete neurale ricorrente (RNN) progettata per superare i limiti delle RNN tradizionali, in particolare la loro incapacità di catturare efficacemente le dipendenze a lungo termine nei dati. Le reti LSTM sono ampiamente utilizzate in applicazioni quali il riconoscimento della scrittura, il riconoscimento vocale, l'elaborazione del linguaggio naturale e la previsione di serie temporali.

 

Deep Blue di IBM entra nella storia sconfiggendo il campione del mondo di scacchi in carica Garry Kasparov in un match di sei partite.27 Questa è la prima volta che un programma di scacchi per computer batte un campione del mondo con i controlli orari standard dei tornei di scacchi. La vittoria di Deep Blue ha dimostrato che i computer possono superare gli esseri umani in giochi altamente strategici, a lungo considerati un segno distintivo dell'intelligenza umana. La capacità della macchina di calcolare milioni di mosse al secondo, combinata con i progressi nella teoria dei giochi e nell'euristica, le consentono di superare Kasparov, consolidando il posto di Deep Blue nella storia dell'AI.

L'evento suscita anche un dibattito sulla futura relazione tra cognizione umana e AI, influenzando la ricerca successiva sull'AI in altri campi, come l'elaborazione del linguaggio naturale e i sistemi autonomi.

1998

Dave Hampton e Caleb Chung creano Furby, il primo animale domestico robotico domestico di grande successo.28 Furby è in grado di rispondere al tatto, al suono e alla luce e di "imparare" il linguaggio nel tempo, iniziando con la sua lingua, il Furbish, ma gradualmente "parlando" più inglese man mano che interagisce con gli utenti. La sua capacità di imitare l'apprendimento e di interagire con gli utenti lo rende un precursore di robot sociali più sofisticati, fondendo per la prima volta la robotica con l'intrattenimento in un prodotto di consumo.

 

Yann LeCun, Yoshua Bengio e i loro collaboratori pubblicano articoli influenti sull'applicazione delle reti neurali al riconoscimento della scrittura.29 Il loro lavoro si concentra sull'utilizzo di reti neurali convoluzionali per ottimizzare l'algoritmo di retropropagazione, rendendolo più efficace per l'addestramento di reti profonde. Perfezionando il processo di retropropagazione e dimostrando la potenza delle CNN per il riconoscimento di immagini e modelli, la ricerca di LeCun e Bengio ha posto le basi per le moderne tecniche di deep learning utilizzate oggi in un'ampia gamma di applicazioni AI.

2000–2020

2000

Cynthia Breazeal del MIT sviluppa Kismet, un robot progettato per interagire con gli esseri umani attraverso segnali emotivi e sociali.30 Kismet è dotato di telecamere, microfoni e tratti facciali espressivi, che gli consentono di percepire e rispondere alle emozioni umane come la felicità, la tristezza e la sorpresa. Questo sviluppo segna un progresso nella robotica sociale, esplorando come i robot possono interagire con gli esseri umani in modo più naturale.

2006

Geoffrey Hinton pubblica "Learning Multiple Layers of Representation", che riassume le principali scoperte nel deep learning e delinea come le reti neurali multistrato possono essere addestrate in modo più efficace.31 Il lavoro di Hinton si concentra sull'addestramento di reti con connessioni graduate per generare dati sensoriali piuttosto che limitarsi a classificarli. Questo approccio rappresenta un passaggio dalle reti neurali tradizionali a quello che oggi chiamiamo deep learning, consentendo alle macchine di apprendere complesse rappresentazioni gerarchiche dei dati.

2007

Fei-Fei Li e il suo team dell'Università di Princeton avviano il progetto ImageNet, creando uno dei più grandi e completi database di immagini annotate.32 ImageNet è progettato per supportare lo sviluppo di software di riconoscimento visivo degli oggetti fornendo milioni di immagini etichettate in migliaia di categorie. La scala e la qualità del set di dati consentono progressi nella ricerca sulla computer vision, in particolare nell'addestramento di modelli di deep learning per riconoscere e classificare gli oggetti nelle immagini.

2009

Rajat Raina, Anand Madhavan e Andrew Ng pubblicano "Large-scale Deep Unsupervised Learning using Graphics Processors", sostenendo che le unità di elaborazione grafica (GPU) possono superare di gran lunga le tradizionali CPU multi-core per le attività di deep learning.33 Dimostrano che la potenza computazionale superiore delle GPU può rivoluzionare l'applicabilità dei metodi di apprendimento profondo non supervisionato, consentendo ai ricercatori di addestrare modelli più estesi e complessi in modo più efficiente. Questo lavoro è fondamentale per accelerare l'adozione delle GPU nel deep learning, portando alle scoperte negli anni 2010 che alimentano le moderne applicazioni di intelligenza artificiale in campi come la computer vision e l'elaborazione del linguaggio naturale.

 

Gli informatici dell'Intelligent Information Laboratory della Northwestern University sviluppano Stats Monkey, un programma in grado di generare automaticamente notizie sportive senza l'intervento umano.34 Utilizzando le statistiche di gioco, Stats Monkey è in grado di creare narrazioni coerenti sulle partite di baseball, complete di riepiloghi, prestazioni dei giocatori e analisi.

2011

Watson di IBM, un computer avanzato che risponde a domande in linguaggio naturale, fa notizia gareggiando al quiz show Jeopardy! contro due dei campioni di maggior successo dello show, Ken Jennings e Brad Rutter, e sconfiggendoli.35 La capacità di Watson di elaborare e interpretare il linguaggio naturale e la sua vasta base di conoscenza gli consentono di rispondere a domande complesse in modo rapido e accurato. Questa vittoria evidenzia i progressi nella capacità dell'AI di comprendere e interagire con il linguaggio umano a un livello sofisticato.

 

Apple lancia Siri, un assistente virtuale integrato nel sistema operativo iOS. Siri è dotato di un'interfaccia utente in linguaggio naturale che consente agli utenti di interagire con i propri dispositivi tramite comandi vocali. Siri può eseguire attività come inviare messaggi, impostare promemoria, fornire suggerimenti e rispondere a domande utilizzando il machine learning per adattarsi alle preferenze e ai modelli vocali di ciascun utente. Questo sistema di riconoscimento vocale personalizzato e adattivo offre agli utenti un'esperienza personalizzata e segna un passo avanti nell'usabilità e nell'accessibilità degli assistenti basati su AI per gli utenti comuni.

2012

Jeff Dean e Andrew Ng conducono un esperimento utilizzando un'enorme rete neurale con 10 milioni di immagini non etichettate provenienti da video di YouTube.36 Durante l'esperimento, la rete, senza previa etichettatura, impara a riconoscere i modelli nei dati e "con nostro divertimento", un neurone diventa particolarmente sensibile alle immagini di gatti. Questa scoperta è una dimostrazione dell'apprendimento non supervisionato, che mostra come le reti neurali profonde possano apprendere autonomamente caratteristiche da grandi quantità di dati.

 

I ricercatori dell'Università di Toronto, guidati da Geoffrey Hinton, progettano una rete neurale convoluzionale che raggiunge un risultato rivoluzionario nella ImageNet Large Scale Visual Recognition Challenge.37 La loro CNN, nota come AlexNet, raggiunge un tasso di errore del 16%, un miglioramento sostanziale rispetto al miglior risultato dell'anno precedente del 25%. Questo risultato segna un punto di svolta per il deep learning nella computer vision, dimostrando che le CNN possono superare i metodi tradizionali di classificazione delle immagini se addestrate su set di dati di grandi dimensioni.

2016

AlphaGo di Google DeepMind ha sconfitto Lee Sedol, uno dei migliori giocatori di Go al mondo. Il Go, un gioco da tavolo complesso con un numero di mosse possibili superiore a quello degli atomi nell'universo, è stato a lungo considerato una sfida per l'AI.38 La vittoria per 4-1 di AlphaGo su Sedol è un momento rivoluzionario nell'AI, che mostra la potenza delle tecniche di deep learning per gestire compiti strategici altamente complessi che in precedenza andavano oltre le capacità dell'AI.

Hanson Robotics ha presentato Sophia, un robot umanoide altamente avanzato.39 Sophia può riconoscere i volti, stabilire un contatto visivo e tenere conversazioni utilizzando una combinazione di riconoscimento delle immagini e elaborazione del linguaggio naturale.

2017

I ricercatori del laboratorio Facebook Artificial Intelligence Research (FAIR) addestrano due chatbot a negoziare tra loro. Sebbene i chatbot siano programmati per comunicare in inglese, durante le loro conversazioni hanno iniziato a divergere dal linguaggio umano strutturato e a creare il proprio linguaggio abbreviato per comunicare in modo più efficiente.40 Questo sviluppo è inaspettato, poiché i bot ottimizzano la loro comunicazione senza l'intervento umano. L'esperimento viene interrotto per mantenere i bot in un linguaggio comprensibile all'uomo, ma l'evento evidenzia il potenziale dei sistemi AI di evolversi in modo autonomo e imprevedibile.

2020

OpenAI introduce GPT-3, un modello linguistico con 175 miliardi di parametri, che lo rendono uno dei modelli AI più grandi e sofisticati fino a oggi. GPT-3 dimostra la capacità di generare testi simili a quelli umani, intrattenere conversazioni, scrivere codice, tradurre lingue e generare scrittura creativa basata su prompt in linguaggio naturale. Essendo uno dei primi esempi di modello linguistico di grandi dimensioni (LLM), le enormi dimensioni e scalabilità di GPT gli hanno permesso di eseguire un'ampia varietà di compiti linguistici con un addestramento minimo o nullo specifica per compiti specifici. Questo esempio ha dimostrato il potenziale dell'AI per comprendere e produrre un linguaggio altamente coerente.

 

AlphaFold 2 di DeepMind compie una svolta nella biologia, prevedendo con precisione le strutture 3D delle proteine a partire dalle loro sequenze di aminoacidi. Questo risultato risolve un problema che ha confuso gli scienziati per decenni: capire come le proteine si ripiegano nelle loro forme tridimensionali uniche. L'elevata precisione di AlphaFold 2 nella previsione della struttura delle proteine ha implicazioni per la ricerca sulle malattie e lo sviluppo di farmaci, offrendo nuovi modi per comprendere i meccanismi molecolari alla base delle malattie e progettare nuove terapie in modo più efficiente.

2021 – Presente

2021

MUM (Multitask Unified Model), sviluppato da Google, è un potente modello AI progettato per migliorare l'esperienza di ricerca comprendendo e generando linguaggio in75 lingue. MUM è in grado di eseguire compiti in multitasking, analizzando contemporaneamente testo, immagini e video, consentendo di gestire query di ricerca più complesse e sfumate.41 A differenza dei modelli tradizionali, MUM è in grado di gestire input multimodali e fornire risposte complete e contestuali a domande sofisticate che coinvolgono più fonti di informazione.

 

Tesla lancia la versione Full Self-Driving (FSD) Beta, un sistema avanzato di assistenza alla guida volto a raggiungere una guida completamente autonoma. FSD Beta utilizza il deep learning e le reti neurali per muoversi in scenari di guida complessi come strade cittadine in tempo reale, autostrade e incroci. Consente ai veicoli Tesla di sterzare, accelerare e frenare autonomamente in condizioni specifiche, richiedendo la supervisione del conducente. FSD Beta di Tesla segna un passo avanti verso l'obiettivo dell'azienda di realizzare veicoli completamente autonomi, anche se le sfide normative e i problemi di sicurezza ostacolano il raggiungimento di una distribuzione diffusa della tecnologia di guida autonoma.

2021–2023

OpenAI lancia DALL-E, seguito da DALL-E 2 e DALL-E 3, modelli di AI generativa in grado di generare immagini altamente dettagliate a partire da descrizioni testuali. Questi modelli utilizzano il deep learning avanzato e l'architettura trasformativa per creare immagini complesse, realistiche e artistiche basate sull'input dell'utente. DALL-E 2 e 3 ampliano l'uso dell'AI nella creazione di contenuti visivi, consentendo agli utenti di trasformare le idee in immagini senza le tradizionali competenze di progettazione grafica.

2024

Febbraio

Google lancia Gemini 1.5 in versione beta limitata, un modello linguistico avanzato in grado di gestire lunghezze di contesto fino a 1 milione di token.42 Il modello è in grado di elaborare e comprendere grandi quantità di informazioni in un unico prompt, migliorando la sua capacità di mantenere il contesto in conversazioni e attività complesse su testo esteso. Gemini 1.5 rappresenta un notevole passo avanti nell'elaborazione del linguaggio naturale, fornendo capacità di memoria avanzate e comprensione contestuale su input lunghi.

 

OpenAI annuncia pubblicamente Sora, un modello text-to-video in grado di generare video della durata massima di un minuto a partire da descrizioni testuali.43 Questa innovazione amplia l'uso di contenuti generati dall'AI oltre le immagini statiche, consentendo agli utenti di creare clip video dinamici e dettagliati a partire da prompt. Si prevede che Sora aprirà nuove possibilità nella creazione di contenuti video.

 

StabilityAI annuncia Stable Diffusion 3, il suo ultimo modello text-to-image. Come Sora, Stable Diffusion 3 utilizza un'architettura simile per generare contenuti dettagliati e creativi da prompt di testo.44

 

Maggio

Google DeepMind presenta una nuova estensione di AlphaFold che aiuta a identificare il cancro e le malattie genetiche, offrendo uno strumento potente per la diagnostica genetica e la medicina personalizzata.45

 

IBM introduce la famiglia di modelli di AI generativa Granite come parte del suo portfolio di prodotti AI watsonx. Con una gamma di parametri compresa tra 3 e 34 miliardi, i modelli Granite sono progettati per attività come la generazione di codice, la previsione e l'elaborazione di documenti. Open-source e disponibili con licenza Apache 2.0, questi modelli sono leggeri, convenienti e personalizzabili, il che li rende ideali per un'ampia gamma di applicazioni aziendali.

 

Giugno

Apple annuncia Apple Intelligence, un'integrazione di ChatGPT nei nuovi iPhone e Siri.46 Questa integrazione consente a Siri di eseguire attività più complesse, intrattenere conversazioni più naturali e comprendere meglio ed eseguire comandi dettagliati.

 

Settembre

NotebookLM presenta DeepDive, una nuova AI multimodale in grado di trasformare i materiali sorgente in coinvolgenti presentazioni audio strutturate come un podcast.47 La capacità di DeepDive di analizzare e riassumere le informazioni provenienti da diversi formati, tra cui pagine web, testo, audio e video, apre nuove opportunità per la creazione di contenuti personalizzati e automatizzati su varie piattaforme. Questa funzionalità lo rende uno strumento versatile per la produzione multimediale e la formazione.

 

Le attuali tendenze dell'AI indicano nuove evoluzioni dell'AI generativa che opera su foundation model più piccoli ed efficienti e l'ascesa dell'agentic AI, in cui specifici modelli AI lavorano insieme per soddisfare le richieste degli utenti più velocemente. Più avanti nel futuro, i veicoli autonomi percorreranno le autostrade, l'AI multimodale creerà audio, video, testo e immagini in un'unica piattaforma e gli assistenti AI aiuteranno gli utenti a orientarsi nella loro vita personale e professionale.

Note a piè di pagina
  1. A logical calculus of the ideas immanent in nervous activity, springer.com, dicembre 1943
  2. Computing machinery and intelligence, Mind, ottobre 1950
  3. A proposal for the Dartmouth summer research project on artificial intelligence, Stanford.edu, 31 agosto 1955
  4. Lisp (progamming language), wikipedia.org
  5. Pandemonium: a paradigm for learning, aitopics.org
  6. Programs with common sense, stanford.edu
  7. Alchemy and artifical intelligence, rand.org, dicembre 1965
  8. Speculations concerning the first ultraintelligent machine, sciencedirect.com
  9. ELIZA, wikipedia.org
  10. Dendral, wikipedia.org
  11. Shakey the robot, sri.com
  12. Perceptrons: an introduction to computational geometry, MIT.edu
  13. SHRDLU, stanford.edu
  14. MYCIN: a knowledge-based program for infectious disease diagnosis, science.direct.com
  15. Artificial Intelligence: a general survey, chilton-computing.org.uk, luglio 1972
  16. AI winter, wikipedia.org
  17. WABOT, humanoid.waseda.ac.jp
  18. Learning representations by back-propagating errors, nature.com, 9 ottobre 1986
  19. Knowledge navigator, youtube.com, 29 aprile 2008
  20. Probabilistic reasoning in intelligent systems: networks of plausible inference, sciencedirect.com, 1988
  21. Judea Pearl Turing Award, amturing.amc.org
  22. Jabberwacky, wikipedia.org
  23. A statistical approach to language translation, acm.org, 22 agosto 1988
  24. Candide: a statistical machine translation system, aclanthology.org
  25. The coming technological singularity: how to survive in the post-human era, edoras.sdsu.edu, 1993
  26. A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), wikipedia.org
  27. Deep blue (chess computer), wikipedia.org
  28. Furby, wikipedia.org
  29. Gradient-based learning applied to document recognition, Stanford.edu, novembre 1998
  30. Kismet, mit.edu
  31. Learning multiple layers of representation, toronto.edu
  32. ImageNet, wikipedia.org
  33. Large-scale deep unsupervised learning using graphic processors, stanford.edu
  34. The robots are coming! Oh, they're here, nytimes.com, 19 ottobre 2009.
  35. Watson IBM invitational, jeopardy.com, 22 giugno 2015
  36. Using large-scale brain simulations for machine learning and A.I., blog.google, 26 giugno 2012
  37. ImageNet large scale visual recognition challenge 2012, image-net.org
  38. AlphaGo, wikipedia.org
  39. We talked to Sophia, youtube.com, 28 dicembre 2017
  40. Facebook's artificial intelligence robots shut down after they start talking to each other in their own language, independent.co.uk, 31 luglio 2017
  41. How will Google MUM affect your search ranking in 2024?, learn.g2.com. 7 agosto 2023
  42. Il nostro modello di nuova generazione: Gemini 1.5, blog.google, 15 febbraio 2024
  43. Sora, openai.com
  44. Stable diffusion 3, stability.ai, 22 febbraio 2024
  45. AlphaFold 3 predicts the structure and interactions of all of life’s molecules, blog.google, 8 maggio 2024
  46. Apple intelligence, apple.com, 10 giugno 2024
  47. NotebookLM now lets you listen to a conversation about your sources, blog.google. 11 settembre 2024

Newsletter Think

 

Gli ultimi insight in materia di AI e tecnologia di Think

Iscriviti oggi
Soluzioni correlate Foundation model in watsonx.ai

Esplora la libreria IBM di foundation model nel portfolio di watsonx per scalare in sicurezza l'AI generativa per la tua azienda

IBM Maximo Visual Inspection

La ibm maximo ispezione visiva è una piattaforma di computer vision no-code progettata per automatizzare i processi di ispezione visiva. Esplora risorse, una demo autoguidata, tour dei prodotti e descrizioni dettagliate delle soluzioni.

Servizi di consulenza per l'intelligenza artificiale (AI)

IBM® Consulting sta lavorando con clienti e partner globali per creare insieme il futuro dell'AI. Il nostro team globale e diversificato, composto da oltre 20.000 esperti di AI, ti aiuterà a progettare e scalare in modo rapido e sicuro soluzioni AI all'avanguardia e l'automazione in tutta la tua azienda. ​

Risorse

AI Academy IBM
Formazione sull'AI

Inizia ora

Combinazione di esperti
Podcast

Ascolta ora

Come affinare i risultati di Watson Visual Recognition utilizzando la preelaborazione
Blog

Registrati e scarica

Il futuro dell'AI è aperto
Blog

Scopri di più

Fai il passo successivo

Addestra, convalida, adatta e implementa i foundation model dell'AI generativa e le funzionalità di machine learning con IBM watsonx.ai, uno studio aziendale di ultima generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.

Esplora watsonx.ai Prenota una demo live