Che cos'è l'intelligenza artificiale generale (AGI)?

Profilo del cervello umano con diverse forme e colori

Autori

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

Che cos'è l'intelligenza artificiale generale (AGI)?

L'intelligenza artificiale generale (AGI) è una fase ipotetica dello sviluppo del machine learning (ML) in cui un sistema di intelligenza artificiale (AI) può eguagliare o superare le capacità cognitive degli esseri umani in qualsiasi attività. Rappresenta l'obiettivo fondamentale e astratto dello sviluppo dell'AI: la replica artificiale dell'intelligenza umana in una macchina o in un software.

L'AGI è stata esplorata attivamente sin dai primi giorni della ricerca sull'AI. Tuttavia, non c'è consenso all'interno della comunità accademica su cosa si qualificherebbe come AGI o su come raggiungerlo al meglio. Sebbene l'obiettivo generale dell'intelligenza di tipo umano sia abbastanza semplice, i dettagli sono sfumati e soggettivi. La ricerca dell'AGI comprende quindi lo sviluppo sia di un framework per comprendere l'intelligenza nelle macchine sia di modelli in grado di soddisfarlo.

La sfida è sia filosofica che tecnologica. Filosoficamente, una definizione formale di AGI richiede sia una definizione formale di "intelligenza", sia un accordo generale su come potrebbe manifestarsi nell'AI. Tecnologicamente, l'AGI richiede la creazione di modelli AI con un livello di sofisticazione e versatilità senza precedenti, metriche e test per verificare in modo affidabile la cognizione del modello e la potenza di calcolo necessaria per sostenerlo.

Da AI ristretta a AI generale

La nozione di intelligenza "generale" o AI generale, può essere meglio compresa in contrasto con l'AI ristretta: un termine che descrive efficacemente quasi tutte le AI attuali, la cui "intelligenza" è dimostrata solo in domini specializzati.

Il progetto di ricerca estiva di Dartmouth del 1956 sull'intelligenza artificiale, che riunì matematici e scienziati di istituzioni tra cui Dartmouth, IBM, Harvard e Bell Labs, è considerato l'origine del termine "intelligenza artificiale" Come descritto nella proposta, "lo studio [doveva] procedere sulla base della congettura che ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza possa essere descritta in modo così preciso da poter creare una macchina per simularla".

Questo fiorente campo dell'"AI" ha cercato di sviluppare una roadmap per le macchine in grado di Think da sole. Ma, nei decenni successivi, i progressi verso un'intelligenza artificiale simile a quella umana si sono rivelati inafferrabili.

Sono stati compiuti progressi molto più rilevanti nella ricerca di macchine informatiche che svolgono compiti specifici, che in genere richiedono un'intelligenza significativa negli esseri umani, come giocare a scacchi, effettuare la diagnostica sanitaria, la previsione o guidare le automobili. Ma questi modelli, ad esempio quelli che alimentano le auto a guida autonoma, dimostrano intelligenza solo all'interno dei loro domini specifici.

Nel 2007, il ricercatore di AI Ben Goertzel ha reso popolare il termine "intelligenza artificiale generale" (AGI), su suggerimento del cofondatore di DeepMind Shane Legg, in un influente libro con lo stesso nome. Contrariamente a quella che ha soprannominato "intelligenza artificiale ristretta", un'intelligenza artificiale generale sarebbe un nuovo tipo di intelligenza artificiale dotata, tra le altre, della "capacità di risolvere problemi generali in modo non limitato al dominio, nello stesso modo in cui può farlo un essere umano".

AGI, AI forte e superintelligenza artificiale

L'AGI è fortemente associata ad altri concetti di machine learning, spesso confusi o addirittura usati in modo intercambiabile con un'AI forte o superintelligenza artificiale. Sebbene questi concetti abbiano numerose aree di sovrapposizione, sono ciascuno una concezione distinta di AI a sé stante.

AGI e AI forte

L'"AI forte," un concetto discusso in modo prominente nell'opera del filosofo John Searle, si riferisce a un sistema di AI che dimostra coscienza e funge principalmente da controparte a un'AI debole. Sebbene l'AI forte sia generalmente analoga all'AGI (e l'AI debole è generalmente analoga all'AI ristretta), non sono semplici sinonimi l'una dell'altra.

In sostanza, mentre l'AI debole è semplicemente uno strumento che deve essere utilizzato da una mente cosciente, cioè un essere umano, l'intelligenza artificiale forte è essa stessa una mente cosciente. Sebbene in genere sia implicito che questa coscienza comporti un'intelligenza corrispondente uguale o superiore a quella degli esseri umani, l'AI forte non si occupa esplicitamente delle prestazioni relative in vari compiti. I due concetti sono spesso confusi perché la coscienza è generalmente considerata un prerequisito o una conseguenza dell'"intelligenza generale".

Nonostante le loro somiglianze, AGI e AI forte descrivono in definitiva concetti complementari, piuttosto che identici.

AGI e superintelligenza artificiale

La superintelligenza artificiale, come suggerisce il nome, costituisce un sistema di AI le cui funzionalità superano di gran lunga quelle degli esseri umani.

Vale la pena notare che questo concetto non presuppone necessariamente la superintelligenza "generale". Di questi 3 stadi di AI analoghi (AGI, AI forte e superintelligenza artificiale), la superintelligenza artificiale è l'unica che probabilmente è già stata raggiunta. Piuttosto che essere dominio della fantascienza, esistono modelli AI che dimostrano quella che si potrebbe giustamente chiamare superintelligenza, in quanto superano le prestazioni di qualsiasi essere umano nel suo compito specifico.

Ad esempio:

  • AlphaFold supera tutti gli scienziati umani nel prevedere la struttura 3D di una proteina a partire da una sequenza di amminoacidi.
  • Deep Blue di IBM ha sconfitto il campione del mondo Garry Kasparov a scacchi nel 1997.
  • IBM® Watson ha sconfitto Ken Jennings e Brad Rutter, campioni di Jeopardy!, nel 2013.
  • AlphaGo (e il suo modello successore AlphaZero) è considerato il più grande giocatore al mondo di Go.

Sebbene questi modelli possano rappresentare innovazioni nella superintelligenza AI, non hanno raggiunto l'intelligenza AI "generale", in quanto tali sistemi di intelligenza AI non possono apprendere autonomamente nuovi compiti o espandere le loro funzionalità di risoluzione dei problemi oltre il loro ambito strettamente definito.

Inoltre, vale la pena notare che la superintelligenza non è un prerequisito dell'AGI. In teoria, un sistema di intelligenza artificiale che dimostri una coscienza e un livello di intelligenza paragonabili a quelli di un essere umano medio rappresenterebbe sia l'AGI che un'AI forte ma non una superintelligenza artificiale.

Definizioni esistenti di intelligenza artificiale generale

Gli esperti non sono concordi su cosa esattamente debba qualificarsi come AGI, sebbene nel corso della storia dell'informatica siano state proposte molte definizioni che si concentrano generalmente sulla nozione astratta di intelligenza artificiale, piuttosto che sugli algoritmi specifici o sui modelli di machine learning che dovrebbero essere utilizzati per raggiungerla.

Nel 2023, un articolo di Google Deepmind ha intervistato la letteratura accademica esistente e ha identificato diverse categorie di framework per definire l'intelligenza artificiale generale:

  • Il test di Turing: macchine in grado di comportarsi in modo convincente come gli esseri umani
  • AI forte: sistemi dotati di coscienza
  • Analogie con il cervello umano
  • Prestazioni a livello umano nei compiti cognitivi
  • Capacità di apprendere nuovi compiti
  • Lavoro di valore economico
  • Funzionalità flessibili e generali
  • "Intelligenza artificiale capace" (ACI)

Il test di Turing

Alan Turing, una figura fondamentale nella storia dell'informatica teorica, pubblicò una delle prime e più influenti definizioni di intelligenza artificiale nel suo articolo del 1950 "Macchine calcolatrici e intelligenza". Il fulcro della sua tesi era che l'intelligenza può essere definita dal comportamento, piuttosto che da qualità filosofiche mistiche. Riconoscendo la difficoltà di definire definizioni definitive di concetti come macchine e pensiero, Turing ha proposto un modo semplice per aggirare il problema basato su un gioco di società chiamato Imitation Game.

Il "test di Turing" è semplice: un osservatore umano deve leggere campioni di testo e determinare se sono stati generati da un essere umano o da una macchina. Turing ha proposto che, se un umano non è in grado di distinguere tra il risultato del programma e quello di un altro essere umano, si può dire che il programma dimostra un'intelligenza simile a quella umana.

Critiche al test di Turing
Nonostante la sua enorme influenza, gli informatici oggi non considerano il test di Turing una misura adeguata dell'AGI. Invece di dimostrare la capacità di pensiero delle macchine, spesso il test evidenzia semplicemente quanto sia facile ingannare gli esseri umani.

Ad esempio, nel 1966 Joseph Weizelbaum creò un programma chatbot chiamato ELIZA che applicava semplici regole per trasformare il linguaggio umano degli input di un utente in una risposta del chatbot. Il primo programma che ha progettato con questo chatbot si chiamava DOCTOR, progettato per imitare uno psicoterapeuta rogeriano rispondendo in modo generico o riformulando l'input dell'utente sotto forma di domanda:

Umano: Il mio ragazzo mi ha fatto venire qui.
ELIZA: Il tuo ragazzo ti ha fatto venire qui?
Umano: Dice che sono spesso depressa.
ELIZA: Mi dispiace sapere che è depressa.
Umano: È così. Sono infelice.
ELIZA: Pensa che venire qui la aiuterà a non essere infelice?
 

Come Weizelbaum ha spiegato nel suo lavoro del 1976, Il potere del computer e la ragione umana, è rimasto "sorpreso nel vedere quanto rapidamente e profondamente le persone che conversavano con DOCTOR venissero emotivamente coinvolte con il computer e quanto lo antropomorfizzassero". Ha notato che persino la sua segretaria, che lo aveva osservato lavorare al programma per mesi e ovviamente ne conosceva la semplice metodologia, gli aveva chiesto di lasciare la stanza per motivi di privacy quando ha iniziato a parlarne.1 Questo fenomeno è diventato noto come effetto ELIZA.

IA forte: sistemi che possiedono coscienza

Un'altra definizione proposta stabilisce un livello più elevato per l'AGI: un sistema AI in possesso di coscienza. Come articolato da Searles, "secondo un'AI forte, il computer non è semplicemente uno strumento per lo studio della mente: un computer opportunamente programmato è davvero una mente".2

Searles è autore di un'importante confutazione filosofica della capacità del Test di Turing di dimostrare una forte AI nel 1980. Descrive un anglofono senza alcuna comprensione del cinese, chiuso in una stanza piena di libri di simboli cinesi e istruzioni (in inglese) per utilizzare gli ideogrammi. Sostiene che chi parla inglese potrebbe ingannare qualcuno in un'altra stanza facendogli credere di poter parlare cinese semplicemente seguendo le istruzioni per modificare numeri e ideogrammi, nonostante non capisca i messaggi dell'altra persona e nemmeno le sue risposte.3

I decenni di dibattito sulla Chinese Room Argument, riassunti in questo articolo della Stanford Encyclopedia of Philosophy , dimostrano la mancanza di consenso scientifico sulla definizione di "comprensione" e se un programma per computer possa possederla. Questo disaccordo, insieme alla possibilità che la coscienza non sia nemmeno un requisito per prestazioni simili a quelle umane, rende la sola AI forte un framework poco pratico per definire l'AGI.

Analogie con il cervello umano

Un approccio intuitivo all'AGI, che mira a replicare il tipo di intelligenza che (per quanto ne sappiamo) è stata raggiunta solo dal cervello umano, è replicare il cervello umano stesso.4 Questa intuizione ha portato alle rpime reti neurali artificiali, che a loro volta hanno prodotto i modelli di deep learning che attualmente rappresentano lo stato dell'arte in quasi tutti i sottocampi dell'AI.

Il successo delle reti neurali di deep learning, e in particolare i modelli linguistici di grandi dimensioni (LLM) e modelli multimodali all'avanguardia dell'AI generativa (gen AI), dimostra i vantaggi di trarre ispirazione dal cervello umano attraverso reti auto-organizzanti di neuroni artificiali. Tuttavia, molti dei modelli di deep learning più capaci fino ad oggi utilizzano architetture basate su trasformatori, che di per sé non emulano rigorosamente strutture simili al cervello. Ciò suggerisce che imitare esplicitamente il cervello umano potrebbe non essere intrinsecamente necessario per raggiungere l'AGI.

Prestazioni a livello umano in attività cognitive

Un approccio più olistico consiste nel definire semplicemente l'AGI come un sistema di AI che può svolgere tutti i compiti cognitivi che le persone possono svolgere. Sebbene questa definizione sia utilmente flessibile e intuitiva, è ambigua: quali compiti? Quali persone? Questa ambiguità ne limita l'uso pratico come framework per l'AGI.

Il contributo più notevole di questo framework è che limita l'attenzione di AGI alle attività non fisiche. Ciò non tiene conto di funzionalità come l'uso di strumenti fisici, la locomozione o la manipolazione di oggetti, che sono spesso considerate dimostrazioni di "intelligenza fisica".5 Ciò elimina ulteriori progressi nella robotica come prerequisito per lo sviluppo dell'AGI.

Capacità di imparare nuovi compiti

Un altro approccio intuitivo all'AGI e all'intelligenza stessa consiste nell'enfatizzare la capacità di apprendere e, in particolare, di apprendere la più ampia gamma di compiti e concetti possibile per gli esseri umani. Questo fa eco a "Macchine calcolatrici e intelligenza", in cui Turing ipotizzava che potrebbe essere più saggio programmare un'AI di livello infantile e sottoporla a un periodo di istruzione, piuttosto che programmare direttamente un sistema informatico come una mente adulta.6

Questo approccio è in contrasto con AI ristretta, che addestra esplicitamente i modelli a svolgere un compito specifico. Ad esempio, anche un LLM come GPT-4, che apparentemente dimostra la capacità di apprendimento few-shot o addirittura zero-shot su "nuovi" compiti è limitato alle funzioni adiacenti al suo compito principale: prevedere in modo auto-regressivo la parola successiva in una sequenza.

Sebbene i modelli AI possano svolgere attività sempre più varie, dall'elaborazione del linguaggio naturale (NLP) alla computer vision al riconoscimento vocale, sono ancora limitati a un elenco limitato di competenze di base rappresentate nei loro set di dati di formazione. Non possono, ad esempio, imparare anche a guidare un'auto. Una vera AGI sarebbe in grado di imparare da nuove esperienze in tempo reale, un'impresa insignificante per i bambini umani e persino per molti animali.

Il ricercatore di AI Pei Wang offre una definizione di intelligenza artificiale utile in questo framework: "la capacità di un sistema di elaborazione delle informazioni di adattarsi al suo ambiente con conoscenze e risorse insufficienti".7

Lavoro di valore economico

Open AI, il cui modello GPT-3 viene spesso accreditato di aver iniziato l'attuale era dell'AI generativa con il lancio di ChatGPT, definisce l'AGI nel suo statuto come "sistemi altamente autonomi che superano gli umani nei lavori economicamente più preziosi".8

Come osserva l'articolo di DeepMind, questa definizione omette elementi dell'intelligenza umana il cui valore economico è difficile da definire, come la creatività artistica o l'intelligenza emotiva. Nella migliore delle ipotesi, quegli aspetti dell'intelligenza possono creare valore economico in modo indiretto, come la creatività che permette di girare blockbuster o l'intelligenza emotiva che alimenta macchine che tengono sedute di psicoterapia.

L'attenzione al valore economico implica anche che le funzionalità che compongono l'AGI possono essere contate solo se vengono effettivamente implementate nel mondo reale. Se un sistema di AI può competere con gli umani in un compito specifico, ma non è pratico utilizzarlo effettivamente per quel compito per ragioni legali, etiche o sociali, si può dire che "superi" gli umani?

Il documento di DeepMind rileva inoltre che OpenAI ha chiuso la sua divisione di robotica nel 2021, il che implica che la replica del lavoro fisico e le corrispondenti implicazioni sul ruolo dell'"intelligenza fisica" nell'AGI non fanno parte di questa interpretazione del valore economico.

Funzionalità flessibili e generali

Gary Marcus, psicologo, scienziato cognitivo e ricercatore di AI, ha definito l'AGI come "un'abbreviazione per qualsiasi intelligenza... flessibile e generale, con intraprendenza e affidabilità paragonabili (o superiori) all'intelligenza umana".9 Marcus ha proposto una serie di compiti di riferimento volti a dimostrare l'adattabilità e la competenza generale, simili a un'implementazione specifica e pratica del framework dei "compiti di apprendimento".

Questa quantificazione dell'AGI ricorda un esperimento mentale proposto da Steve Wozniak, cofondatore di Apple, che ha chiesto: "Un computer può fare una tazza di caffè?" Wozniak nota che questo compito apparentemente semplice è in realtà piuttosto complesso: bisogna essere in grado di camminare, sapere cosa sono le cucine, sapere che aspetto può avere una macchinetta del caffè o un caffè e interfacciarsi con cassetti e armadi. In breve, un essere umano deve attingere a una vita di esperienza solo per preparare una tazza di caffè.10

In particolare, Marcus ha proposto una serie di 5 attività di riferimento che dimostrerebbero l'AGI se eseguite da un singolo sistema di AI.11

  • Guardare un film e capire i personaggi, i loro conflitti e le loro motivazioni.
  • Leggere un romanzo e rispondere in modo affidabile alle domande, con insight che vanno oltre il testo originale, sulla trama, i personaggi, i conflitti e le motivazioni.
  • Lavorare come cuoco in una cucina normale (simile al benchmark del caffè di Wozniak).
  • Creare in modo affidabile 10.000 righe di codice privo di bug a partire da istruzioni in linguaggio naturale, senza mettere insieme codice proveniente da librerie esistenti.
  • Convertire le dimostrazioni matematiche in linguaggio naturale in forma simbolica.

Sebbene questo framework orientato alle attività introduca l'obiettività tanto necessaria nella convalida dell'AGI, è difficile concordare se questi compiti specifici coprano tutta l'intelligenza umana. Il terzo compito, lavorare come cuoco, implica che la robotica, e quindi l'intelligenza fisica, sarebbe una parte necessaria dell'AGI.

"Artificial Capable Intelligence"

Nel 2023, Mustafa Suleyman, CEO di Microsoft AI e co-fondatore di DeepMind, ha proposto il termine "Artificial Capable Intelligence" (ACI) per descrivere i sistemi AI che possono svolgere attività complesse, aperte e in più fasi nel mondo reale. Più nello specifico, ha proposto un "test di Turning moderno" in cui un'AI avrebbe ricevuto 100.000 dollari di capitale iniziale con il compito di farlo crescere fino a 1 milione di dollari.12 In generale, questo unisce la nozione di valore economico di OpenAI con l'attenzione di Marcus sulla flessibilità e sull'intelligenza generale.

Sebbene questo benchmark dimostri probabilmente una vera ingegnosità e competenza interdisciplinare, in termini pratici questa definizione dell'intelligenza come tipo specifico di output è assurdamente ristretta. Inoltre, concentrarsi esclusivamente sul profitto introduce significativi rischi di allineamento .13

Gli LLM sono già AGI?

Alcuni ricercatori, come Blase Agüera y Arcas e Peter Norvig, sostengono che LLM avanzati come Llama di Meta, GPT di Open AI e Claude di Anthropic hanno già raggiunto l'AGI. Secondo il loro parere, la generalità è l'elemento chiave dell'AGI e i modelli odierni possono già discutere un'ampia gamma di argomenti, svolgere un'ampia gamma di compiti ed elaborare una vasta gamma di input multimodali. "L'intelligenza generale deve essere pensata in termini di una scheda di valutazione multidimensionale, non solo in termini di sì o di no".14

Questa posizione, tuttavia, ha molti detrattori. Gli autori dell'articolo di DeepMind sostengono che la generalità in sé non si qualifica come AGI: deve essere abbinata a un certo grado di prestazioni. Ad esempio, se un LLM sa scrivere codice ma quel codice non è affidabile, allora quella generalità "non è ancora sufficientemente performante".

Yann LeCun, Chief AI Scientist di Meta, ha dichiarato che gli LLM non hanno l'AGI perché non hanno buon senso: non sono in grado di pensare prima di agire, non possono eseguire azioni nel mondo reale o imparare dall'esperienza personale, e non hanno memoria persistente e capacità di pianificazione gerarchica.15 A un livello più fondamentale, LeCun e Jacob Browning hanno sostenuto che "un sistema addestrato solo sul linguaggio non si avvicinerà mai all'intelligenza umana, anche se addestrato da ora fino alla morte termica dell'universo".16

Approcci tecnologici all'AGI

Goertzel e Pennachin affermano che esistono almeno tre approcci tecnologici di base ai sistemi AGI, in termini di algoritmi e architetture di modelli.

  • Emulazione ravvicinata del cervello umano nel software: dato che il cervello umano è l'unico sistema di cui siamo a conoscenza capace di intelligenza generale, una sua emulazione quasi perfetta produrrebbe teoricamente un'intelligenza simile. Mentre le reti neurali replicano superficialmente i suoi meccanismi di base, il funzionamento effettivo del cervello è molto più vario e sofisticato rispetto agli attuali modelli di deep learning. Oltre alla sfida tecnologica di emulare veramente il cervello, questo approccio richiede anche una maggiore comprensione delle macchinazioni cerebrali rispetto a quella attuale.17

  • Una nuova architettura dei modelli, distinta sia dal cervello che dalle architetture di AI ristrette: questo approccio presuppone che il cervello non sia l'unica struttura favorevole all'intelligenza generale e che gli approcci esistenti all'AI ristretta non possano superare i loro limiti tecnologici o concettuali. L'AGI richiederebbe quindi un nuovo tipo di intelligenza artificiale. Ad esempio, LeCun ha proposto di evitare architetture di modelli AI autoregressivi e generativi e probabilistici a favore di "sistemi di intelligenza artificiale basati su obiettivi" i cui "modelli mondiali" apprendono di più come fanno animali e bambini.

  • Un approccio integrativo che sintetizza gli algoritmi di AI ristretti: questo approccio è il fulcro della maggior parte delle iniziative attuali nel mondo reale per raggiungere l'AGI, cercando di unire i progressi isolati che sono stati fatti su strumenti di AI ristretti, come gli LLM, i modelli di immagine e gli agenti di apprendimento per rinforzo. Gli attuali modelli multimodali possono essere considerati come tappe intermedie di questo percorso. Questi approcci integrativi utilizzano in genere un modello centrale di "agente", spesso un LLM, per navigare in un processo decisionale e automatizzare la delega di attività secondarie a modelli specializzati.

Quando arriverà l'AGI?

Le previsioni sul futuro dell'AI comportano sempre un alto grado di incertezza, ma quasi tutti gli esperti concordano che questo sarà possibile entro la fine del secolo, e alcuni stimano che potrebbe accadere molto prima.

Nel 2023, Max Roser di Our World in Data ha scritto una carrellata di previsioni AGI per riassumere l'evoluzione del pensiero degli esperti sulla previsione riguardante l'AGI negli ultimi anni. Ogni sondaggio chiedeva ai partecipanti, ricercatori di AI e machine learning, quanto tempo pensavano ci sarebbe voluto per raggiungere un eventuale 50% di intelligenza artificiale di livello umano. Il cambiamento più significativo dal 2018-2022 è la crescente certezza dei partecipanti che l'AGI arriverà entro 100 anni.

Tuttavia, vale la pena notare che questi tre studi sono stati condotti ciascuno prima del lancio di ChatGPT e dell'inizio della moderna era dell'AI generativa (gen AI). Il ritmo crescente dei progressi nella tecnologia AI dalla fine del 2022, in particolare negli LLM e nell'AI multimodale, ha prodotto un ambiente di previsione molto diverso.

In un sondaggio più ampio di follow-up condotto da Grace et al su 2.778 ricercatori AI, condotto nell'ottobre 2023 e pubblicato nel gennaio 2024, i partecipanti hanno stimato una probabilità del 50% che "macchine senza aiuto superino gli umani in ogni compito possibile" entro il 2047, 13 anni prima di quanto previsto dagli esperti in uno studio simile appena un anno prima.

Ma, come osserva Roser, la ricerca ha dimostrato che gli esperti in molti campi non sono necessariamente affidabili quando fanno previsioni della propria disciplina. Roser cita l'esempio dei fratelli Wright, generalmente considerati gli inventori del primo aeroplano di successo al mondo. In un discorso di accettazione del premio il 5 novembre 1908 all'Aéro Club de France di Parigi, si dice che Wilbur Wright abbia proclamato: "Confesso che nel 1901 dissi a mio fratello Orville che gli uomini non avrebbero volato per altri 50 anni. Due anni dopo, eravamo noi stessi a volare".18

Soluzioni correlate
IBM watsonx.ai

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.

Scopri watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Consulenza e servizi sull'AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Ottieni l'accesso completo a funzionalità che coprono l'intero ciclo di vita dello sviluppo dell'AI. Crea soluzioni AI all'avanguardia con interfacce intuitive, workflow e accesso alle API e agli SDK standard di settore.

Esplora watsonx.ai Prenota una demo live
Note a piè di pagina

1 Computer Power and Human Reason: from Judgment to Calculation (pag. 6), Joseph Weizenbaum, 1976.
2 “Minds, brains, and programs”, Behavioral and Brain Sciences (archived via OCR by University of Southampton), 1980.
3 ibid.
4 “Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?”, Research Directions: Bioelectronics (published online by Cambridge University), 12 febbraio 2024.
5 “Physical intelligence as a new paradigm”, Extreme Mechanics Letters, Volume 46, luglio 2021.
6 “Computing Machinery and Intelligence”, Mind 49: 433-460 (pubblicato online da University of Maryland, Baltimore County), 1950.
7 “On the Working Definition of Intelligence”, ResearchGate, gennaio 1999.
8 “Open AI Charter”, OpenAI, archiviato l'1 settembre 2024.
9 “AGI will not happen in your lifetime. Or will it?”, Gary Marcus (on Substack), 22 gennaio 2023.
10 “Wozniak: Could a Computer Make a Cup of Coffee?”, Fast Company (su YouTube), 2 marzo 2010.
11 “Dear Elon Musk, here are five things you might want to consider about AGI”, Gary Marcus (on Substack), 31 maggio 2022.
12 “Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, MIT Technology Review, 14 luglio 2023.
13 “Alignment of Language Agents”, arXiv, 26 marzo 2021.
14 “Artificial General Intelligence Is Already Here”, Noema Magazine, 10 ottobre 2023.
15 “Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI”, Lex Fridman Podcast (on YouTube), 10 ottobre 2023.
16 “AI and The Limits of Language” , Noema Magazine, 23 agosto 2023.
17 “Why is the human brain so difficult to understand? We asked 4 neuroscientists.” Allen Institute, 21 aprile 2022.
18 “Great Aviation Quotes: Predictions” , Great Aviation Quotes.