La strong AI (artificial intelligence), nota anche come AGI (artificial general intelligence) o general AI, è una forma teorica di AI usata per descrivere una certa mentalità di sviluppo dell'AI. Se i ricercatori riusciranno a sviluppare una strong AI, la macchina reclamerà un'intelligenza pari a quella degli esseri umani; avrà una coscienza di sé in grado di risolvere i problemi, apprendere e fare piani per il futuro.
La strong AI mira a creare macchine intelligenti che siano indistinguibili dalla mente umana. Ma proprio come un bambino, la macchina AI avrà bisogno di imparare attraverso stimoli ed esperienze, progredendo costantemente e sviluppando le sue capacità nel tempo.
Mentre i ricercatori AI sia nel mondo accademico che nei settori privati sono impegnati nella creazione dell'AGI (artificial general intelligence), ad oggi, nella realtà effettiva, esiste solo come concetto teorico. Mentre alcuni individui, come Marvin Minsky, sono considerati eccessivamente ottimisti su ciò che potremmo realizzare in pochi decenni nel campo dell'AI, altri sostengono che non è neanche possibile sviluppare sistemi di strong A. Finché le misure del successo, come l'intelligenza e la comprensione, non saranno esplicitamente definite, la loro convinzione è corretta. Ad oggi, molti usano il test di Turing per valutare l'intelligenza di un sistema AI.
Alan Turing ha sviluppato il test di Turing nel 1950 e ne ha parlato in un documento dal titolo "Computing Machinery and Intelligence" (PDF, 566 KB, link esterno a IBM). Originariamente noto come Imitation Game, il test valuta se il comportamento di una macchina può essere distinto da quello di un soggetto umano. In questo test, una persona, detta "interrogatore", cerca di identificare una differenza tra l'output generato dal computer e quello generato da un soggetto umano attraverso una serie di domande. Se l'interrogatore non riesce a distinguere in modo affidabile le macchine dai soggetti umani, la macchina supera il test. Tuttavia, se il valutatore può distinguere correttamente le risposte umane, la macchina non può essere classificata come intelligente.
Mentre non esistono linee guida per la valutazione del test di Turing, Turing ha specificato che un valutatore umano avrà solo il 70% di possibilità di prevedere correttamente una conversazione umana rispetto a una generata dal computer dopo 5 minuti. Il test di Turing ha portato all'accettazione generale dell'idea di macchina intelligente.
Tuttavia, il test di Turing originale testa solo una serie di abilità - la produzione di testo o gli scacchi, ad esempio. Una strong AI ha bisogno di eseguire una varietà di compiti ugualmente bene, portando allo sviluppo del test di Turing esteso. Questo test valuta le prestazioni testuali, visive e uditive dell'AI e le confronta con l'output generato da un soggetto umano. Questa versione è usata nella famosa competizione del Premio Loebner, dove un giudice umano indovina se l'output è stato creato da un umano o da un computer.
Il Chinese Room Argument (ossia l'argomento della stanza cinese) fu creato da John Searle nel 1980. Nel suo articolo, discute la definizione di comprensione e pensiero, affermando che i computer non saranno mai in grado di realizzarli. In questo estratto del suo documento, dal sito web di Stanford (link esterno a IBM), riassume bene le sue argomentazioni:
"La computazione è definita in modo puramente formale o sintattico, mentre le menti hanno contenuti mentali o semantici, e non possiamo passare dal sintattico al semantico avendo a disposizione solo le operazioni sintattiche e nient'altro...Un sistema - ad esempio io - non acquisirebbe una comprensione del cinese solo seguendo i passaggi di un programma per computer che ha simulato il comportamento di una persona che parla cinese (p.17)".
Il Chinese Room Argument propone il seguente scenario:
Immagina una persona, che non parla cinese, seduta in una stanza chiusa. Nella stanza, c'è un libro con regole, frasi e istruzioni per la lingua cinese. Un'altra persona, che parla fluentemente il cinese, passa nella stanza delle note scritte in cinese. Con l'aiuto del frasario, la persona all'interno della stanza può selezionare la risposta appropriata e passarla a sua volta alla persona che parla cinese.
Sebbene la persona all'interno della stanza sia stata in grado di fornire la risposta corretta utilizzando un frasario linguistico, ancora non parla o capisce il cinese; si è trattato solo di una simulazione di comprensione attraverso la corrispondenza di domande o affermazioni con risposte appropriate. Searle sostiene che la strong AI richiederebbe una mente reale per avere coscienza o comprensione. Il Chinese Room Argument illustra i difetti del test di Turing, dimostrando delle differenze nelle definizioni di AI.
La weak AI, nota anche come narrow AI, si concentra sull'esecuzione di un compito specifico, come rispondere a domande basate sull'input dell'utente o giocare a scacchi. Può eseguire un unico tipo di compito, ma non entrambi, mentre la strong AI può eseguire una varietà di funzioni, eventualmente insegnando a sé stessa come risolvere nuovi problemi. La weak AI si basa sull'interferenza umana per definire i parametri dei suoi algoritmi di apprendimento e per fornire i dati di addestramento pertinenti per garantire l'accuratezza. L'input umano, pur accelerando la fase di crescita della strong AI, non è richiesto ed essa, nel tempo, sviluppa una coscienza simile a quella umana invece di simularla, come nel caso della weak AI. Le auto a guida autonoma e gli assistenti virtuali, come Siri, sono esempi di weak AI.
Sebbene non esistano chiari esempi di strong AI, il campo dell'AI si sta rapidamente innovando. È emersa un'altra teoria di AI, conosciuta come ASI (artificial superintelligence), super intelligenza o super AI. Questo tipo di AI supera la strong AI in termini di intelligenza umana e capacità. Tuttavia, la super AI è ancora puramente speculativa in quanto dobbiamo ancora raggiungere esempi di strong AI.
Detto questo, l'AI sta giocando un ruolo più importante in alcuni campi, come:
I termini artificial intelligence, machine learning e deep learning sono spesso usati nel contesto sbagliato. Questi termini sono spesso usati per descrivere la strong AI, quindi vale la pena definire brevemente ogni termine:
L'artificial intelligence definita da John McCarthy (link esterno a IBM), è "la scienza e l'ingegneria del fare macchine intelligenti, specialmente programmi informatici intelligenti. È correlata alla capacità di utilizzare i computer per comprendere l'intelligenza umana, ma L'AI non deve necessariamente limitarsi a metodi che siano biologicamente osservabili".
Il machine learning è un campo secondario dell'AI. I modelli classici (non profondi) di machine learning richiedono più interventi umani per segmentare i dati in categorie (cioè attraverso l'apprendimento delle caratteristiche).
Il deep learning è anch'esso un campo secondario del machine learning, che cerca di imitare l'interconnessione del cervello umano utilizzando reti neurali. Le sue reti neurali artificiali sono composte da strati di modelli, che identificano gli schemi all'interno di uno specifico set di dati. Sfruttano un alto volume di dati di addestramento per imparare accuratamente, il che di conseguenza richiede un hardware più potente, come le GPU o le TPU. Gli algoritmi di deep learning sono più strettamente associati all'AI di livello umano.
Per saperne di più sulle sottili differenze tra queste tecnologie, consulta "Confronto tra AI, machine learning, deep learning e reti neurali: qual è la differenza?"
Il deep learning può gestire bene problemi complessi e, di conseguenza, è utilizzato oggi in molte tecnologie innovative ed emergenti. Gli algoritmi di deep learning sono stati applicati in una varietà di campi. Ecco alcuni esempi:
Watson Assistant è il chatbot dotato di AI per l'azienda. Questa tecnologia di AI aziendale consente agli utenti di creare soluzioni di AI conversazionale.
IBM Watson Assistant fornisce ai clienti risposte veloci, coerenti e precise su qualsiasi applicazione, dispositivo o canale.