AI (Artificial Intelligence)

menu icon

AI (Artificial Intelligence)

L'AI sfrutta computer e macchine per imitare le capacità di risoluzione dei problemi e decisionali della mente umana.

Cos'è l'intelligenza artificiale (AI)?

Sebbene nel corso degli ultimi decenni siano emerse diverse definizioni dell'AI, John McCarthy fornisce la seguente definizione in questo documento del 2004 (PDF, 106 KB) (link esterno a IBM), "È la scienza di creare ed ingegnerizzare macchine intelligenti e in particolar modo programmi informatici intelligenti. È correlata alla capacità di utilizzare i computer per comprendere l'intelligenza umana, ma non deve limitarsi a metodi che sono biologicamente osservabili".

Tuttavia, decenni prima di questa definizione, la nascita della conversazione sull'AI fu segnata dall'opera fondamentale di Alan Turing, "Computing Machinery and Intelligence" (Macchine calcolatrici e intelligenza) (PDF, 89,8 KB) (link esterno a IBM), che fu pubblicata nel 1950. In questo articolo, Turing, spesso indicato come il "padre dell'informatica", pone la seguente domanda "Le macchine sono in grado di pensare?" Da lì, propone un test, ormai famoso come il "test di Turing", in cui un essere umano che fa delle domande prova a distinguere la risposta testuale di un computer da una formulata da un essere umano. Sebbene questo test sia stato sottoposto a un severo scrutinio dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, nonché un concetto di cui ancora si parla nel campo della filosofia, poiché utilizza idee che riguardano la linguistica.

Stuart Russell e Peter Norvig hanno successivamente pubblicato Artificial Intelligence: A Modern Approach (Intelligenza Artificiale: Un Approccio moderno) (link esterno a IBM), che è diventato uno dei libri di testo principali nello studio dell'AI. In questo libro, si approfondiscono i quattro potenziali obiettivi o definizioni dell'AI, che distinguono i sistemi informatici in base alla razionalità e al pensiero da una parte e all'azione dall'altra:

Approccio umano:

  • Sistemi che pensano come gli esseri umani
  • Sistemi che agiscono come gli esseri umani

Approccio ideale:

  • Sistemi che pensano razionalmente
  • Sistemi che agiscono razionalmente

La definizione di Alan Turing sarebbe rientrata nella categoria dei "sistemi che agiscono come gli esseri umani".

Nella sua forma più semplice, l'AI è un campo che combina informatica e solidi dataset per consentire la risoluzione dei problemi. Abbraccia anche i sottocampi del machine learning e del deep learning, che vengono frequentemente citati in concomitanza con l'AI. Queste discipline sono composte da algoritmi di AI che cercano di creare sistemi esperti che facciano previsioni o classificazioni in base ai dati di input.

Oggi si fa ancora un gran parlare dello sviluppo dell'AI, che ci si aspetta da qualsiasi nuova tecnologia emergente sul mercato. Come osservato nell'Hype Cycle ("il ciclo dell'esagerazione") di Gartner (link esterno ai IBM), le innovazioni di prodotto, come le auto a guida autonoma e gli assistenti personali, seguono "una progressione tipica dell'innovazione, dall'eccessivo entusiasmo a un periodo di disillusione e poi a un'eventuale comprensione della pertinenza e del ruolo in un mercato o in un dominio dell'innovazione". Come osservato da Lex Fridman qui (link esterno a IBM) nella sua lezione al MIT nel 2019, siamo al punto massimo delle aspettative e ci stiamo avvicinando al punto più basso della disillusione.

Man mano che emergono conversazioni sull'etica dell'AI, possiamo iniziare a vedere i primi scorci del punto più basso della disillusione. Per ulteriori informazioni sulla posizione di IBM in materia di etica dell'AI, approfondisci qui.

Tipi di intelligenza artificiale - AI debole e AI forte

L'AI debole AI - chiamata anche Narrow AI o Artificial Narrow Intelligence (ANI) - è un'AI addestrata e concentrata per svolgere compiti specifici. L'AI debole è alla base della maggior parte dell'AI che ci circonda oggi. 'Ristretta' sarebbe un termine che descrive in modo più accurato questo tipo di AI poiché è tutto tranne che debole; rende possibili alcune applicazioni molto solide, come Siri di Apple, Alexa di Amazon, IBM Watson e i veicoli autonomi.

L'AI forte è formata dall'AGI (Artificial General Intelligence) e dall'ASI (Artificial Super Intelligence). L'AGI (Artificial General Intelligence), o AI generale, è una forma teorica di AI in cui una macchina avrebbe un'intelligenza pari a quella umana; avrebbe una coscienza autoconsapevole in grado di risolvere problemi, apprendere e fare piani per il futuro. L'ASI (Artificial Super Intelligence) - nota anche come superintelligenza - supererebbe l'intelligenza e la capacità del cervello umano. Anche se l'AI forte è ancora del tutto teorica e senza esempi pratici attualmente in uso, ciò non significa che i ricercatori dell'AI non ne stiano esplorando lo sviluppo. Nel frattempo, i migliori esempi di ASI potrebbero provenire dalla fantascienza, come HAL, l'assistente computerizzato canaglia e superumano in 2001: Odissea nello spazio.

Confronto tra deep learning e machine learning

Dal momento che il deep learning e il machine learning tendono ad essere utilizzati in modo intercambiabile, vale la pena notare le sfumature che li distinguono. Come accennato in precedenza, sia il deep learning che il machine learning sono sottocampi del'AI e il deep learning è in effetti un sottocampo del machine learning.

Rappresentazione visiva del modo in cui si correlano tra loro AI, ML e DL

 

Il deep learning è in effetto formato da reti neurali. Il termine "deep" (profondo) in deep learning si riferisce a una rete neurale che, se formata da più di tre livelli, compresi gli input e l'output, può essere considerata un algoritmo di deep learning. Questo è generalmente rappresentato utilizzando il seguente diagramma:

Diagramma di una rete neurale profonda (DNN, Deep Neural Network)

La discriminante tra deep learning e machine learning è la modalità di apprendimento di ciascun algoritmo. Il deep learning automatizza gran parte della parte del processo relativo all'estrazione di caratteristiche, eliminando parte dell'intervento umano e consentendo l'uso di dataset più grandi. Si può pensare al deep learning come a un "machine learning scalabile", come sottolineato da Lex Fridman nella stessa lezione al MIT menzionata in precedenza. Il machine learning classico, o "non profondo", dipende in misura maggiore dall'intervento umano per apprendere. Gli esperti umani determinano la gerarchia delle caratteristiche per comprendere le differenze tra gli input di dati, di solito richiedendo dati più strutturati per l'apprendimento.

Il machine learning "profondo" può sfruttare i dataset etichettati, cosa nota anche come apprendimento supervisionato, per informare il suo algoritmo, ma non richiede necessariamente un dataset etichettato. Può inserire i dati non strutturati nel loro formato non elaborato (ad es. testo, immagini) e può determinare automaticamente la gerarchia delle caratteristiche che distingue tra loro le diverse categorie di dati. A differenza del machine learning, non richiede l'intervento umano per elaborare i dati, consentendoci di ridimensionare il machine learning in modi più interessanti.

Applicazioni di intelligenza artificiale

Oggi esistono numerose applicazioni del mondo reale di sistemi di AI. Qui di seguito sono riportati alcuni degli esempi più comuni:

  • Riconoscimento vocale: è noto anche come riconoscimento vocale automatico (ASR, automatic speech recognition), riconoscimento vocale del computer o conversione del parlato in testo scritto (STT, Speech-to-text) ed è una funzionalità che utilizza NLP (natural language processing) per elaborare il parlato umano in un formato scritto. Molti dispositivi mobili incorporano il riconoscimento vocale nei loro sistemi per effettuare ricerche vocali, ad es. Siri, o per fornire una maggiore accessibilità per quanto riguarda la scrittura di messaggi.
  • Servizio clienti: i chatbot online stanno sostituendo gli agenti umani lungo il percorso del cliente. Rispondono a domande frequenti sugli argomenti, come la spedizione, o forniscono consigli personalizzati, eseguendo il cross-selling di prodotti o consigliando le taglie per gli utenti, cambiando il modo in cui pensiamo al coinvolgimento del cliente nei siti web e sulle piattaforme di social media. Degli esempi includono i bot di messaggistica sui siti di e-commerce con gli agenti virtuali, le app di messaggistica, come Slack e Facebook Messenger, e le attività solitamente effettuate da assistenti virtuali e assistenti vocali.
  • Visione artificiale: questa tecnologia di AI consente ai computer e ai sistemi di ricavare informazioni significative da immagini digitali, video o altri input visivi e, sulla base di questi input, può intervenire. Questa capacità di fornire consigli la distingue dalle attività di riconoscimento delle immagini. Basata sulle reti neurali convolutive (CNN, convolutional neural network), la visione artificiale del computer ha applicazioni nel campo dell'aggiunta di tag a foto nei social media, nell'imaging radiologico nell'assistenza sanitaria e nelle auto a guida autonoma nell'industria automobilistica.
  • Motori di consigli: utilizzando i dati relativi ai comportamenti di consumo passati, gli algoritmi di AI possono aiutare a scoprire le tendenze dei dati che possono essere utilizzate per sviluppare strategie di cross-selling più efficaci. Se ne fa uso per offrire dei consigli di prodotti aggiuntivi pertinenti ai clienti durante il processo di pagamento per i rivenditori online.
  • Trading azionario automatizzato: progettate per ottimizzare i portafogli azionari, le piattaforme di trading ad alta frequenza basate sull'AI fanno migliaia o anche milioni di operazioni di trading al giorno senza intervento umano.

Storia dell'intelligenza artificiale: date e nomi principali

L'idea di 'una macchina che pensa' risale all'antica Grecia. Ma dall'avvento dell'informatica (e in relazione ad alcuni degli argomenti trattati in questo articolo) tra gli eventi importanti e le pietre miliari nell'evoluzione dell'intelligenza artificiale è necessario ricordare:

  • 1950: Alan Turing pubblica Computing Machinery e Intelligence (Macchine calcolatrici e intelligenza). Nell'articolo, Turing, famoso per aver decifrato il codice ENIGMA dei Nazisti durante la Seconda Guerra Mondiale, si propone di rispondere alla domanda 'Le macchine sono in grado di pensare?' e introduce il test di Turing per determinare se un computer può dimostrare la stessa intelligenza (o i risultati della stessa intelligenza) di un essere umano. Il valore del test di Turing è stato da sempre oggetto di discussione.
  • 1956: John McCarthy utilizza il termine 'intelligenza artificiale' alla prima conferenza sull'AI al Dartmouth College. (McCarthy avrebbe successivamente inventato il linguaggio Lisp). Nello stesso anno, Allen Newell, J.C. Shaw e Herbert Simon creano il Logic Theorist, il primo programma software AI eseguito.
  • 1967: Frank Rosenblatt crea il Mark 1 Perceptron, il primo computer basato su una rete neurale che 'apprende' tramite prove ed errori. Solo un anno più tardi, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa tanto il lavoro di riferimento sulle reti neurali quanto, almeno per un periodo, un argomento contro i futuri progetti di ricerca sulle reti neurali.
  • Anni 1980: le reti neurali che utilizzano un algoritmo di retropropagazione possono addestrare se stesse diventano di ampio utilizzo nelle applicazioni di AI.
  • 1997: Deep Blue di IBM batte il campione del mondo di scacchi Garry Kasparov, in una partita a scacchi (con rivincita).
  • 2011: IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy!
  • 2015: il supercomputer Minwa di Baidu utilizza uno speciale tipo di rete neurale profonda chiamata rete neurale convoluzionale per identificare e categorizzare le immagini con una velocità di precisione superiore rispetto alla media umana.
  • 2016: il programma AlphaGo di DeepMind, basato su rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un match di cinque partite. La vittoria è significativa dato l'enorme numero di mosse possibili man mano che il gioco progredisce (oltre 14,5 trilioni dopo appena quattro mosse). Successivamente, Google ha acquistato DeepMind per 400 milioni di dollari USA.

Intelligenza artificiale e IBM Cloud

IBM è stata leader nel progresso delle tecnologie basate sull'AI per le imprese e ha tracciato la strada per il futuro dei sistemi di machine learning per più settori. Sulla base di decenni di ricerca sull'AI, anni di esperienza di lavoro con organizzazioni di tutte le dimensioni e insegnamenti da oltre 30.000 impegni di IBM Watson, IBM ha sviluppato l'AI Ladder per le distribuzioni di intelligenza artificiale di successo:

  • Raccogliere: semplificazione della raccolta e dell'accessibilità dei dati.
  • Organizzare: creazione di una base di analytics pronta per il business.
  • Analizzare: creazione di sistemi basati sull'AI scalabili e affidabili.
  • Infondere: integrazione e ottimizzazione di sistemi in un intero framework di business.
  • Modernizzare: trasferimento dei tuoi sistemi e delle tue applicazioni AI sul cloud.

IBM Watson fornisce alle imprese gli strumenti AI necessari per trasformare i propri flussi di lavoro e sistemi aziendali, migliorando notevolmente l'automazione e l'efficienza. Per ulteriori informazioni su come IBM può aiutarti a completare il tuo percorso verso l'AI, esplora il portfolio IBM di servizi e soluzioni gestiti

Registrati per un IBMid e crea il tuo account IBM Cloud.