Sebbene negli ultimi decenni siano emerse numerose definizioni di intelligenza artificiale (AI), John McCarthy offre la seguente definizione in questo documento del 2004 (link esterno a ibm.com): "È la scienza e l'ingegneria della creazione di macchine intelligenti, in particolare di programmi informatici intelligenti.Si tratta di un compito simile a quello di utilizzare i computer per comprendere l'intelligenza umana, ma l'AI non deve limitarsi a metodi biologicamente osservabili."
Tuttavia, decenni prima di questa definizione, il concetto di intelligenza artificiale era stato introdotto dall'opera seminale di Alan Turing, "Computing Machinery and Intelligence" (link esterno a ibm.com), pubblicata nel 1950.In questo articolo, Turing, spesso definito il "padre dell'informatica", pone la seguente domanda: "Le macchine possono pensare?" Quindi, propone un test, oggi noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere la risposta testuale fornita dal computer da quella umana.Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, nonché un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.
Stuart Russell e Peter Norvig hanno poi pubblicato, Artificial Intelligence: A Modern Approach (link esterno a ibm.com), diventando uno dei libri di testo più importanti nello studio dell'AI.In esso si approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione:
Approccio umano:
Approccio ideale:
La definizione di Alan Turing rientrerebbe nella categoria dei “sistemi che agiscono come gli esseri umani”.
Nella sua forma più semplice, l’intelligenza artificiale è un campo che combina informatica e robusti data set per consentire la risoluzione dei problemi.Comprende anche i sottoinsiemi dell'apprendimento automatico e dell'apprendimento profondo, che vengono spesso citati insieme all'intelligenza artificiale.Queste discipline comprendono algoritmi di AI che cercano di creare sistemi esperti che effettuano previsioni o classificazioni basate sui dati di input.
Nel corso degli anni, l'intelligenza artificiale ha attraversato molti cicli di hype, ma anche per gli
scettici il rilascio di ChatGPT di OpenAI sembra segnare un punto di svolta. L'ultima volta che l'AI generativa ha avuto un'importanza così grande, i progressi sono stati compiuti nella computer vision, ma ora il salto di qualità è nell'elaborazione del linguaggio naturale.E non si tratta solo di linguaggio: i modelli generativi possono anche apprendere la grammatica del codice software, delle molecole, delle immagini naturali e di una varietà di altri tipi di dati.
Le applicazioni di questa tecnologia sono in continua crescita e abbiamo appena iniziato a
esplorarne le potenzialità.Ma mentre l’hype sull’uso dell’intelligenza artificiale del mondo del business decolla,
le riflessioni in materia di etica diventano di fondamentale importanza. Per saperne di più sulla posizione di IBM riguardo il dibattito sull'etica dell'AI, leggi qui.
Moltiplica la potenza dell'intelligenza artificiale per la tua azienda con la piattaforma di dati e AI di nuova generazione di IBM.
IBM watsonx Orchestrate
IBM watsonx Assistant
Esplora l'apprendimento Gen AI per gli sviluppatori
L'AI debole, detta anche AI ristretta o intelligenza artificiale ristretta (ANI), è un'AI addestrata e orientata a eseguire attività specifiche.L’intelligenza artificiale debole è alla base della maggior parte dell'AI che ci circonda oggi."Ristretta" potrebbe essere un termine più preciso per descrivere questo tipo di AI, in quanto è tutt'altro che debole; abilita alcune applicazioni molto robuste, come Siri di Apple, Alexa di Amazon, Watson di IBM e i veicoli autonomi.
L'AI forte è composta da intelligenza artificiale generale (AGI) e superintelligenza artificiale (ASI).L'intelligenza artificiale generale (AGI), o AI generale, è una forma teorica di AI secondo la quale una macchina avrebbe un'intelligenza pari a quella umana; una coscienza autoconsapevole che ha la capacità di risolvere problemi, imparare e pianificare il futuro.La superintelligenza artificiale (ASI), nota anche come superintelligenza, supererebbe l'intelligenza e le capacità del cervello umano.Sebbene l'AI forte sia ancora del tutto teorica e non vi siano esempi pratici in uso oggi, ciò non significa che i ricercatori di AI non ne stiano esplorando gli sviluppi.Nel frattempo, i migliori esempi di ASI potrebbero essere tratti dalla fantascienza, come HAL, il supercomputer malvagio in 2001: Odissea nello spazio.
Poiché l'apprendimento profondo e l'apprendimento automatico tendono a essere usati in modo intercambiabile, vale la pena di notare le sfumature che li differenziano.Come accennato in precedenza, sia l'apprendimento profondo che l'apprendimento automatico sono sottoinsiemi dell’intelligenza artificiale e l'apprendimento profondo è in realtà un sottoinsieme dell'apprendimento automatico.
L'apprendimento profondo è in realtà composto da reti neurali.Il termine "profondo" si riferisce a una rete neurale composta da più di tre strati, che comprenderebbero input e output, e può essere considerata un algoritmo di apprendimento profondo.Questo è generalmente rappresentato utilizzando il diagramma seguente.
La differenza tra apprendimento profondo e apprendimento automatico riguarda il modo in cui ciascun algoritmo apprende.L'apprendimento profondo automatizza gran parte del processo di estrazione delle caratteristiche, eliminando parte dell'intervento umano manuale richiesto e consentendo l'uso di set di dati più grandi.Si può pensare all'apprendimento profondo come "apprendimento automatico scalabile" come ha notato Lex Fridman nella stessa conferenza del MIT di cui sopra.L’apprendimento automatico classico, o “non profondo”, dipende maggiormente dall’intervento umano.Gli esperti umani determinano la gerarchia delle caratteristiche per comprendere le differenze tra gli input di dati, che in genere richiedono dati più strutturati per l'apprendimento.
L'apprendimento automatico "profondo" può sfruttare i dataset etichettati, noti anche come apprendimento controllato, per informarne l'algoritmo, ma non richiede necessariamente un dataset etichettato.Può acquisire dati non strutturati nella loro forma grezza (ad es.testo, immagini) e può determinare automaticamente la gerarchia delle caratteristiche che distinguono le diverse categorie di dati l'una dall'altra.A differenza dell'apprendimento automatico, non richiede l'intervento umano per elaborare i dati, consentendoci di scalare l'apprendimento automatico in modi più interessanti.
L'AI generativa si riferisce a modelli di apprendimento profondo che possono prendere dati non elaborati – ad esempio, tutta Wikipedia o le opere raccolte di Rembrandt – e “imparare” a generare risultati statisticamente probabili quando richiesto.Ad un livello superiore, i modelli generativi codificano una rappresentazione semplificata
dei dati di addestramento e ne attingono per creare un risultato simile,
ma non identico, ai dati originali.
I modelli generativi sono stati utilizzati per anni in statistica per analizzare i dati numerici.L’ascesa dell'apprendimento profondo, tuttavia, ha reso possibile l'estensione a immagini, parlato e altri tipi di dati complessi.Tra la prima classe di modelli che hanno raggiunto questa impresa trasversale ci sono gli autoencoder variazionali, o VAE, introdotti nel 2013.I VAE sono stati i primi modelli di apprendimento profondo ad essere ampiamente utilizzati per generare immagini e discorsi realistici.
"I VAE hanno aperto le porte alla modellazione generativa profonda rendendo i modelli più facili da scalare
", ha dichiarato Akash Srivastava, esperto di AI generativa presso il MIT-IBM Watson AI Lab.
"Gran parte di ciò che oggi consideriamo AI generativa è iniziata da qui".
I primi esempi di modelli, come GPT-3, BERT o DALL-E 2, hanno dimostrato cosa sia possibile fare.Il futuro è rappresentato da modelli addestrati su un ampio insieme di dati non etichettati che possono essere utilizzati per attività diverse, con una ottimizzazione minima.I sistemi che eseguono attività specifiche in un singolo dominio lasciano posto a un'AI più ampia, che apprende in modo più generale e opera su più domini e problemi.I modelli di fondazione, addestrati su dataset di grandi dimensioni non etichettati e ottimizzati per una serie di applicazioni, stanno guidando questo cambiamento.
Per quanto riguarda l'AI generativa, si prevede che i modelli di fondazione
accelereranno drasticamente l'adozione dell'IA nelle aziende.La riduzione dei requisiti di etichettatura renderà molto più facile
per le aziende lanciarsi in questa impresa e l'automazione altamente accurata ed efficiente guidata dall'IA che essi consentono di realizzare significherà consentirà a un numero molto maggiore di aziende di impiegare l'AI in una gamma più ampia di situazioni mission-critical.Per IBM, la speranza è che la potenza dei modelli di fondazione possa essere portata a tutte le aziende in un ambiente cloud ibrido senza precedenti.
Oggi esistono numerose applicazioni nel mondo reale dei sistemi di AI.Di seguito sono riportati alcuni dei casi d'uso più comuni:
L'idea di 'una macchina che pensa' risale all'antica Grecia.Ma dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'intelligenza artificiale sono i seguenti:
Metti l'AI al servizio della tua azienda con l'esperienza leader di settore e il portfolio di soluzioni di IBM nel campo dell'AI.
Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale e il valore di business.
L'AI sta cambiando lo scenario della sicurezza informatica attraverso l'analisi di enormi quantità di dati di rischio per accelerare i tempi di risposta e migliorare le operazioni di sicurezza utilizzando meno risorse.