Superintelligenza AI: hype o realtà?

Giovane donna d'affari asiatica che indossa occhiali smart luminosi e usa un tablet di notte in città.

Il CEO di OpenAI, Sam Altman, ha riacceso uno dei dibattiti più amati nel mondo della tecnologia: se assisteremo presto o meno all'avvento di un'AI superintelligente. In un recente post, ha scritto che un tale sistema, superando le capacità cognitive umane, potrebbe emergere in "qualche migliaio di giorni", inaugurando una rivoluzione nel progresso globale.

Le riflessioni di Altman sui sistemi di intelligenza artificiale altamente avanzati hanno suscitato una raffica di reazioni da parte di ricercatori e osservatori del settore. Mentre la capacità dell'AI di superare gli esseri umani in vari ambiti diventa un argomento caldo, la comunità tecnologica si pone una domanda importante: quanto presto potrebbe avvenire questo cambiamento e cosa può significare per l'umanità?

Il post di Altman, al tempo stesso provocatorio e speculativo, funge da test di Rorschach per le speranze e le preoccupazioni dei settori riguardo al percorso dell'AI.

Il punto di vista degli scettici

Sebbene nessuno neghi che l'AI stia avanzando rapidamente, alcuni osservatori affermano che siamo lontani dalla superintelligenza.

"È totalmente esagerato", ha affermato Brent Smolinski, vicepresidente di IBM e Global Head of Technology and Data Strategy. "Secondo me non ci troviamo nemmeno nei paraggi della superintelligenza."

Nonostante i progressi impressionanti in alcune aree, l'AI manca ancora di elementi fondamentali di un'intelligenza simile a quella umana, secondo Smolinski. "Manca qualcosa di fondamentale che ci porterà alla superintelligenza", afferma.

Una questione chiave è il divario di efficienza tra apprendimento umano e machine learning. Smolinski contrappone i processi di apprendimento dell'AI a quelli umani: "Perché questi modelli linguistici di grandi dimensioni imparino a dialogare, è necessario alimentarli con l'intero corpus di internet per arrivare al punto in cui si può interagire con loro. Gli esseri umani [hanno bisogno] di molto, molto meno."

L'AI è anche lontana dal raggiungere la versatilità che gli esseri umani dimostrano nell'apprendere abilità diverse, dal linguaggio alle attività fisiche come giocare a golf o guidare un'auto. Questa versatilità rappresenta una differenza fondamentale tra l'intelligenza umana e le funzionalità attuali dell'AI.

Smolinski delinea diversi elementi della vera superintelligenza: capacità di ragionamento induttivo e deduttivo, creatività, rappresentazione della conoscenza attraverso modelli mentali, apprendimento e adattamento in tempo reale, e coscienza.

Nel campo dell'AI, il quantum computing potrebbe risolvere alcuni vincoli computazionali, potenzialmente "spingendo il limite di ciò che l'AI può fare", afferma Smolinski. Ma l'impatto del quantum computing sul raggiungimento di una vera superintelligenza rimane incerto.

Un'altra questione che Smolinski ha evidenziato è la necessità di una definizione chiara e condivisa di superintelligenza. "Se metti insieme sei informatici in una stanza e chiedi loro cosa significa superintelligenza, otterrai 12 risposte diverse", afferma Smolinski.

Il campo della superintelligenza

Altman non è il solo a fare previsioni sulla superintelligenza. Roman V. Yampolskiy, professore di informatica e ingegneria alla University of Louisville, ha affermato che l'intelligenza artificiale generale, spesso descritta come informatica simile all'intelligenza a livello umano, sta progredendo rapidamente "e arriverà 3-4 anni dopo la superintelligenza".

Yampolskiy avverte che una volta che l'intelligenza artificiale supererà quella umana, potrebbe diventare praticamente impossibile mantenere il controllo su tale sistema. Questa AI superintelligente potrebbe operare in modi fondamentalmente imprevedibili e oltre la nostra capacità di gestire o limitare. Questa mancanza di controllo, unita alla possibilità che un sistema superintelligente non condivida o non dia priorità ai valori umani, potrebbe portare a scenari che minacciano l'esistenza dell'umanità, afferma il ricercatore.

"In confronto, tutte le preoccupazioni immediate come pregiudizi, disoccupazione, deepfake, misinformazione sono insignificanti in termini di impatto negativo", afferma.

Il dilemma della coscienza

La coscienza è un punto particolarmente spinoso nelle discussioni sulla superintelligenza: le macchine superintelligenti avrebbero bisogno di essere coscienti per superarci in capacità di pensiero? Secondo Smolinski, la vera superintelligenza richiederebbe non solo potenza computazionale, ma anche una qualche forma di consapevolezza o coscienza, caratteristiche che gli attuali sistemi di AI non possiedono.

Gli attuali modelli AI eccellono nella creatività combinatoria, combinando idee esistenti in modi nuovi. Ma hanno bisogno di aiuto per compiere passi davvero trasformativi. Smolinski ipotizza che questo tipo di creatività trasformativa possa essere collegato alla coscienza in modi poco compresi.

Di conseguenza, Smolinski ritiene che le paure che circondano l'AI siano esagerate.

"Quello che mi preoccupa è che questo tipo di alimenta questa specie paura, che porta a pensare cose come: 'Oh, dobbiamo regolamentare l'AI'", afferma Smolinski. Sebbene la regolamentazione sia importante, rischia di proteggere gli operatori già affermati, creando barriere per i nuovi protagonisti e, potenzialmente, ostacolando il progresso.

Smolinski offre un ultimo pensiero, sottolineando l'importanza di mantenere una prospettiva equilibrata sullo sviluppo dell'AI: "L'AI è uno strumento potente che può aiutarci a risolvere problemi complessi. Ma dobbiamo affrontare il suo sviluppo con attenzione, comprendendo chiaramente i suoi limiti attuali e le possibilità future."

Vista dall'alto di un uomo d'affari che usa il telefono cellulare nel cortile dell'ufficio

Insight imperdibili. Iscriviti alla nostra newsletter.

Vai oltre l'hype con le notizie degli esperti su AI, quantum computing, cloud, sicurezza e molto altro.

Iscriviti oggi