Gli agenti AI si evolvono rapidamente, sfidando la supervisione umana

Programmatore seduto alla scrivania che parla di intelligenza artificiale con un team misto di sviluppatori software

L'investitore della Silicon Valley Marc Andreessen ha trasferito 50.000 USD in Bitcoin a un bot X AI. Il destinatario, noto come «Truth Terminal» o @truth_terminal,è un Agente AI semiautonomo attivo sulla piattaforma da metà giugno e che ha ottenuto un seguito tra gli appassionati di tecnologia e gli appassionati di AI.

Lo scambio è iniziato quando Andreessen, co-fondatore della società di venture capital Andreessen Horowitz, ha chiesto informazioni sugli obiettivi e sulle esigenze finanziarie del bot. Dopo alcune discussioni, ha accettato di erogare una sovvenzione una tantum di 50.000 USD e di completare la transazione utilizzando Bitcoin. L'AI ha fornito un indirizzo di portafoglio per il trasferimento, segnando una notevole intersezione tra criptovaluta e intelligenza artificiale.

Truth Terminal, creato da Andy Ayrey, è descritto come un AI che opera con un certo livello di indipendenza. Il ruolo di Ayrey è approvare i post del bot e decidere con chi interagisce su X. Questa configurazione rappresenta una nuova frontiera nello sviluppo dell'AI, in cui agli agenti artificiali viene data una crescente autonomia nelle loro interazioni con gli esseri umani.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

La promessa e il pericolo delle menti digitali

Secondo alcuni osservatori, l'emergere di agenti AI come Truth Terminal segna una svolta nell'intelligenza artificiale. A differenza degli strumenti di AI tradizionali che svolgono compiti specifici basati sull'input umano, questi agenti possono prendere decisioni indipendenti e interagire con il loro ambiente in modi sempre più complessi.

Benjamin Lee, professore all'Università della Pennsylvania, spiega come gli agenti AI potrebbero migliorare l'interazione degli utenti con AI generativa: "Invece di fornire singoli prompt, l'utente umano potrebbe proporre un obiettivo ampio e chiedere a un Agente AI di sviluppare un piano o una sequenza di analisi che raggiunga tale obiettivo." Lee aggiunge che gli agenti AI potrebbero operare sia in mondi virtuali che cyber-fisici, ampliando le funzionalità dell'AI generativa e interagendo con l'ambiente fisico.

Alan Chan, ricercatore presso il Centre for the Governance di AI, offre una prospettiva simile sul potenziale degli Agente AI. "I futuri agenti AI più capaci potrebbero rivelarsi utili per automatizzare attività essenziali che sono noiose, pericolose o comunque indesiderate", afferma Chan. Immagina che AI affronti sfide complesse, come "esaminare una base di codice per individuare vulnerabilità di sicurezza" o condurre ricerca scientifica indipendente.

Tuttavia, entrambi gli esperti sottolineano la necessità di misure di salvaguardia. Lee suggerisce che "gli agenti AI dovrebbero essere in grado di produrre spiegazioni interpretabili o dettagliare il loro piano" Gli esseri umani dovrebbero essere in grado di ispezionare o diagnosticare le cause degli output o delle azioni di un agente Propone anche una nuova salvaguardia: "l'agente potrebbe apprendere e proporre una sequenza di analisi o di passi verso un obiettivo, ma l'utente umano potrebbe dover approvare il piano prima dell'esecuzione".

Chan fa eco a questo sentimento, osservando: "È ancora necessario lavorare per capire quali misure di salvaguardia sarebbero appropriate e quando". Le misure potenziali includono "limitare le azioni che un agente può intraprendere per conto dell'utente, mantenere la capacità dell'utente di fermare l'agente e rendere chiaro all'utente cosa sta facendo l'agente."

La sfida di controllare gli Agenti AI diventa ancora più ardua man mano che si avvicinano o superano l'intelligenza umana. Roman V. Yampolskiy, professore di spicco alla University of Louisville, sottolinea una sfida significativa: "Se diventano più intelligenti degli umani, attualmente non abbiamo tecniche per controllarli in senso positivo o negativo."

AI Academy

Diventa un esperto di AI

Acquisisci le conoscenze necessarie per dare priorità agli investimenti nell'AI alla base della crescita aziendale. Inizia oggi stesso con la nostra AI Academy gratuita e guida il futuro dell'AI nella tua organizzazione.

Rimodellare la società nell'era dell'AI

I potenziali impatti sociali dell'adozione diffusa dell'AI sono sostanziali. Yampolskiy suggerisce che gli agenti AI avanzati potrebbero "fare tutti i lavori e quindi portare a una disoccupazione vicina al 100%". Questo scenario solleva interrogativi sulle strutture sociali e sui sistemi economici.

Lee offre una visione più misurata: "Sebbene l'AI generativa sia stata sorprendentemente capace, non abbiamo ancora visto un impatto diffuso sull'occupazione umana e sulle strutture sociali". Egli osserva che l'AI potrebbe migliorare la produttività dei lavoratori in campi come la programmazione informatica o il lavoro paralegale, riducendo potenzialmente le esigenze di assunzione. Lee sottolinea inoltre che "l'AI potrebbe anche aumentare il volume dei contenuti generati artificialmente e cambiare il modo in cui gli esseri umani percepiscono e consumano i media".

Koustuv Saha, Professore Associato di Informatica presso la University of Illinois, sottolinea la cautela in ambiti sensibili. "A meno che non ci siano prove sufficienti che l'AI non possa causare danni, non dovrebbe essere messa in pratica", avverte Saha, in particolare in settori come l'assistenza sanitaria.

Con la diffusione sempre maggiore degli agenti AI, le questioni di responsabilità legale ed etica diventano sempre più complesse. Chi è ritenuto responsabile quando un'AI autonoma prende una decisione che porta a un danno? Queste questioni mettono in discussione i quadri giuridici e i principi etici esistenti.

La possibilità che gli agenti AI vengano manipolati o dirottati per scopi malevoli aggiunge un altro livello di preoccupazione. La ricerca di Chan si concentra sullo sviluppo di sistemi di salvaguardia e monitoraggio per rilevare e prevenire tali abusi. "Quando si utilizza o si interagisce con un agente, potrebbe essere utile disporre di un qualche tipo di monitor che indichi se l'agente è manipolato", suggerisce.

Riguardo alla possibilità che gli agenti AI sviluppino i propri obiettivi o motivazioni, Lee afferma: "Attualmente, gli agenti AI potrebbero non avere un contesto sufficiente per proporre nuovi obiettivi". Spiega che "gli utenti umani probabilmente forniscono l'obiettivo, mentre gli agenti probabilmente deducono i passi intermedi necessari per raggiungere l'obiettivo".

Il potenziale attualizzato degli agenti AI

Nonostante queste sfide, lo sviluppo degli agenti AI continua a ritmo sostenuto, spinto dai loro immensi benefici potenziali e dal vantaggio competitivo per le aziende.

Il rapporto Forrester Total Economic Impact di IBM Watsonx Assistant ha rilevato che i clienti della soluzione AI hanno registrato benefici di 23 milioni di dollari in un periodo di tre anni, pari a un ROI del 370%. In pratica, ciò si traduce in un aumento del coinvolgimento del cliente e in un miglioramento dell'esperienza sia per gli utenti che per gli agenti umani.

La chiave di questo successo è la fiducia, e sapere quando è necessario un intervento umano per rafforzare quella fiducia. "Vogliamo assicurarci che gli utenti sappiano che i dati che forniscono e ricevono sono accurati e sicuri," ha spiegato Morgan Carroll, ingegnere senior AI di IBM, in un recente episodio del podcast AI in azione. Carroll ha anche sottolineato l'importanza di far sapere ai clienti fin dall'inizio quando parlano con un agente AI.

Quando le esigenze di un cliente diventano più sfumate o si preferisce un tocco più personale, è allora che entra in gioco un essere umano. "A volte ci sono momenti in cui è necessario introdurre un essere umano", ha affermato nell'episodio Jeannie Walters, relatrice e formatrice in materia di esperienza del cliente. “Abbiamo bisogno sia dell’empatia che un essere umano può dare sia… di quella comprensione.”

Man mano che i sistemi di AI diventano più intelligenti e indipendenti, gli esperti chiedono misure di sicurezza migliori e un lavoro di squadra globale. Le scelte che facciamo ora in materia di AI determineranno lo sviluppo futuro della tecnologia e della società. Truth Terminal è solo un esempio di questi nuovi agenti AI. È ancora presto, ma questi programmi stanno già sollevando grandi interrogativi. Come l'AI avanza, dobbiamo pensare a lungo su cosa sia l'intelligenza e su come gli esseri umani si inseriscano in un mondo in cui le macchine possono agire da sole.

 

Autore

Sascha Brodsky

Staff Writer

IBM

Soluzioni correlate
Agenti AI per il Business

Crea, implementa e gestisci assistenti e agenti AI potenti che automatizzano workflow e processi con l'AI generativa.

    Scopri watsonx Orchestrate
    Soluzioni per agenti AI IBM

    Costruisci il futuro della tua azienda con soluzioni AI di cui puoi fidarti.

    Esplora le soluzioni basate su agenti AI
    Servizi AI di IBM Consulting

    I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.

    Esplora i servizi di intelligenza artificiale
    Prossimi passi

    Sia che tu scelga di personalizzare app e competenze precostituite o di creare e implementare servizi di agenti personalizzati utilizzando uno studio di AI, la piattaforma IBM watsonx è la soluzione che fa per te.

    Scopri watsonx Orchestrate Esplora watsonx.ai