Cosa sono gli agenti AI?

Autori

Anna Gutowska

AI Engineer, Developer Advocate

IBM

Cosa sono gli agenti AI?

Gli agenti AI sono sistemi che eseguono autonomamente delle attività progettando workflow con gli strumenti disponibili.

Gli agenti AI possono comprendere un'ampia gamma di funzioni oltre all'elaborazione del linguaggio naturale, tra cui il processo decisionale, la risoluzione dei problemi, l'interazione con ambienti esterni e l'esecuzione di azioni.

Gli agenti AI risolvono compiti complessi in applicazioni aziendali, tra cui progettazione software, automazione IT, generazione di codice e assistenza conversazionale. Usano le tecniche avanzate di elaborazione del linguaggio naturale dei modelli linguistici di grandi dimensioni (LLM) per comprendere e rispondere passo dopo passo agli input degli utenti e determinare quando ricorrere a strumenti esterni.

Come funzionano gli agenti AI

Il fulcro degli agenti AI sono i modelli linguistici di grandi dimensioni (LLM). Per questo motivo, gli agenti AI vengono spesso definiti agenti LLM. Gli LLM tradizionali, come i modelli IBM® Granite, producono le loro risposte in base ai dati utilizzati per addestrarli e sono limitati da limiti di conoscenza e ragionamento. Al contrario, la tecnologia agente utilizza la chiamata degli strumenti sul backend per ottenere informazioni aggiornate, ottimizzare i workflow e creare attività secondarie in modo autonomo per raggiungere obiettivi complessi.

In questo processo, l'agente autonomo impara ad adattarsi alle aspettative dell'utente nel tempo. La capacità dell'agente di memorizzare le interazioni passate nella memoria e pianificare le azioni future incoraggia un'esperienza personalizzata e risposte complete.1 Questa chiamata di strumenti può essere ottenuta senza l'intervento umano e amplia le possibilità di applicazioni nel mondo reale di questi sistemi AI. Queste tre fasi o componenti agentiche definiscono il modo in cui operano gli agenti:

Inizializzazione e pianificazione degli obiettivi

Sebbene gli agenti AI siano autonomi nei loro processi decisionali, necessitano di obiettivi e regole predefinite definite dall'uomo.2 Ci sono tre principali influenze sul comportamento degli agenti autonomi:

  • Il team di sviluppatori che progetta e addestra il sistema agentic AI
  • Il team che distribuisce l'agente e fornisce all'utente l'accesso ad esso.
  • L'utente che fornisce all'agente AI obiettivi specifici da realizzare e stabilisce gli strumenti disponibili da utilizzare.

Dati gli obiettivi dell'utente e gli strumenti disponibili dell'agente, l'agente AI esegue la decomposizione delle attività per migliorare le prestazioni.3 In sostanza, l'agente crea un piano di attività primarie e secondarie specifiche per raggiungere l'obiettivo complesso.

Per le attività semplici, la pianificazione non è un passaggio necessario. Invece, un agente può riflettere iterativamente sulle sue risposte e migliorarle senza pianificare i suoi prossimi passi.

Ragionamento con gli strumenti disponibili

Gli agenti AI basano le loro azioni sulle informazioni che percepiscono. Tuttavia, spesso non hanno le conoscenze complete necessarie per affrontare ogni attività secondaria all'interno di un obiettivo complesso. Per colmare questo divario, si rivolgono a strumenti disponibili come set di dati esterni, ricerche web, API e persino altri agenti.

Una volta raccolte le informazioni mancanti, l'agente aggiorna la sua base di conoscenze e si dedica al ragionamento agentico. Questo processo prevede una rivalutazione continua del suo piano d'azione e l'esecuzione di autocorrezioni, il che consente un processo decisionale più informato e adattivo.

Per illustrare questo processo, immagina un utente che pianifica la propria vacanza. L'utente incarica un agente AI di prevedere quale settimana del prossimo anno potrebbe avere il meteo migliore per il suo viaggio in Grecia dedicato al surf. 

Poiché il modello LLM al centro dell'agente non è specializzato in modelli meteorologici, non può fare affidamento esclusivamente sulla sua conoscenza interna. Pertanto, l'agente raccoglie informazioni da un database esterno contenente i bollettini meteorologici giornalieri per la Grecia degli ultimi anni.

Nonostante abbia acquisito queste nuove informazioni, l'agente non è ancora in grado di determinare le condizioni meteorologiche ottimali per il surf e quindi viene creata l'attività secondaria successiva. Per questa attività secondaria, l'agente comunica con un agente esterno specializzato nel surf. Supponiamo che così facendo, l'agente apprenda che l'alta marea e il tempo soleggiato con poca o nessuna pioggia offrono le migliori condizioni per il surf.

L'agente può ora combinare le informazioni apprese dai suoi strumenti per identificare degli schemi. Può prevedere in quale settimana dell'anno prossimo in Grecia ci saranno probabilmente alte maree, tempo soleggiato e scarse probabilità di pioggia. Questi risultati vengono poi presentati all'utente. La condivisione di informazioni tra strumenti è ciò che consente agli agenti AI di essere più versatili rispetto ai modelli AI tradizionali.3

Apprendimento e riflessione

Gli agenti AI utilizzano meccanismi di feedback, come altri agenti AI e human-in-the-loop (HITL), per migliorare l'accuratezza delle loro risposte. Torniamo al nostro precedente esempio sul surf per evidenziare questo processo. Dopo che l'agente ha formulato la sua risposta all'utente, memorizza le informazioni apprese insieme al feedback dell'utente per migliorare le prestazioni e adattarsi alle preferenze dell'utente per gli obiettivi futuri.

Se sono stati utilizzati altri agenti per raggiungere l'obiettivo, potrebbe anche essere utilizzato il loro feedback. Il feedback multiagente può essere particolarmente utile per ridurre al minimo il tempo che gli utenti umani dedicano a fornire indicazioni. Tuttavia, gli utenti possono anche fornire un feedback durante le azioni e il ragionamento interno dell'agente per allineare meglio i risultati all'obiettivo prefissato.2

I meccanismi di feedback migliorano il ragionamento e l'accuratezza dell'agente AI, il che viene comunemente definito perfezionamento iterativo.3 Per evitare di ripetere gli stessi errori, gli agenti AI possono anche memorizzare i dati sulle soluzioni agli ostacoli precedenti in una base di conoscenza.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

AI chatbot agenti e non agenti

Gli AI chatbot utilizzano tecniche di AI conversazionale come l'elaborazione del linguaggio naturale (NLP) per comprendere le domande degli utenti e automatizzare le risposte. Questi chatbot sono una modalità mentre la capacità di agire è un framework tecnologico.

Gli AI chatbot non agenti sono quelli senza strumenti, memoria o ragionamento disponibili. Possono raggiungere solo obiettivi a breve termine e non possono pianificare in anticipo. Come li conosciamo, i chatbot non agenti richiedono un input continuo da parte dell'utente per rispondere.

Possono fornire risposte a richieste comuni che molto probabilmente sono in linea con le aspettative degli utenti ma ottengono scarsi risultati sulle domande specifiche dell'utente e dei suoi dati. Poiché questi chatbot non hanno memoria, non possono imparare dai loro errori se le loro risposte sono insoddisfacenti.

Al contrario, gli AI chatbot agenti imparano ad adattarsi alle aspettative degli utenti nel tempo, fornendo un'esperienza più personalizzata e risposte complete. Possono completare attività complesse creando attività secondarie senza l'intervento umano e considerando piani diversi. Questi piani possono anche essere corretti e aggiornati in base alle esigenze. Gli AI chatbot agenti, a differenza di quelli non agenti, valutano i loro strumenti e utilizzano le risorse disponibili per colmare le lacune informative.

AI Academy

Diventa un esperto di AI

Acquisisci le conoscenze necessarie per dare priorità agli investimenti nell'AI alla base della crescita aziendale. Inizia oggi stesso con la nostra AI Academy gratuita e guida il futuro dell'AI nella tua organizzazione.

Paradigmi di ragionamento

Non esiste un'architettura standard per la costruzione di agenti AI. Esistono diversi paradigmi per risolvere problemi a più fasi.

ReAct (Reasoning and Action)

Con il paradigma ReAct, possiamo istruire gli agenti a "pensare" e pianificare dopo ogni azione intrapresa e con ogni risposta dello strumento per decidere quale strumento utilizzare successivamente. Questi cicli Think-Act-Observe vengono utilizzati per risolvere i problemi passo dopo passo e migliorare iterativamente le risposte.

Attraverso la struttura dei prompt, gli agenti possono essere istruiti a ragionare lentamente e a mostrare ogni "pensiero".4 Il ragionamento verbale dell'agente fornisce insight su come vengono formulate le risposte. In questo framework, gli agenti aggiornano continuamente il loro contesto con nuovi ragionamenti. Questo approccio può essere interpretato come una forma di chain-of-thought prompting.

ReWOO (Reasoning WithOut Observation)

Il metodo ReWOO, a differenza di ReAct, elimina la dipendenza dagli output degli strumenti per la pianificazione delle azioni. Gli agenti, invece, pianificano in anticipo. L'utilizzo di strumenti ridondanti viene evitato anticipando quali strumenti utilizzare al momento del prompt iniziale da parte dell'utente. Ciò è auspicabile da una prospettiva incentrata sull'uomo poiché l'utente può confermare il piano prima che venga eseguito.

Il workflow ReWOO è composto da tre moduli. Nel modulo di pianificazione, l'agente anticipa i suoi prossimi passi in base al suggerimento dell'utente. La fase successiva prevede la raccolta degli output prodotti chiamando questi strumenti. Infine, l'agente abbina il piano iniziale con gli output dello strumento per formulare una risposta. Questa pianificazione anticipata può ridurre notevolmente l'utilizzo dei token e la complessità computazionale e le ripercussioni di un guasto intermedio dello strumento.5

Tipi di agenti AI

Gli agenti AI possono essere sviluppati con diversi livelli di funzionalità. Un agente semplice potrebbe essere migliore per obiettivi semplici per limitare la complessità computazionale non necessaria. Esistono 5 tipi principali di agenti, dal più semplice al più avanzato:

1. Agenti con riflessi semplici

Gli agenti con riflessi semplici sono la forma di agente più semplice che basa le azioni sulla percezione. Questo agente non detiene alcuna memoria, né interagisce con altri agenti se mancano informazioni. Questi agenti agiscono in base a una serie di cosiddetti riflessi o regole. Questo comportamento significa che l'agente è preprogrammato per eseguire azioni che corrispondono al soddisfacimento di determinate condizioni.

Se l'agente incontra una situazione per la quale non è preparato, non può rispondere in modo appropriato. Gli agenti sono efficaci in ambienti completamente osservabili che garantiscono l'accesso a tutte le informazioni necessarie.6

Esempio: se sono le 20:00, il riscaldamento è attivato. Si tratta di un termostato che accende l'impianto di riscaldamento a un'ora prestabilita ogni sera.

Illustrazione del diagramma dell'agente con riflessi semplici Diagramma dell'agente con riflessi semplici

2. Agenti con riflessi basati su modello

Gli agenti con riflessi basati su modelli utilizzano sia la loro percezione attuale che la memoria per mantenere un modello interno del mondo. Man mano che l'agente continua a ricevere nuove informazioni, il modello viene aggiornato. Le azioni dell'agente dipendono dal suo modello, dai riflessi, dai precetti precedenti e dallo stato attuale.

Questi agenti, a differenza degli agenti con riflessi semplici, possono memorizzare informazioni e possono operare in ambienti parzialmente osservabili e mutevoli. Tuttavia, sono ancora limitati dal loro insieme di regole.6

Esempio: un robot aspirapolvere. Mentre pulisce una stanza sporca, rileva ostacoli come i mobili e si regola per evitarli. Il robot memorizza anche le aree che ha già pulito per non restare intrappolato in un ciclo di pulizia continua.

Illustrazione del diagramma dell'agente con riflessi basato su modello Diagramma dell'agente con riflessi basato su modello

3. Agenti basati su obiettivo

Gli agenti basati su obiettivo hanno un modello interno del mondo e anche un obiettivo o un insieme di obiettivi. Questi agenti cercano sequenze di azioni che raggiungano il loro obiettivo e pianificano queste azioni prima di agire su di esse. Questa ricerca e pianificazione migliorano la loro efficacia rispetto agli agenti con riflessi semplici e basati su modello.7

Esempio: un sistema di navigazione che consiglia il percorso più veloce per raggiungere la destinazione. Il modello considera vari percorsi che raggiungono la sua destinazione o, in altre parole, il suo obiettivo. In questo esempio, la regola della condizione-azione dell'agente afferma che se viene trovato un percorso più rapido, l'agente consiglia invece quello.

Illustrazione del diagramma dell'agente basato su obiettivo Diagramma dell'agente basato su obiettivo

4. Agenti basati su utilità

Gli agenti basati su utilità selezionano la sequenza di azioni che raggiungono l'obiettivo e massimizzano anche l'utilità o la ricompensa. L'utilità viene calcolata attraverso una funzione specifica. Questa funzione assegna un valore di utilità, una metrica che misura l'utilità di un'azione o quanto "felice" renderà l'agente, a ogni scenario in base a un insieme di criteri fissi.

I criteri possono includere fattori come il progresso verso l'obiettivo, i requisiti di tempo o la complessità computazionale. L'agente seleziona quindi le azioni che massimizzano l'utilità prevista. Quindi, questi agenti sono utili nei casi in cui più scenari raggiungono un obiettivo desiderato e bisogna selezionarne uno ottimale.7

Esempio: un sistema di navigazione che consiglia il percorso verso la sua destinazione che ottimizza l'efficienza del carburante e riduce al minimo il tempo trascorso nel traffico e il costo dei pedaggi. Questo agente misura l'utilità attraverso questa serie di criteri per selezionare il percorso più favorevole.

Illustrazione del diagramma dell'agente basato su utilità Diagramma dell'agente basato su utilità

5. Agenti che apprendono

Gli agenti che apprendono hanno le stesse funzionalità degli altri tipi di agenti, ma sono unici nella loro capacità di apprendere. Le nuove esperienze vengono aggiunte alla loro base di conoscenza iniziale e ciò avviene in modo autonomo. Questo apprendimento migliora la capacità dell'agente di operare in ambienti non familiari. Gli agenti che apprendono potrebbero essere basati su utilità o su obiettivo nel loro ragionamento e sono composti da quattro elementi principali:7

  • Apprendimento: questo processo migliora le conoscenze dell'agente che impara dall'ambiente attraverso i suoi precetti e sensori.
  • Critica: questo componente fornisce un feedback all'agente per sapere se la qualità delle sue risposte soddisfa lo standard.
  • Prestazioni: questo elemento è responsabile della selezione delle azioni dopo l'apprendimento.
  • Generatore di problemi: questo modulo crea varie proposte di azioni da intraprendere.

Esempio: consigli personalizzati su siti di e-commerce. Questi agenti tengono traccia dell'attività e delle preferenze dell'utente nella loro memoria. Queste informazioni vengono utilizzate per consigliare determinati prodotti e servizi all'utente. Il ciclo si ripete ogni volta che vengono formulate nuove raccomandazioni. L'attività dell'utente viene continuamente memorizzata a scopo di apprendimento. Così facendo, l'agente migliora la sua accuratezza nel corso del tempo.

Diagramma dell'agente che apprende Diagramma dell'agente che apprende

Casi d'uso degli agenti AI

Customer experience

Gli agenti AI possono essere integrati nei siti web e nelle app per migliorare l'esperienza del cliente, fungendo da assistenti virtuali, fornendo supporto per la salute mentale, simulando colloqui e altri compiti correlati.Ci sono molti modelli no-code per l'implementazione da parte dell'utente, che semplificano notevolmente il processo di creazione di questi agenti AI.

Assistenza sanitaria

Gli agenti AI possono essere utilizzati per varie applicazioni sanitarie nel mondo reale. I sistemi multiagente possono essere utili per la risoluzione dei problemi in tali contesti. Dalla pianificazione del trattamento dei pazienti nel reparto di emergenza alla gestione dei processi farmacologici, questi sistemi fanno risparmiare tempo e fatica ai professionisti del settore medico, che possono dedicarsi a compiti più urgenti.9

Risposta di emergenza

In caso di disastro naturale, gli agenti AI possono utilizzare algoritmi di deep learning per recuperare sui social media le informazioni degli utenti che necessitano di soccorso. Le posizioni di questi utenti possono essere mappate per aiutare i servizi di soccorso a salvare più persone in meno tempo. Pertanto, gli agenti AI possono apportare grandi benefici alla vita umana sia in attività banali e ripetitive che in situazioni salvavita.10

Finanza e supply chain

Gli agenti possono essere progettati per analizzare dati finanziari in tempo reale, anticipare le tendenze future del mercato e ottimizzare la supply chain. La personalizzazione degli agenti AI autonomi ci fornisce output personalizzati per i nostri dati unici. Quando si lavora con i dati finanziari, è importante applicare le misure di sicurezza per la privacy dei dati.

Benefici degli agenti AI

Automazione delle attività

Con i continui progressi dell'AI generativa e del machine learning, c'è un interesse crescente per l'ottimizzazione del workflow tramite l'AI, o l'automazione intelligente. Gli agenti AI sono strumenti AI in grado di automatizzare attività complesse che altrimenti richiederebbero risorse umane. Questo cambiamento si traduce nel raggiungimento degli obiettivi in modo rapido, economico e su larga scala. A loro volta, questi progressi significano che gli agenti umani non devono fornire indicazioni all'assistente AI per creare e svolgere le attività.

Migliori prestazioni

I framework multiagente tendono a superare gli agenti singoli.11 Questo perché più piani d'azione sono disponibili per un agente, più si verificano apprendimento e riflessione.

Un agente AI che incorpora la conoscenza e il feedback di altri agenti AI specializzati in aree correlate può essere utile per la sintesi delle informazioni. Questa collaborazione backend tra agenti AI e la capacità di colmare le lacune informative sono uniche per i framework agenti, il che li rende uno strumento potente e un significativo progresso nell'intelligenza artificiale.

Qualità delle risposte

Gli agenti AI forniscono risposte più complete, accurate e personalizzate per l'utente rispetto ai modelli AI tradizionali. Questa adattabilità è importante per noi come utenti perché le risposte di qualità superiore tendono a offrire una migliore esperienza del cliente. Come già descritto in precedenza, questa capacità è resa possibile dallo scambio di informazioni con altri agenti, tramite strumenti e l'aggiornamento del loro flusso di memoria. Questi comportamenti emergono da soli e non sono preprogrammati.12

Rischi e limitazioni

Dipendenze multiagente

Per svolgere determinati compiti complessi è necessaria la conoscenza di più agenti AI. L'orchestrazione di questi framework multiagente comporta il rischio di malfunzionamento. I sistemi multiagente basati sugli stessi foundation model potrebbero sperimentare insidie comuni. Tali debolezze possono causare un guasto a livello di sistema di tutti gli agenti coinvolti o esporre a vulnerabilità e ad attacchi avversi.13 Ciò evidenzia l'importanza della governance dei dati nella creazione di foundation model e di processi di addestramento e test approfonditi.

Cicli di feedback infiniti

Anche la comodità del ragionamento pratico per gli utenti umani abilitato dagli agenti AI comporta dei rischi. Gli agenti che non sono in grado di creare un piano completo o riflettere sulle loro scoperte, potrebbero ritrovarsi a chiamare ripetutamente gli stessi strumenti, provocando cicli di feedback infiniti. Per evitare queste ridondanze, potrebbe essere utilizzato un certo livello di monitoraggio umano in tempo reale.13

Complessità computazionale

Costruire agenti AI da zero richiede molto tempo e può essere anche molto oneroso in termini di computazione. Le risorse necessarie per formare un agente ad alte prestazioni possono essere ingenti. Inoltre, a seconda della complessità dell'attività, gli agenti possono impiegare diversi giorni per completare le attività.12

Privacy dei dati

Se gestita male, l'integrazione degli agenti AI con i processi aziendali e i sistemi di gestione dei clienti può evidenziare alcuni seri problemi di sicurezza. Immagina, ad esempio, degli agenti AI che guidano il processo di sviluppo del software, portano i copiloti di codifica al livello successivo o determinano i prezzi per i clienti, senza alcuna supervisione umana o barriere di protezione. I risultati di tali scenari potrebbero essere dannosi a causa del comportamento sperimentale e spesso imprevedibile dell'agentic AI.

Pertanto, è essenziale che i fornitori di AI come IBM, Microsoft e OpenAI rimangano proattivi. Devono implementare protocolli di sicurezza estesi per garantire che i dati sensibili dei dipendenti e dei clienti siano memorizzati in modo sicuro. Le pratiche di distribuzione responsabile sono fondamentali per ridurre al minimo i rischi e mantenere la fiducia in queste tecnologie in rapida evoluzione.

Best practice

Log delle attività

Per affrontare le preoccupazioni relative alle dipendenze multiagente, gli sviluppatori possono concedere agli utenti l'accesso a un registro delle azioni degli agenti.14 Le azioni possono includere l'uso di strumenti esterni e descrivere gli agenti esterni utilizzati per raggiungere l'obiettivo. Questa trasparenza garantisce agli utenti insight sul processo decisionale iterativo, offre l'opportunità di scoprire errori e crea fiducia.

Interruzione

Si raccomanda di evitare che gli agenti AI autonomi rimangano in funzione per periodi di tempo eccessivamente lunghi. In particolare, nei casi di cicli di feedback infiniti non voluti, di cambiamenti nell'accesso a determinati strumenti o di malfunzionamenti dovuti a difetti di progettazione. Un modo per raggiungere questo obiettivo è implementare l'interrompibilità.

Mantenere il controllo di questa decisione implica consentire agli utenti umani la possibilità di interrompere tranquillamente una sequenza di azioni o l'intera operazione. Scegliere se e quando interrompere un agente AI richiede una certa ponderazione, poiché alcune interruzioni possono causare più danni che benefici. Potrebbe essere più sicuro consentire a un agente difettoso di continuare ad assistere in un'emergenza potenzialmente letale, piuttosto che spegnerlo completamente.5

Identificatori univoci degli agenti

Per mitigare il rischio che i sistemi agenti vengano utilizzati per scopi dannosi, è possibile implementare identificatori univoci. Se questi identificatori fossero richiesti per gli agenti per accedere ai sistemi esterni, rintracciare l'origine degli sviluppatori, dei distributori e dell'utente dell'agente diventerebbe più semplice.

Questo approccio aggiunge un livello essenziale di responsabilità. La tracciabilità consente di identificare i soggetti responsabili in caso di uso improprio o danni involontari causati da un agente. In definitiva, questo tipo di salvaguardia favorirebbe un ambiente operativo più sicuro per gli agenti AI.

Supervisione umana

Per supportare il processo di apprendimento degli agenti AI, specialmente nelle prime fasi in un nuovo ambiente, può essere utile fornire un certo livello di supervisione umana. Quindi, sulla base di questa guida, l'agente AI può confrontare le sue prestazioni con lo standard previsto e apportare le opportune modifiche. Questa forma di feedback è utile per migliorare l'adattabilità dell'agente alle preferenze dell'utente.5

A parte questo sistema di protezione, una best practice è quella di richiedere l'approvazione umana prima che un agente AI intraprenda azioni di grande impatto. Ad esempio, le azioni che vanno dall'invio di e-mail di massa al trading finanziario dovrebbero richiedere una conferma umana.7 Si raccomanda un certo livello di monitoraggio umano per tali domini ad alto rischio.

Soluzioni correlate
Agenti AI per il Business

Crea, implementa e gestisci assistenti e agenti AI potenti che automatizzano workflow e processi con l'AI generativa.

    Scopri watsonx Orchestrate
    Soluzioni per agenti AI IBM

    Costruisci il futuro della tua azienda con soluzioni AI di cui puoi fidarti.

    Esplora le soluzioni basate su agenti AI
    Servizi AI di IBM Consulting

    I servizi di AI di IBM Consulting aiutano a reinventare il modo in cui le aziende lavorano con l'AI per la trasformazione.

    Esplora i servizi di intelligenza artificiale
    Prossimi passi

    Sia che tu scelga di personalizzare app e competenze precostituite o di creare e implementare servizi di agenti personalizzati utilizzando uno studio di AI, la piattaforma IBM watsonx è la soluzione che fa per te.

    Scopri watsonx Orchestrate Esplora watsonx.ai
    Note a piè di pagina

    1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu e Gao Huang, "Expel: LLM agents are experiential learners", Proceedings of the AAAI conference on artificial intelligence, Vol. 38, N. 17, pagg. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936\
    2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O'Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos e David G. Robinson, "Practices for governing agentic AI Systems", OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3
    3 Tula Masterman, Sandi Besen, Mason Sawtell e Alex Chao, "The landscape of emerging AI agent architectures for reasoning, planning and tool calling: A Survey" arXiv prestampa, 2024, https://arxiv.org/abs/2404.11584
    4 Gautier Dagan, Frank Keller e Alex Lascarides, "Dynamic planning with an LLM", arXiv prestampa, 2023 https://arxiv.org/abs/2308.06391
    5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu e Dongkuan Xu, "ReWOO: Decoupling reasoning from observations for efficient augmented language models", arXiv prestampa, 2023 https://arxiv.org/abs/2305.18323
    6 Sebastian Schmid, Daniel Schraudner and Andreas Harth, "Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation." IEEE International conference on autonomic computing and self-organizing systems companion, pagg. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196
    7 Veselka Sasheva Petrova-Dimitrova, "Classifications of intelligence agents and their applications", Fundamental sciences and applications, Vol. 28, N. 1, 2022.
    8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei e Jirong Wen, "A survey on large language model based autonomous agents", Frontiers of computer science, Vol. 18, N. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1
    9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, "Enhancing a traditional health care system of an organization for better service with agent technology by ensuring confidentiality of patients' medical information", Cybernetics and information technologies, Vol. 12, No. 3, pagg. 140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031
    10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi e Mamadou Seck, "Intelligent agent for hurricane emergency identification and text information extraction from streaming social media big data", International journal of critical infrastructures, Vol. 19, No. 2, pagg. 124-139, 2023, https://arxiv.org/abs/2106.07114
    11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu e Deheng Ye. "More agents is all you need". arXiv prestampa, 2024, https://arxiv.org/abs/2402.05120
    12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang e Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior," Proceedings of the 36th annual ACM symposium on user interface software and technology, pagg. 1–22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763
    13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim e Markus Anderljung, "Visibility into AI agents", The 2024 ACM Conference on fairness, accountability and transparency, pagg. 958–973, 2024, https://arxiv.org/abs/2401.13138
    14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca e Saravan Rajmohan, "Exploring LLM-based agents for root cause analysis", arXiv prestampa, 2024, https://arxiv.org/abs/2403.04123