¿Qué son los agentes de IA?

Autores

Anna Gutowska

AI Engineer, Developer Advocate

IBM

¿Qué son los agentes de IA?

Un agente de inteligencia artificial (IA) es un sistema que realiza tareas de forma autónoma mediante el diseño de flujos de trabajo con las herramientas disponibles.

Los agentes de IA pueden abarcar una amplia gama de funciones más allá del procesamiento de lenguaje natural, incluyendo la toma de decisiones, la resolución de problemas, la interacción con entornos externos y la realización de acciones.

Los agentes de IA resuelven tareas complejas en todas las aplicaciones empresariales, incluido el diseño de software, la automatización de TI, la generación de código y la asistencia conversacional. Emplean las técnicas avanzadas de procesamiento de lenguaje natural de los modelos de lenguaje de gran tamaño (LLM) para comprender y responder a las entradas de los usuarios paso a paso y determinar cuándo recurrir a herramientas externas.

Cómo funcionan los agentes de IA

En el núcleo de los agentes de IA se encuentran los modelos de lenguaje de gran tamaño(LLM). Por esta razón, los agentes de IA a menudo se denominan agentes LLM. Los LLM tradicionales, como los modelos IBM®  Granite, producen sus respuestas con base en los datos empleados para capacitarlos y están vinculados por limitaciones de conocimiento y razonamiento. Por el contrario, la tecnología de agente emplea la llamada a herramientas en el backend para obtener información actualizada, optimizar el flujo de trabajo y crear subtareas de forma autónoma para lograr objetivos complejos.

En este proceso, el agente autónomo aprende a adaptarse a las expectativas del usuario con el tiempo. La capacidad del agente para almacenar interacciones pasadas en la memoria y planificar acciones futuras fomenta una experiencia personalizada y respuestas integrales.1 Esta llamada a herramientas se puede lograr sin intervención humana y amplía las posibilidades de aplicaciones de estos sistemas de IA en el mundo real. Estas tres etapas o componentes de agencia definen cómo operan los agentes:

Inicialización y planeación de objetivos

Aunque los agentes de IA son autónomos en sus procesos de toma de decisiones, requieren objetivos y reglas predefinidas definidas por humanos.2 Hay tres influencias principales en el comportamiento del agente autónomo:

  • El equipo de desarrolladores que diseña y capacita el sistema de IA agéntica. 
  • El equipo que despliega el agente y proporciona al usuario acceso a él.
  • El usuario que proporciona al agente de IA los objetivos específicos que debe lograr y establece las herramientas disponibles para usar.

Dados los objetivos del usuario y las herramientas disponibles del agente de IA, este después realiza descomposición de tareas para mejorar el rendimiento.3 Esencialmente, el agente crea un plan de tareas y subtareas específicas para lograr el objetivo complejo.

Para tareas simples, la planeación no es un paso necesario. En su lugar, un agente puede reflexionar de forma iterativa sobre sus respuestas y mejorarlas sin planificar sus próximos pasos.

Razonamiento con las herramientas disponibles

Los agentes de IA basan sus acciones en la información que perciben. Sin embargo, a menudo carecen del conocimiento completo necesario para abordar cada subtarea dentro de un objetivo complejo. Para cerrar esta brecha, recurren a las herramientas disponibles, como conjuntos de datos externos, búsquedas web, API e incluso otros agentes.

Una vez que se recopila la información faltante, el agente actualiza su base de conocimientos y participa en el razonamiento agentivo. Este proceso implica reevaluar continuamente su plan de acción y hacer autocorrecciones, lo que permite una toma de decisiones más informada y adaptable.

Para ilustrar este proceso, imaginemos a un usuario planeando sus vacaciones. El usuario encomienda a un agente AI predecir cuál sería la semana del año próximo con el mejor clima para su viaje de surf en Grecia. 

Debido a que el modelo LLM en el núcleo del agente no se especializa en patrones climáticos, no puede confiar únicamente en su conocimiento interno. Por lo tanto, el agente recopila información de una base de datos externa que contiene informes meteorológicos diarios para Grecia durante los últimos años.

A pesar de adquirir esta nueva información, el agente aún no puede determinar las condiciones climáticas óptimas para navegar, por lo que se crea la siguiente subtarea. Para esta subtarea, el agente se comunica con un agente externo que se especializa en surfear. Digamos que, al hacerlo, el agente aprende que las mareas altas y el clima soleado con poca o ninguna lluvia proporcionan las mejores condiciones para surfear.

El agente ahora puede combinar la información que ha aprendido de sus herramientas para identificar patrones. Puede predecir qué semana del próximo año en Grecia probablemente habrá mareas altas, clima soleado y pocas probabilidades de lluvia. Estos hallazgos se presentan entonces al usuario. Este intercambio de información entre herramientas es lo que permite a los agentes de IA ser más polivalentes que los modelos de IA tradicionales.3

Aprendizaje y reflexión

Los agentes de IA emplean mecanismos de retroalimentación, como otros agentes de IA y humanos en el circuito (HITL), para mejorar la precisión de sus respuestas. Volvamos a nuestro ejemplo de navegación anterior para resaltar este proceso. Una vez que el agente forma su respuesta al usuario, almacena la información aprendida junto con la retroalimentación del usuario para mejorar el rendimiento y adaptarse a las preferencias del usuario para objetivos futuros.

Si se emplearon otros agentes para alcanzar el objetivo, también podría utilizarse su retroalimentación. La retroalimentación de múltiples agentes puede ser especialmente útil para minimizar el tiempo que los usuarios humanos dedican a dar indicaciones. Sin embargo, los usuarios también pueden proporcionar retroalimentación a lo largo de las acciones del agente y su razonamiento interno para ajustar mejor los resultados al objetivo deseado.2

Los mecanismos de retroalimentación mejoran el razonamiento y la precisión del agente de IA, lo que comúnmente se conoce como refinamiento iterativo.3 Para evitar repetir los mismos errores, los agentes de IA también pueden almacenar datos sobre soluciones a obstáculos previos en una base de conocimientos.

Las últimas noticias tecnológicas, respaldadas por los insights de expertos

Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Chatbots de IA agéntica frente a no agéntica

Los chatbots de IA emplean técnicas de IA conversacional como el procesamiento de lenguaje natural (PLN), para comprender las preguntas de los usuarios y automatizar las respuestas a estos. Estos chatbots son una modalidad, mientras que la agencia es un marco tecnológico.

Los chatbots de IA no agente son aquellos que no tienen herramientas, memoria o razonamiento disponibles. Ellos solo pueden alcanzar objetivos a corto plazo y no pueden planificar con anticipación. Tal y como los conocemos, los chatbots no de agentes requieren la entrada continua del usuario para responder.

Pueden producir respuestas a preguntas comunes que muy probablemente se ajusten a las expectativas del usuario, pero su rendimiento es deficiente en preguntas exclusivas al usuario y sus datos. Debido a que estos chatbots no tienen memoria, no pueden aprender de sus errores si sus respuestas no son satisfactorias.

Por el contrario, los chatbots con IA agéntica aprenden a adaptarse a las expectativas de los usuarios con el tiempo, brindando una experiencia más personalizada y respuestas integrales. Pueden completar tareas complejas creando subtareas sin intervención humana y considerando diferentes planes. Estos planes también pueden autocorregirse y actualizarse según sea necesario. Los chatbots de IA agente, a diferencia de los no agentes, evalúan sus herramientas y utilizan sus recursos disponibles para completar las brechas de información.

AI Academy

Conviértase en un experto en IA

Obtenga el conocimiento para priorizar las inversiones en IA que impulsan el crecimiento del negocio. Comience hoy mismo con nuestra AI Academy gratuita y lidere el futuro de la IA en su organización.

Paradigmas de razonamiento

No existe una arquitectura estándar para crear agentes de IA. Existen varios paradigmas para resolver problemas de varios pasos.

ReAct (razonamiento y acción)

Con el paradigma ReAct, podemos instruir a los agentes para que "piensen" y planifiquen después de cada acción realizada y con cada respuesta de herramienta para decidir qué herramienta usar a continuación. Estos bucles Think-Act-Observe se emplean para resolver problemas paso a paso y mejorar las respuestas una y otra vez.

A través de la estructura de instrucciones, se puede instruir a los agentes para que razonen lentamente y muestren cada "pensamiento".4 El razonamiento verbal del agente da un insight de cómo se formulan las respuestas. En este marco, los agentes actualizan continuamente su contexto con nuevos razonamientos. Este enfoque puede interpretarse como una forma de instrucciones de cadena de pensamiento .

ReWOO (razonamiento sin observación)

El método ReWOO, a diferencia de ReAct, elimina la dependencia de los resultados de las herramientas para la planeación de acciones. En cambio, los agentes con anticipación. El uso redundante de herramientas se evita anticipando cuáles utilizar al recibir la primera indicación del usuario. Este enfoque es deseable desde una perspectiva centrada en el ser humano porque el usuario puede confirmar el plan antes de que se ejecute.

El flujo de trabajo de ReWOO se compone de tres módulos. En el módulo de planeación, el agente anticipa sus próximos pasos según las instrucciones del usuario. La siguiente etapa implica recopilar los resultados producidos al llamar a estas herramientas. Por último, el agente combina el plan inicial con los resultados de la herramienta para formular una respuesta. Esta planificación anticipada puede reducir en gran medida el uso de token y la complejidad computacional y las repercusiones de la falla de la herramienta intermedia.5

Tipos de agentes de IA

Los agentes de IA se pueden desarrollar para tener diferentes niveles de capacidades. Un agente sencillo podría ser preferido para objetivos directos para limitar la complejidad computacional innecesaria. Desde el más simple al más avanzado, existen 5 tipos principales de agentes:

1. Agentes reflejos simples

Los agentes reflejos simples son la forma de agente más simple que basa las acciones en la percepción. Este agente no tiene memoria ni interactúa con otros agentes si le falta información. Estos agentes funcionan sobre un conjunto de los llamados reflejos o reglas. Este comportamiento significa que el agente está preprogramado para realizar acciones que corresponden al cumplimiento de ciertas condiciones.

Si el agente se encuentra con una situación para la que no está preparado, no puede responder adecuadamente. Los agentes son eficaces en entornos totalmente observables que permitan acceder a toda la información necesaria.6

Ejemplo: si son las 8 p. m., entonces la calefacción está activada; por ejemplo, un termostato que enciende el sistema de calefacción a una hora determinada todas las noches.

2. Agentes reflejos basados en modelos

Los agentes reflejos basados en modelos emplean tanto su percepción actual como su memoria para mantener un modelo interno del mundo. A medida que el agente continúa recibiendo nueva información, el modelo se actualiza. Las acciones del agente dependen de su modelo, reflejos, preceptos previos y estado actual.

Estos agentes, a diferencia de los agentes reflejos simples, pueden almacenar información en la memoria y pueden operar en entornos que son parcialmente observables y cambiantes. Sin embargo, todavía están limitados por su conjunto de reglas.6

Ejemplo: una aspiradora robot. Mientras limpia una habitación sucia, detecta obstáculos, como muebles, y se adapta a ellos. El robot también almacena un modelo de las áreas que ya limpió para no quedarse atascado en un ciclo de limpieza repetida.

3. Agentes basados en objetivos

Los agentes basados en objetivos tienen un modelo interno del mundo y también un objetivo o conjunto de objetivos. Estos agentes buscan secuencias de acción que alcancen su objetivo y planean estas acciones antes de actuar en consecuencia. Con esta búsqueda y planeación mejoran su eficacia en comparación con los agentes reflejos simples y basados en modelos.7

Ejemplo: Un sistema de navegación que recomienda la ruta más rápida para su destino. El modelo considera varias rutas para llegar a su destino, o en otras palabras, a su meta. En este ejemplo, la regla de condición-acción del agente establece que si se encuentra una ruta más rápida, el agente recomienda esa otra.

4. Agentes basados en la utilidad

Los agentes basados en la utilidad seleccionan la secuencia de acciones que alcanzan el objetivo y también maximizan la utilidad o la recompensa. La utilidad se calcula a través de una función de utilidad. Esta función asigna un valor de utilidad, una métrica que mide la utilidad de una acción o cuán "feliz" hace al agente, a cada escenario en función de un conjunto de criterios fijos.

Los criterios pueden incluir factores como la progresión hacia la meta, los requisitos de tiempo o la complejidad computacional. Luego, el agente selecciona las acciones que maximizan la utilidad esperada. Por lo tanto, estos agentes son útiles en casos en los que múltiples escenarios logran un objetivo deseado y se debe seleccionar el más óptimo.7

Ejemplo: Un sistema de navegación que recomienda la ruta para su destino que optimiza la eficiencia de combustible y minimiza el tiempo empleado en el tráfico y el costo de los peajes. Este agente mide la utilidad a través de este conjunto de criterios para seleccionar la ruta más favorable.

5. Agentes de aprendizaje

Los agentes de aprendizaje tienen las mismas capacidades que los otros tipos de agentes, pero son únicos en su capacidad de aprendizaje. Se suman nuevas experiencias a su base de conocimientos inicial, lo que ocurre de forma autónoma. Este aprendizaje mejora la capacidad del agente para operar en entornos desconocidos. Los agentes de aprendizaje pueden basarse en la empresa de servicios públicos o en los objetivos en su razonamiento y se componen de cuatro elementos principales:7

  • Aprendizaje: este proceso mejora el conocimiento del agente aprendiendo del entorno a través de sus preceptos y sensores.
  • Crítico: este componente proporciona retroalimentación al agente sobre si la calidad de sus respuestas cumple con el estándar de rendimiento.
  • Rendimiento: Este elemento es responsable de seleccionar acciones durante el aprendizaje.
  • Generador de problemas: este módulo crea varias propuestas de acciones a tomar.

Ejemplo: Recomendaciones personalizadas en sitios de comercio electrónico. Estos agentes buscan la actividad y las preferencias del usuario en su memoria. Esta información se emplea para recomendar determinados productos y servicios al usuario. El ciclo se repite cada vez que se hacen nuevas recomendaciones. La actividad del usuario se almacena continuamente con fines de aprendizaje. Al hacerlo, el agente mejora su precisión con el tiempo.

Casos de uso de agentes de IA

Experiencia del cliente

Los agentes de IA pueden integrarse en sitios web y aplicaciones para mejorar la experiencia del cliente actuando como asistentes virtuales, proporcionando apoyo a la salud mental, simulando entrevistas y otras tareas relacionadas.Existen muchas plantillas sin código para que el usuario las implemente, lo que facilita aún más el proceso de creación de estos agentes de IA.

Atención médica

Los agentes de IA se pueden utilizar para diversas aplicaciones de atención médica en el mundo real. Los sistemas multiagente pueden ser útiles para resolver problemas en dichos entornos. Desde la planificación del tratamiento para pacientes en el área de emergencias hasta la gestión de procesos de medicamentos, estos sistemas ahorran el tiempo y esfuerzo de los profesionales médicos para tareas más urgentes.9

Respuesta de emergencia

Si hay un desastre natural, los agentes de IA pueden usar algoritmos de aprendizaje profundo para recuperar la información de los usuarios en los sitios de redes sociales que necesitan rescate. Se pueden mapear las ubicaciones de estos usuarios para ayudar a los servicios de rescate a salvar a más personas en menos tiempo. Por lo tanto, los agentes de IA pueden tener un gran beneficio en la vida humana tanto en tareas mundanas y repetitivas como en situaciones que salvan vidas.10

Finanzas y cadena de suministro

Los agentes pueden diseñarse para analizar datos financieros en tiempo real, anticipar futuras tendencias del mercado y optimizar la gestión de la cadena de suministro . La personalización de los agentes autónomos de IA nos proporciona resultados personalizados a nuestros datos únicos. Cuando se trabaja con datos financieros, es importante aplicar medidas de seguridad para la privacidad de datos.

Beneficios de los agentes de IA

Automatización de tareas

 Con los avances continuos en IA generativa y aprendizaje automático , existe un creciente interés en la optimización del flujo de trabajo a través de la IA o automatización inteligente . Los agentes de IA son herramientas de IA que pueden automatizar tareas complejas que de otro modo requerirían recursos humanos. Este cambio se traduce en objetivos que se alcanzan de forma económica, rápida y a escala. En consecuencia, estos avances implican que los agentes humanos no tienen que dar indicaciones al asistente de IA para crear y navegar por sus tareas.

Mayor rendimiento

La infraestructura multiagente tiende a superar a los agentes singulares.11 Esto se debe a que entre más planes de acción estén disponibles para un agente, se produce más aprendizaje y reflexión.

Un agente de IA que incorpore conocimientos y retroalimentación de otros agentes de IA especializados en áreas relacionadas puede ser útil para la síntesis de información. Esta colaboración de backend de los agentes de IA y la capacidad de llenar los vacíos de información son exclusivas de la infraestructura agéntica, lo que los convierte en una herramienta poderosa y un avance significativo en inteligencia artificial.

Calidad de las respuestas

Los agentes de IA ofrecen respuestas más completas, precisas y personalizadas para el usuario que los modelos tradicionales de IA. Esta adaptabilidad es importante para nosotros como usuarios porque las respuestas de mayor calidad suelen ofrecer una mejor experiencia del cliente. Como se describió anteriormente, esta capacidad es posible mediante el intercambio de información con otros agentes, a través de herramientas y la actualización de su flujo de memoria. Estos comportamientos surgen por sí solos y no están preprogramados.12

Riesgos y limitaciones

Dependencias multiagente

Ciertas tareas complejas requieren el conocimiento de múltiples agentes de IA. La orquestación de estos marcos multiagente tiene un riesgo de mal funcionamiento. Los sistemas multiagente creados sobre los mismos modelos fundacionales pueden experimentar dificultades compartidas. Estas debilidades pueden causar un fallo en todo el sistema de todos los agentes involucrados o exponer la vulnerabilidad a ataques adversos.13 Esto destaca la importancia de gobernanza de datos en la creación de modelos fundacionales y procesos exhaustivos de entrenamiento y pruebas.

Bucles de retroalimentación infinitos

La conveniencia del razonamiento de no intervención para los usuarios humanos habilitado por los agentes de IA también conlleva sus riesgos. Los agentes que no pueden crear un plan integral o reflexionar sobre sus hallazgos, pueden encontrarse recurriendo repetidamente a las mismas herramientas, lo que provoca ciclos infinitos de retroalimentación. Para evitar estas redundancias, se podría utilizar un cierto nivel de supervisión humana en tiempo real.13

Complejidad computacional

Crear agentes de IA desde cero requiere mucho tiempo y puede ser muy costoso en términos computacionales. Los recursos necesarios para capacitar a un agente de alto rendimiento pueden ser amplios. Además, dependiendo de la complejidad de la tarea, los agentes pueden tardar varios días en completar las tareas.12

Privacidad de datos

Si se gestiona mal, la integración de los agentes de IA con los procesos empresariales y los sistemas de gestión de clientes puede plantear serios problemas de seguridad. Por ejemplo, imagine que los agentes de IA lideran el proceso de desarrollo de software, llevan a los copilotos de programación al siguiente nivel o determinan los precios para los clientes, sin supervisión humana ni barreras de seguridad. Los Resultados de tales escenarios pueden ser perjudiciales debido al comportamiento experimental y, a menudo, impredecible de la IA agéntica.

Por lo tanto, es esencial que los proveedores de IA, como IBM, Microsoft y OpenAI, sigan siendo proactivos. Deben implementar amplios protocolos de seguridad para garantizar que los datos confidenciales de empleados y clientes se almacenen de forma segura. Las prácticas de despliegue responsable son clave para minimizar el riesgo y mantener la confianza en estas tecnologías en rápida evolución.

Mejores prácticas

Registros de actividad

Para abordar las preocupaciones de las dependencias multiagente, los desarrolladores pueden proporcionar a los usuarios acceso a un registro de las acciones de los agentes.14 Las acciones pueden incluir el uso de herramientas externas y describir los agentes externos utilizados para alcanzar el objetivo. Esta transparencia otorga a los usuarios información sobre el proceso iterativo de toma de decisiones, brinda la oportunidad para descubrir errores y genera confianza.

Interrupción

Se recomienda evitar que los agentes de IA autónomos se ejecuten durante períodos de tiempo demasiado largos. En especial en casos de bucles de retroalimentación infinitos no deseados, cambios en el acceso a ciertas herramientas o mal funcionamiento debido a fallas de diseño. Una forma de lograr este objetivo es implementar la interrumpibilidad.

Mantener el control de esta decisión implica permitir a los usuarios humanos la opción de interrumpir con gracia una secuencia de acciones o toda la operación. Elegir interrumpir a un agente de IA y cuándo hacerlo requiere cierta consideración, ya que algunas terminaciones pueden causar más daño que bien. Por ejemplo, podría ser más seguro permitir que un agente defectuoso continúe brindando asistencia en una emergencia potencialmente mortal en lugar de apagarlo por completo.5

Identificadores únicos de agentes

Para mitigar el riesgo de que los sistemas de agentes se utilicen con fines maliciosos, se pueden implementar identificadores únicos. Si estos identificadores fueran necesarios para que los agentes accedan a sistemas externos, sería más fácil rastrear el origen de los desarrolladores, implementadores y usuarios del agente.

Este enfoque agrega una capa esencial de responsabilidad. La trazabilidad ayuda a identificar a las partes responsables cuando un agente causa un uso malicioso o un daño no intencionado. En última instancia, este tipo de salvaguarda fomentaría un entorno operativo más seguro para los agentes de IA.

Supervisión humana

Para ayudar en el proceso de aprendizaje de los agentes de IA, especialmente en sus primeras etapas en un nuevo entorno, puede ser útil proporcionar cierto nivel de supervisión humana. Entonces, con base en esta guía, el agente de IA puede comparar su rendimiento con el estándar esperado y hacer ajustes. Esta forma de retroalimentación es útil para mejorar la adaptabilidad del agente a las preferencias del usuario.5

Además de esta salvaguarda, es una mejor práctica requerir la aprobación humana antes de que un agente de IA tome medidas de gran impacto. Por ejemplo, las acciones que van desde el envío masivo de correos electrónicos hasta las operaciones financieras deben solicitar la confirmación humana.7 Se recomienda cierto nivel de supervisión humana para los dominios de alto riesgo.

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione poderosos asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agentes de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que pueda confiar.

    Explorar las soluciones de agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma en que las empresas trabajan con IA para la transformación.

    Explorar los servicios de inteligencia artificial
    Dé el siguiente paso

    Ya sea que elija personalizar aplicaciones y habilidades predefinidas o crear y desplegar servicios agénticos personalizados utilizando un estudio de IA, la plataforma IBM watsonx responde a sus necesidades.

    Explore watsonx Orchestrate Explore watsonx.ai
    Notas de pie de página

    1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu y Gao Huang, "Expel: LLM agent are experiential learners", Actas de la conferencia AAAI sobre inteligencia artificial, vol. 38, No. 17, pp. 19632-19642, 2024, https:\/\/ojs.aaai.org\/index.php\/AAAI\/article\/view\/29936\
    2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O'Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos y David G. Robinson, “Prácticas para gobernar sistemas de IA agéntica”, OpenAI, 2023, https:\/\/arxiv.org\/pdf\/2401.13138v3
    3 Tula Masterman, Sandi Besen, Mason Sawtell y Alex Chao, “El ámbito de las arquitecturas emergentes de agentes de IA para razonamiento, planeación y llamada de herramientas: un estudio”, preimpresión de arXiv, 2024, https:\/\/arxiv.org\/abs\/2404.11584
    4 Gautier Dagan, Frank Keller y Alex Lascarides, "Planeación dinámica con un LLM", preimpresión de arXiv, 2023 https:\/\/arxiv.org\/abs\/2308.06391
    5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu y Dongkuan Xu, "ReWOO: Desacoplar el razonamiento de las observaciones para modelos de lenguaje aumentado eficientes", preimpresión de arXiv, 2023 https:\/\/arxiv.org\/abs\/2305.18323
    6 Sebastián Schmid, Daniel Schraudner y Andreas Harth, "Comparación de rendimiento de agentes reflejos simples usando estigmergia con agentes basados en modelos en transporte autorganizado." Conferencia internacional IEEE sobre computación autónoma y sistemas autoorganizados complementarios, págs. 93–98, 2021, https:\/\/ieeexplore.ieee.org\/document\/9599196

     
    7 Veselka Sasheva Petrova-Dimitrova, “Clasificaciones de agentes de inteligencia y sus aplicaciones”, Ciencias fundamentales y aplicaciones, vol. 28, No. 1, 2022. 8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei and Jirong Wen, “ Una encuesta sobre agentes autónomos basados en modelos de lenguaje de gran tamaño”, Frontiers of computer science, vol. 18, No. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1
    9 Jaya R. Haleema, Haleema, NCSN Narayana, “Enhancing a tradicional sistema de atención médica de una organización para un mejor servicio con tecnología de agentes al garantizar la confidencialidad de la información médica de los pacientes”, Cibernética y tecnologías de la información, vol. 12, No. 3, pp.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031 10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi and Mamadou Seck, “Intelligent agent for Hurricane Emergency identificación y extracción de información de texto de la transmisión de big data de redes sociales”, International Journal of Critical Infrastructures, vol. 19, No. 2, págs. 124–139, 2023, https:\/\/arxiv.org\/abs\/2106.07114
    11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu y Deheng Ye. "More agents is all you need." 
    Preprint de arXiv, 2024, https://arxiv.org/abs/2402.05120 12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang and Michael S. Bernstein, "Generative agent: Interactive simulacra of human comportamiento", Actas del 36.º simposio anual de ACM sobre software y tecnología de interfaz de usuario, págs. 1–22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763
    13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim y Markus Anderljung, “Visibilidad en los agentes de IA”, La Conferencia de la ACM 2024 sobre equidad, responsabilidad y transparencia, pp.
    958–973, 2024, https://arxiv.org/abs/2401.13138 14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca and Saravan Rajmohan, "Exploring LLM-based agent for root cause analysis", arXiv preprint, 2024, https://arxiv.org/abs/2403.04123