Un sistema multiagente (MAS) consiste en múltiples agentes de inteligencia artificial (IA) que trabajan colectivamente para realizar tareas en nombre de un usuario u otro sistema.
Cada agente de un MAS tiene propiedades individuales, pero todos se comportan en colaboración para conseguir las propiedades globales deseadas.1 Los sistemas multiagente son muy útiles para realizar tareas complejas a gran escala que pueden abarcar cientos, si no miles, de agentes.2
En el centro de esta idea se encuentran los agentes de inteligencia artificial (AI) . Un agente de AI se refiere a un sistema o programa capaz de realizar tareas de forma autónoma en nombre de un usuario u otro sistema mediante el diseño de su flujo de trabajo y el uso de las herramientas disponibles. En el núcleo de los agentes de AI se encuentran los grandes modelos de lenguaje (LLMs). Estos agentes inteligentes aprovechan las técnicas avanzadas de procesamiento de lenguaje natural de los LLM para comprender y responder a las entradas del usuario. Los agentes resuelven los problemas paso a paso y determinan cuándo recurrir a herramientas externas. Lo que diferencia a los agentes de AI de los LLM tradicionales es el uso de herramientas y la capacidad de diseñar un plan de acción. Las herramientas disponibles para un agente pueden incluir conjuntos de datos externos, búsquedas sitio web e interfaces de programación de aplicaciones (API). De manera similar a la toma de decisiones humana, los agentes de AI también pueden actualizar su memoria a medida que adquieren nueva información. El intercambio de información, el uso de herramientas y el aprendizaje adaptativo permiten que los agentes de AI tengan un propósito más general que los LLM tradicionales.
Para obtener más información sobre los sistemas de agente único, consulte nuestro contenido detallado sobre agentes de AI.
Los sistemas inteligentes de un solo agente interactúan con su entorno para planear, llamar a herramientas y producir respuestas de forma autónoma. Las herramientas que se ponen a disposición de un agente proporcionan información que de otro modo no estaría disponible para el agente. Como se describió anteriormente, esta información puede ser una base de datos adquirida a través de una API u otro agente. Aquí existe una distinción entre sistemas de un solo agente y sistemas de múltiples agentes. Cuando se llama a otro agente como herramienta, ese agente secundario forma parte de los estímulos ambientales del agente original. Esa información se adquiere y no se produce ninguna otra cooperación. Mientras que los sistemas de múltiples agentes se diferencian en que involucran a todos los agentes dentro del entorno para modelar los objetivos, la memoria y el plan de acción de cada uno.4 La comunicación entre agentes puede ser directa o indirecta a través de la alteración del entorno compartido.
Cada entidad de un sistema multiagente es, hasta cierto punto, un agente autónomo. Esta autonomía se manifiesta típicamente en la planeación, la llamada a herramientas y el razonamiento general del agente. En un sistema multiagente, los agentes siguen siendo autónomos, pero también cooperan y se coordinan en estructuras de agentes.3 Para resolver problemas complejos, la comunicación entre agentes y la resolución distribuida de problemas son fundamentales. Este tipo de interacción entre agentes puede describir como aprendizaje reforzado multiagente. La información compartida a través de esta forma de aprendizaje puede incluir información instantánea adquirida a través de sensores o acciones. Además, se pueden compartir las experiencias de un agente en forma de información episódica. Estos episodios pueden ser secuencias de sensaciones, acciones y políticas aprendidas. Por último, los agentes pueden compartir sus experiencias en tiempo real para evitar que otros agentes aprendan repetidamente las mismas políticas.5
Los agentes individuales son poderosos por sí mismos. Pueden crear subtareas, usar herramientas y aprender a través de sus interacciones. El comportamiento colectivo de los sistemas multiagente aumenta el potencial de precisión, adaptabilidad y escalabilidad. Los sistemas multiagente tienden a superar a los sistemas de un solo agente debido al mayor conjunto de recursos compartidos, optimización y automatización. En lugar de que varios agentes aprendan las mismas políticas, se pueden compartir las experiencias aprendidas para optimizar la complejidad del tiempo y la eficiencia.5
Los sistemas multiagente pueden funcionar con diversas arquitecturas. En las redes centralizadas, una unidad central contiene la base global de conocimientos, conecta a los agentes y monitorear su información. Un punto fuerte de esta estructura es la facilidad de comunicación entre los agentes y la uniformidad del conocimiento. Un punto débil de la centralidad es la dependencia de la unidad central; si ésta falla, falla todo el sistema de agentes.6
Los agentes en redes descentralizadas Compartir información con sus agentes vecinos en lugar de una base de conocimiento global. Algunos beneficios de las redes descentralizadas son la robustez y la modularidad. La falla de un agente no hace que falle el sistema general, ya que no hay una unidad central. Un desafío de los agentes descentralizados es coordinar su comportamiento para beneficiar a otros agentes cooperantes.7
También hay muchas formas de organizar a los agentes dentro de un sistema multiagente, entre ellas:
Una estructura jerárquica es similar a un árbol y contiene agentes con diferentes niveles de autonomía. Dentro de una estructura jerárquica simple, un agente puede tener la autoridad para tomar decisiones. En una estructura jerárquica uniforme, la responsabilidad se puede distribuir entre múltiples agentes.8
Dentro de este tipo de arquitectura, los agentes se agrupan en holarquías. Un holon es una entidad que no puede operar sin sus componentes. Por ejemplo, el cuerpo humano es un holón porque no puede funcionar sin órganos que funcionen.9 Del mismo modo, en los sistemas holónicos multiagente, el agente principal puede tener múltiples subagentes y parecer una entidad singular.8 Estos subagentes también pueden desempeñar funciones en otros holones. Estas estructuras jerárquicas se autoorganizan y se crean para lograr un objetivo a través de la colaboración de los subagentes.
Las coaliciones son útiles en casos de agentes singulares de bajo rendimiento en un grupo. En estas situaciones, los agentes se unen temporalmente para aumentar la utilidad o el rendimiento. Una vez alcanzado el desempeño deseado, se desembolsan las coaliciones. Puede llegar a ser difícil mantener estas coaliciones en entornos dinámicos. A menudo es necesario reagrupar para mejorar el rendimiento.9
Los equipos tienen una estructura similar a las coaliciones. En equipos, los agentes cooperan para mejorar el rendimiento del grupo. Los agentes en equipos no trabajan de forma independiente, a diferencia de las coaliciones. Los agentes en equipos son mucho más dependientes unos de otros y su estructura es más jerárquica que la de las coaliciones.8
Los comportamientos de los agentes dentro de un sistema multiagente a menudo reflejan comportamientos que ocurren en la naturaleza. Los siguientes comportamientos de los agentes pueden aplicarse tanto a agentes multisoftware como multirobot.
El comportamiento colectivo observado en los sistemas multiagente puede parecerse al de las aves, los peces y los humanos. En estos sistemas, los agentes comparten un objetivo y requieren alguna organización para coordinar su comportamiento. El flocado pertenece a la sincronización direccional y la estructura de estos rebaños se puede describir mediante estas heurísticas: 10
En el contexto de los agentes de software, esta coordinación es crucial para los sistemas multiagente que gestionan redes de transporte como los sistemas ferroviarios.
El posicionamiento espacial de los agentes en un sistema multiagente se puede comparar con el enjambre que ocurre en la naturaleza. Por ejemplo, las aves vuelan sincronizadas ajustándose a las aves vecinas. Desde una perspectiva técnica, el enjambre es la autoorganización emergente y la agregación entre agentes de software con control descentralizado.11 Un beneficio del enjambre es que se puede capacitar a un operador para gestionar un enjambre de agentes. Este método es menos costoso desde el punto de vista computacional y más confiable que capacitar a un operador para cada agente.12
Los sistemas multiagente pueden resolver muchas tareas complejas del mundo real. Algunos ejemplos de dominios aplicables incluyen:
Los sistemas multiagente se pueden utilizar para administrar sistemas de transporte. Las cualidades de los sistemas multiagente que permiten la coordinación de sistemas de transporte complejos son la comunicación, la colaboración, la planeación y el acceso a la información en tiempo real. Ejemplos de sistemas distribuidos que podrían obtener beneficio del MAS son los sistemas ferroviarios, las asignaciones de camiones y las embarcaciones marinas que visitan los mismos puertos.13
Los sistemas multiagente se pueden emplear para diversas tareas específicas en el campo de la salud. Estos sistemas basados en agentes pueden ayudar en la predicción y prevención de enfermedades a través del análisis genético. La investigación médica sobre el cáncer podría ser una aplicación.14 Además, los sistemas multiagente pueden servir como herramientas para prevenir y simular la propagación de epidemias. Esta previsión es posible gracias al uso de redes neuronales epidemiológicamente informadas y técnicas de aprendizaje automático (ML) para gestionar grandes conjuntos de datos. Estos hallazgos pueden afectar la salud pública y las políticas públicas.15
Numerosos factores afectan a una cadena de suministro. Estos factores van desde la creación de bienes hasta la compra por parte del consumidor. Los sistemas multiagente pueden emplear sus vastos recursos de información, versatilidad y escalabilidad para conectar los componentes de la gestión de la cadena de suministro. Para navegar mejor por esta automatización inteligente, los agentes virtuales deben negociar entre sí. Esta negociación es importante para los agentes que colaboran con otros agentes que tienen objetivos contradictorios.16
Los sistemas multiagente pueden ayudar a fortalecer los sistemas de defensa. Las amenazas potenciales pueden incluir tanto problemas físicos de seguridad nacional como ciberataques. Los sistemas multiagente pueden emplear sus herramientas para simular posibles ataques. Un ejemplo es una simulación de ataque marítimo. Este escenario implicaría que los agentes trabajaran en equipos para capturar las interacciones entre los barcos terroristas invasores y los buques de defensa.17 Además, al trabajar en equipos cooperativos, los agentes pueden monitorear diferentes áreas de la red para detectar amenazas entrantes, como ataques de inundación de denegación distribuida del servicio (DDoS).18
Hay varias características de los sistemas multiagente que brindan beneficios, entre ellas:
Los sistemas multiagente pueden ajustarse a diferentes entornos agregando, eliminando o adaptando agentes.
La cooperación de varios agentes permite disponer de un mayor acervo de información compartida. Esta colaboración permite a los sistemas multiagente resolver problemas y tareas más complejos que los sistemas de un solo agente.
Los sistemas de agente único requieren que un agente realice tareas en varios dominios, mientras que cada agente en un sistema multiagente puede tener experiencia en un dominio específico.
Los marcos multiagente tienden a superar a los agentes singulares.19 Esto se debe a que cuantos más planes de acción hay disponibles para un agente, más aprendizaje y reflexión se producen. Un agente de AI que incorpore conocimientos y feedback de otros agentes de AI con especialidades en áreas relacionadas puede ser útil para la síntesis de información. Esta colaboración de backend de los agentes de AI y la capacidad de llenar los vacíos de información son exclusivas de los marcos de agencia, lo que los convierte en una herramienta poderosa y un avance significativo en inteligencia artificial.
Existen varios desafíos en el diseño e implementación de sistemas multiagente, entre ellos:
Los sistemas multiagente creados sobre los mismos modelos fundacionales pueden tener Experiencia compartidas. Tales debilidades pueden causar una falla en todo el sistema de todos los agentes involucrados o exponer la vulnerabilidad a ataques adversos.20 Esto destaca la importancia de la gobernanza de datos en la construcción de modelos fundacionales y la necesidad de procesos exhaustivos de capacitación y pruebas.
Uno de los mayores desafíos de la creación de sistemas multiagente es desarrollar agentes que puedan coordinarse y negociar entre sí. Esta cooperación es esencial para un sistema multiagente que funcione.
Los agentes que actúan de forma autónoma e independiente en redes descentralizadas pueden tener una Experiencia conflictiva o impredecible. Detectar y gestionar problemas dentro del sistema más grande puede ser difícil en estas condiciones.
Encuestamos a 2000 organizaciones sobre sus iniciativas de IA para descubrir qué funciona, qué no y cómo pueden avanzar.
IBM Granite es nuestra familia de modelos de IA abiertos, de alto rendimiento y confiables, diseñados para empresas y optimizados para escalar sus aplicaciones de IA. Explore opciones de lenguaje, código, series de tiempo y medidas de protección.
Acceda a nuestro catálogo completo de más de 100 cursos en línea al adquirir hoy mismo una suscripción individual o multiusuario, que le permitirá ampliar sus conocimientos en una amplia gama de nuestros productos a un precio reducido.
Dirigida por los principales líderes de opinión de IBM, el plan de estudios está diseñado para ayudar a los líderes empresariales a obtener los conocimientos necesarios para priorizar las inversiones en IA que pueden impulsar el crecimiento.
¿Quiere rentabilizar mejor sus inversiones en IA? Descubra cómo la IA generativa escalable en áreas clave impulsa el cambio ayudando a sus mejores mentes a crear y ofrecer nuevas soluciones innovadoras.
Aprenda a incorporar con confianza la IA generativa y el aprendizaje automático en su negocio.
Indague en los 3 elementos críticos de una estrategia sólida de IA: crear una ventaja competitiva, escalar la IA en todo el negocio y avanzar en la IA confiable.
1 Edmund H. Durfee and Jeffrey S. Rosenschein, "Distributed problem solving and multi-agent systems: Comparisons and examples." In Proceedings of the Thirteenth International Distributed Artificial Intelligence Workshop, 1994, https://aaai.org/papers/000-ws94-02-004/ (enlace externo a ibm.com)
² David Kinny and Michael Georgeff, "Modelling and design of multi-agent systems," International Workshop on Agent Theories, Architectures, and Languages, 1996, https://link.springer.com/chapter/10.1007/BFb0013569 (enlace externo a ibm.com)
³ Michael Wooldridge, An introduction to multiagent systems. John Wiley & Sons, 2009, https://dl.acm.org/doi/10.5555/1695886 (enlace externo a ibm.com)
⁴ Peter Stone and Manuela Veloso, “Multiagent Systems: A Survey from a Machine Learning Perspective,” Autonomous Robotics, 2000, https://link.springer.com/article/10.1023/A:1008942012299 (enlace externo a ibm.com)
⁵ Ming Tan, “Multi-Agent Reinforcement Learning: Independent versus Cooperative Agent,” Proceedings of the tenth international conference on machine learning, 1993, https://web.media.mit.edu/~cynthiab/Readings/tan-MAS-reinfLearn.pdf (enlace externo a outside ibm.com)
⁶ Jianan Wang, Chunyan Wang, Ming Xin, Zhengtao Ding and Jiayuan Shan, Cooperative Control of Multi-Agent Systems: An Optimal and Robust Perspective, Academic Press, 2020, https://www.sciencedirect.com/book/9780128201183/cooperative-control-of-multi-agent-systems?via=ihub= (enlace externo a ibm.com)
⁷ Lucian Busoniu, Bart De Schutter and Robert Babuska, “Decentralized reinforcement learning control of a robotic manipulator,” Proceedings of the 9th International Conference on Control, Automation, Robotics and Vision, 2006, https://ieeexplore.ieee.org/document/4150192 (enlace externo a ibm.com)
⁸ Parasumanna Gokulan Balaji and Dipti Srinivasan, "An Introduction to Multi-Agent Systems,” Innovations in Multi-Agent Systems and Applications - 1, 2010, https://link.springer.com/chapter/10.1007/978-3-642-14435-6_1 (enlace externo a ibm.com)
⁹ Vincent Hilaire, Abder Koukam and Sebastian Rodriguez, "An adaptative agent architecture for holonic multi-agent systems," ACM Transactions on Autonomous and Adaptive Systems (TAAS), 2008, https://dl.acm.org/doi/10.1145/1342171.1342173 (enlace externo a ibm.com)
¹⁰ Reza Olfati-Saber, “Flocking for Multi-Agent Dynamic Systems: Algorithms and Theory,” EEE Transactions on automatic control 51, no. 3, 2006, https://ieeexplore.ieee.org/document/1605401 (enlace externo a ibm.com)
¹¹ H. Van Dyke Parunak and Sven A. Brueckner, "Engineering swarming systems," Methodologies and software engineering for agent systems, 2004, https://link.springer.com/chapter/10.1007/1-4020-8058-1_21 (enlace externo a ibm.com)
¹² Ross Arnold, Kevin Carey, Benjamin Abruzzo and Christopher Korpela, "What is a robot swarm: a definition for swarming robotics," IEEE 10th annual ubiquitous computing, electronics & mobile communication conference (uemcon), 2019, https://ieeexplore.ieee.org/document/8993024 (enlace externo a ibm.com)
¹³ Hans Moonen, Multi-agent systems for transportation planning and coordination, 2009.
¹⁴ Elhadi Shakshuki and Malcolm Reid, “Multi-Agent System Applications in Healthcare: Current Technology and Future Roadmap,” Procedia Comput Sci, 2015, https://www.sciencedirect.com/science/article/pii/S1877050915008716?via%3Dihub (enlace externo a ibm.com)
¹⁵ Alexander Rodríguez, "AI & Multi-agent Systems for Data-centric Epidemic Forecasting," AAMAS, 2023, https://dl.acm.org/doi/10.5555/3545946.3599132 (enlace externo a ibm.com)
¹⁶ Ksenija Mandic and Boris Delibašić, “Application Of Multi-Agent Systems In Supply Chain Management,” Management Journal of Sustainable Business and Management Solutions in Emerging Economies, 2012, https://scindeks.ceon.rs/article.aspx?artid=0354-86351263075M (enlace externo a ibm.com)
¹⁷ Thomas W. Lucas, Susan M. Sanchez, Lisa R. Sickinger, Felix Martinez and Jonathan W. Roginski, 2007 Winter Simulation Conference, 2007, https://ieeexplore.ieee.org/document/4419596 (enlace externo a ibm.com)
¹⁸ Igor Kotenko, Multi-agent Modelling and Simulation of Cyber-Attacks and Cyber-Defense for Homeland Security, IEEE International Workshop on Intelligent Data Acquisition and Advanced Computing Systems: Technology and Applications, 2007, https://ieeexplore.ieee.org/document/4488494(enlace externo a ibm.com)
¹⁹ Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu and Deheng Ye. "More agents is all you need." arXiv preprint, 2024, https://arxiv.org/abs/2402.05120 (enlace externo a ibm.com)
²⁰ Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, “Visibility into AI Agents,” The 2024 ACM Conference on Fairness, Accountability, and Transparency, 2024, https://arxiv.org/abs/2401.13138 (enlace externo a ibm.com)