Las últimas tendencias en IA, presentadas por expertos
Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.
El razonamiento agentivo es un componente de agentes de IA que se encarga de la toma de decisiones. Permite a los agentes de inteligencia artificial realizar tareas de forma autónoma aplicando lógica condicional o heurística, basándose en la percepción y la memoria, lo que les permite perseguir objetivos y optimizar para obtener el mejor resultado posible.
Los modelos anteriores de machine learning seguían un conjunto de reglas preprogramadas para llegar a una decisión. Los avances en IA han dado lugar a modelos de IA con capacidades de razonamiento más evolucionadas, pero que siguen necesitando la intervención humana para convertir la información en conocimiento. El razonamiento agentivo va un paso más allá, permitiendo a los agentes de IA transformar el conocimiento en acción.
El "motor de razonamiento" impulsa las fases de planificación y llamada de herramientas de los flujos de trabajo agénticos. La planificación descompone una tarea en un razonamiento más manejable, mientras que la llamada de herramientas ayuda a informar la decisión de un agente de IA a través de las herramientas disponibles. Estas herramientas pueden incluir interfaces de programación de aplicaciones (API), conjuntos de datos externos y fuentes de datos como gráficos de conocimiento.
Para las empresas, IA agéntica puede basar aún más el proceso de razonamiento en pruebas a través de la generación aumentada por recuperación (RAG). Los sistemas RAG pueden recuperar datos empresariales y otra información relevante que se puede agregar al contexto de un agente de IA para el razonamiento.
Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.
El razonamiento agente puede abordarse de diferentes maneras en función de la arquitectura y el tipo de agente. Estas son algunas técnicas comunes para el razonamiento de agentes de IA, incluidos los pros y los contras de cada una:
● Lógica condicional
● Heurística
● ReAct (Razón + Acción)
● ReWOO (Razonamiento sin observación)
● Autorreflexión
● Razonamiento multiagente
Los agentes de IA simples siguen un conjunto de reglas de condición-acción preprogramadas. Estas reglas suelen adoptar la forma de declaraciones "si-entonces", donde la parte "si" especifica la condición y la parte "entonces" indica la acción. Cuando se cumple una condición, el agente lleva a cabo la acción correspondiente.
Esta metodología de razonamiento es especialmente adecuada para casos de uso específicos del dominio. En finanzas, por ejemplo, un agente de detección del fraude marca una transacción como fraudulenta de acuerdo con un conjunto de criterios definidos por un banco.
Con la lógica condicional, IA agéntica no puede actuar en consecuencia si se encuentra con un escenario que no reconoce. Para reducir esta inflexibilidad, los agentes basados en modelos utilizan su memoria y percepción para almacenar un modelo o estado actual de su entorno. Este estado se actualiza a medida que el agente recibe nueva información. Sin embargo, los agentes basados en modelos siguen estando sujetos a sus reglas de condición-acción.
Por ejemplo, un robot se desplaza por un almacén para colocar un producto en una estantería. Consulta un modelo del almacén para determinar la ruta que debe seguir, pero cuando detecta un obstáculo, puede modificar su trayectoria para evitarlo y continuar su recorrido.
Los sistemas de agentes de IA también pueden utilizar la heurística para el razonamiento. Los agentes basados en objetivos, por ejemplo, tienen un objetivo preestablecido. Mediante un algoritmo de búsqueda, encuentran secuencias de acciones que pueden ayudarles a lograr su objetivo y luego planifican estas acciones antes de llevarlas a cabo.
Por ejemplo, un vehículo autónomo puede contar con un agente de navegación cuyo objetivo es sugerir la ruta más rápida a un destino en tiempo real. Puede buscar entre diferentes rutas y recomendar la más rápida.
Al igual que los agentes basados en objetivos, los agentes basados en la utilidad buscan secuencias de acción que logren un objetivo, pero también tienen en cuenta la utilidad. Emplean una función de utilidad para determinar el resultado más óptimo. En el ejemplo del agente de navegación, se le puede asignar la tarea de encontrar no solo la ruta más rápida, sino también una que consuma la menor cantidad de combustible.
Este paradigma de razonamiento implica un ciclo de pensar-actuar-observar para la resolución paso a paso de problemas y la mejora iterativa de las respuestas. Se instruye a un agente para que genere rastros de su proceso de razonamiento1, de forma muy parecida a lo que ocurre con el razonamiento de cadena de pensamiento en los modelos de IA generativa (IA gen) y los modelos de lenguaje de gran tamaño (LLM). A continuación, actúa sobre ese razonamiento y observa su resultado2, actualizando su contexto con un nuevo razonamiento basado en sus observaciones. El agente repite el ciclo hasta que llega a una respuesta o solución2.
ReAct funciona bien en tareas específicas del lenguaje natural y su trazabilidad mejora la transparencia. Sin embargo, también puede generar el mismo razonamiento y acciones repetidamente, lo que puede dar lugar a bucles infinitos2.
A diferencia de ReAct, ReWOO elimina el paso de observación y planifica con antelación. Este patrón de diseño de razonamiento agéntico consta de tres módulos: planificador, trabajador y solucionador3.
El módulo planificador divide una tarea en subtareas y asigna cada una de ellas a un módulo de trabajo. El trabajador incorpora herramientas utilizadas para fundamentar cada subtarea con pruebas y hechos. Por último, el módulo solucionador sintetiza todas las subtareas y sus pruebas correspondientes para sacar una conclusión3.
ReWOO supera a ReAct en ciertos puntos de referencia de procesamiento del lenguaje natural (PLN). Sin embargo, añadir herramientas adicionales puede degradar el rendimiento de ReWOO, y no funciona bien en situaciones en las que tiene un contexto limitado sobre su entorno3.
La IA agéntica también puede incluir la autorreflexión como parte de la evaluación y el perfeccionamiento de sus capacidades de razonamiento. Un ejemplo de esto es Language Agent Tree Search (LATS), que comparte similitudes con el razonamiento del árbol del pensamiento en los LLM.
LATS se inspiró en el método de aprendizaje por refuerzo de Monte Carlo, y los investigadores adaptaron la búsqueda de árbol de Monte Carlo para agentes basados en LLM4. LATS crea un árbol de decisión que representa un estado como un nodo y un borde como una acción, busca en el árbol posibles opciones de acción y emplea un evaluador de estado para elegir una acción concreta2. También aplica un paso de razonamiento de autorreflexión, incorporando sus propias observaciones, así como el feedback de un modelo de lenguaje para identificar cualquier error en el razonamiento y recomendar alternativas2. Los errores de razonamiento y las reflexiones se almacenan en la memoria, sirviendo como contexto adicional para futuras referencias4.
LATS destaca en tareas más complejas, como la codificación y la respuesta interactiva a preguntas, y en la automatización del flujo de trabajo, incluidas la búsqueda y la navegación web4. Sin embargo, un enfoque más implicado y un paso adicional de autorreflexión hacen que LATS sea más intensivo en recursos y tiempo en comparación con métodos como ReAct2.
Los sistemas multiagente consisten en varios agentes de IA que trabajan juntos para resolver problemas complejos. Cada agente se especializa en un determinado dominio y puede aplicar su propia estrategia de razonamiento agencial.
Sin embargo, el proceso de toma de decisiones puede variar en función de la arquitectura del sistema de IA. En un ecosistema jerárquico o vertical, un agente actúa como líder de la orquestación de la IA y decide qué acción tomar. Mientras tanto, en una arquitectura horizontal, los agentes deciden colectivamente.
El razonamiento es el núcleo de los agentes de IA y puede dar lugar a capacidades de IA más potentes, pero también tiene sus limitaciones. Estos son algunos desafíos en el razonamiento de los agentes de IA:
● Complejidad computacional
● Interpretabilidad
● Escalabilidad
El razonamiento agente puede ser difícil de implementar. El proceso también requiere mucho tiempo y potencia computacional, especialmente cuando se resuelven problemas más complicados del mundo real. Las empresas deben encontrar formas de optimizar sus estrategias de razonamiento agentivo y estar preparadas para invertir en las plataformas y recursos de IA necesarios para el desarrollo.
El razonamiento agente podría carecer de explicabilidad y transparencia sobre cómo se tomaron las decisiones. Varios métodos pueden ayudar a establecer la interpretabilidad, y la integración de la ética de la IA y la supervisión humana en el desarrollo algorítmico es crítico para garantizar que los motores de razonamiento agéntico tomen decisiones de manera justa, ética y precisa.
Las técnicas de razonamiento agéntico no son soluciones universales, lo que dificulta escalarlas en todas las aplicaciones de IA. Es posible que las empresas necesiten adaptar estos patrones de diseño de razonamiento para cada uno de sus casos de uso, lo que requiere tiempo y esfuerzo.
Vínculos externos a ibm.com
1 ReAct: Synergizing Reasoning and Acting in Language Models. arXiv. 10 de marzo de 2023.
2 The Landscape of Emerging AI Agent Architectures for Reasoning, Planning, and Tool Calling: A Survey. arXiv. 17 de abril de 2024.
3 Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models. arXiv. 6 de junio de 2024.
4 Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models. arXiv. 6 de junio de 2024.
Cree, implemente y gestione potentes asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.
Construya el futuro de su empresa con soluciones de IA en las que puede confiar.
Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.