¿Qué es el razonamiento agéntico?

Autores

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué es el razonamiento agéntico?

El razonamiento agente es un componente de los agentes de IA que maneja la toma de decisiones. Permite a los agentes de inteligencia artificial realizar tareas de forma autónoma aplicando lógica condicional o heurística, basándose en la percepción y la memoria, lo que le permite perseguir objetivos y optimizar para obtener el mejor resultado posible.

Los modelos anteriores de aprendizaje automático seguían un conjunto de reglas preprogramadas para llegar a una decisión. Los avances en IA han llevado a modelos de IA con capacidades de razonamiento más evolucionadas, pero aún requieren intervención humana para convertir la información en conocimiento. El razonamiento agentivo va un paso más allá, permitiendo a los agentes de IA transformar el conocimiento en acción.

El "motor de razonamiento" impulsa las fases de planificación y llamada de herramientas de los flujos de trabajo de los agentes . La planificación descompone una tarea en un razonamiento más manejable, mientras que la llamada de herramientas ayuda a fundamentar la decisión de un agente de IA a través de las herramientas disponibles. Estas herramientas pueden incluir interfaces de programación de aplicaciones (API), conjuntos de datos externos y fuentes de datos como gráficos de conocimiento .

Para las empresas, la IA agéntica puede fundamentar aún más el proceso de razonamiento en pruebas a través de la generación aumentada por recuperación (RAG). Los sistemas RAG pueden recuperar datos empresariales y otra información relevante que se puede agregar al contexto de un agente de IA para el razonamiento.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Estrategias de razonamiento agentivo

El razonamiento de los agentes se puede abordar de diferentes maneras en función de la arquitectura y el tipo de agente. Estas son algunas técnicas comunes para el razonamiento de agentes de IA, incluidos los pros y los contras de cada una:

    ● Lógica condicional

    ● Heurística

    ● ReAct (Razonar + Actuar)

    ● ReWOO (razonamiento sin observación)

    ● Autorreflexión

    ● Razonamiento multiagente

Lógica condicional

Los agentes de IA simples siguen un conjunto de reglas de condición-acción preprogramadas. Estas reglas suelen adoptar la forma de declaraciones "si-entonces", donde la parte "si" especifica la condición y la parte "entonces" indica la acción. Cuando se cumple una condición, el agente realiza la acción correspondiente.

Esta metodología de razonamiento es especialmente adecuada para casos de uso específicos. En finanzas, por ejemplo, un agente de detección de fraudes marca una transacción como fraudulenta según un conjunto de criterios definidos por un banco.

Con la lógica condicional, IA agéntica no puede actuar en consecuencia si se encuentra con un escenario que no reconoce. Para reducir esta inflexibilidad, los agentes basados en modelos utilizan su memoria y percepción para almacenar un modelo actual o estado de su entorno. Este estado se actualiza a medida que el agente recibe nueva información. Sin embargo, los agentes basados en modelos siguen sujetos a sus reglas de condición-acción.

Por ejemplo, un robot navega por un almacén para almacenar un producto en un estante. Consulta un modelo del almacén para conocer la ruta que toma, pero cuando detecta un obstáculo, puede alterar su camino para evitar ese obstáculo y continuar su recorrido.

Heurística

Los sistemas de agentes de IA también pueden utilizar heurísticas para el razonamiento. Los agentes basados en objetivos, por ejemplo, tienen un objetivo preestablecido. Mediante un algoritmo de búsqueda , encuentran secuencias de acciones que pueden ayudarles a lograr su objetivo y luego planean estas acciones antes de llevarlas a cabo.

Por ejemplo, un vehículo autónomo puede tener un agente de navegación cuyo objetivo es sugerir la ruta más rápida a un destino en tiempo real. Puede buscar a través de diferentes rutas y recomendar la más rápida 1.

Al igual que los agentes basados en objetivos, los agentes basados en la utilidad buscan secuencias de acción que logren un objetivo, pero también tienen en cuenta la utilidad. Emplean una función de utilidad para determinar el resultado más óptimo. En el ejemplo del agente de navegación, se le puede asignar la tarea de encontrar no solo la ruta más rápida, sino también 1 que consuma la menor cantidad de combustible.

ReAct (Razón + Ley)

Este paradigma de razonamiento implica un ciclo de Think-actuar-observar para la resolución de problemas paso a paso y la mejora iterativa de las respuestas. Se instruye a un agente para que genere rastros de su proceso de razonamiento,1 muy parecido a lo que sucede con el razonamiento de cadena de pensamiento en modelos de IA generativa (IA gen) y modelos de lenguaje de gran tamaño (LLM). Luego actúa sobre ese razonamiento y observa su resultado,2 actualizando su contexto con un nuevo razonamiento basado en sus observaciones. El agente repite el ciclo hasta que llega a una respuesta o solución.2

ReAct funciona bien en tareas específicas del lenguaje natural, y su trazabilidad mejora la transparencia. Sin embargo, también puede generar el mismo razonamiento y acciones repetidamente, lo que puede conducir a bucles infinitos.2

ReWOO (razonamiento sin observación)

A diferencia de ReAct, ReWOO elimina el paso de observación y planifica con anticipación. Este patrón de diseño de razonamiento agentivo consta de 3 módulos: planificador, trabajador y solucionador.3

El módulo del planificador desglosa una tarea en subtareas y asigna cada una de ellas a un módulo de trabajo. El trabajador incorpora herramientas utilizadas para fundamentar cada subtarea con pruebas y hechos. Finalmente, el módulo solver sintetiza todas las subtareas y su evidencia correspondiente para sacar una conclusión.3

ReWOO supera a ReAct en ciertos puntos de referencia de procesamiento de lenguaje natural (PLN). Sin embargo, agregar herramientas adicionales puede degradar el rendimiento de ReWOO, y no funciona bien en situaciones en las que tiene un contexto limitado sobre su entorno.3

Autorreflexión

La IA agéntica también puede incluir la autorreflexión como parte de la evaluación y el perfeccionamiento de sus capacidades de razonamiento. Un ejemplo de esto es Language Agent Tree Search (LATS), que comparte similitudes con el razonamiento de árbol de pensamiento en los LLMs.

LATS se inspiró en el método de aprendizaje por refuerzo de Monte Carlo, y los investigadores adaptaron Monte Carlo Tree Search para agentes basados en LLM.4 LATS crea un árbol de decisión que representa un estado como un nodo y un borde como una acción, busca en el árbol posibles opciones de acción y emplea un evaluador de estado para elegir una acción en particular.2 También aplica un paso de razonamiento de autorreflexión, incorporando sus propias observaciones, así como la retroalimentación de un modelo de lenguaje para identificar cualquier error en el razonamiento y recomendar alternativas.2 Los errores de razonamiento y las reflexiones se almacenan en la memoria, sirviendo como contexto adicional para referencia futura.4

LATS se destaca en tareas más complejas, como la programación y la respuesta interactiva a preguntas, y en la automatización del flujo de trabajo, incluidas la búsqueda y la navegación web.4 Sin embargo, un enfoque más involucrado y un paso adicional de autorreflexión hacen que LATS requiera más Recursos y tiempo en comparación con métodos como ReAct.2

Razonamiento multiagente

Los sistemas multiagente consisten en múltiples agentes de IA que trabajan juntos para resolver problemas complejos. Cada agente se especializa en un determinado dominio y puede aplicar su propia estrategia de razonamiento de agencia.

Sin embargo, el proceso de toma de decisiones puede variar según la arquitectura del sistema de IA. En un ecosistema jerárquico o vertical, 1 agente actúa como líder para la orquestación de IA y decide qué acción tomar. Mientras tanto, en una arquitectura horizontal, los agentes deciden colectivamente.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones reales

Descubra cómo la IA orientada a objetivos y basada en utilidades se adapta a los flujos de trabajo y entornos complejos.

Desafíos en el razonamiento agente

El razonamiento es el núcleo de los agentes de IA y puede resultar en capacidades de IA más poderosas, pero también tiene sus limitaciones. A continuación, se presentan algunos desafíos en el razonamiento agéntico:

    ● Complejidad computacional

    ● Interpretabilidad

    ● Escalabilidad

Complejidad computacional

El razonamiento agente puede ser difícil de implementar. El proceso también requiere mucho tiempo y potencia computacional, especialmente cuando se resuelven problemas más complicados del mundo real. Las empresas deben encontrar formas de optimizar sus estrategias de razonamiento agentivo y estar preparadas para invertir en las plataformas y recursos de IA necesarios para el desarrollo.

Interpretabilidad

El razonamiento agente podría carecer de explicabilidad y transparencia sobre cómo se tomaron las decisiones. Varios métodos pueden ayudar a establecer la interpretabilidad, e integrar la ética de la IA y la supervisión humana dentro del desarrollo algorítmico es fundamental para garantizar que los motores de razonamiento agentivo tomen decisiones de manera justa, ética y precisa.

Escalabilidad

Las técnicas de razonamiento agentivo no son soluciones universales, por lo que es difícil escalarlas a escala en todas las aplicaciones de IA. Es posible que las empresas necesiten adaptar estos patrones de diseño de razonamiento para cada uno de sus casos de uso, lo que requiere tiempo y esfuerzo.

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione poderosos asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agentes de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que pueda confiar.

    Explorar las soluciones de agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma en que las empresas trabajan con IA para la transformación.

    Explorar los servicios de inteligencia artificial
    Dé el siguiente paso

    Ya sea que elija personalizar aplicaciones y habilidades predefinidas o crear y desplegar servicios agénticos personalizados utilizando un estudio de IA, la plataforma IBM watsonx responde a sus necesidades.

    Explore watsonx Orchestrate Explore watsonx.ai