¿Qué es el razonamiento agentivo?

Autores

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué es el razonamiento agentivo?

El razonamiento agentivo es un componente de agentes de IA que se encarga de la toma de decisiones. Permite a los agentes de inteligencia artificial realizar tareas de forma autónoma aplicando lógica condicional o heurística, basándose en la percepción y la memoria, lo que les permite perseguir objetivos y optimizar para obtener el mejor resultado posible.

Los modelos anteriores de machine learning seguían un conjunto de reglas preprogramadas para llegar a una decisión. Los avances en IA han dado lugar a modelos de IA con capacidades de razonamiento más evolucionadas, pero que siguen necesitando la intervención humana para convertir la información en conocimiento. El razonamiento agentivo va un paso más allá, permitiendo a los agentes de IA transformar el conocimiento en acción.

El "motor de razonamiento" impulsa las fases de planificación y llamada de herramientas de los flujos de trabajo agénticos. La planificación descompone una tarea en un razonamiento más manejable, mientras que la llamada de herramientas ayuda a informar la decisión de un agente de IA a través de las herramientas disponibles. Estas herramientas pueden incluir interfaces de programación de aplicaciones (API), conjuntos de datos externos y fuentes de datos como gráficos de conocimiento.

Para las empresas, IA agéntica puede basar aún más el proceso de razonamiento en pruebas a través de la generación aumentada por recuperación (RAG). Los sistemas RAG pueden recuperar datos empresariales y otra información relevante que se puede agregar al contexto de un agente de IA para el razonamiento.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Estrategias de razonamiento agentivo

El razonamiento agente puede abordarse de diferentes maneras en función de la arquitectura y el tipo de agente. Estas son algunas técnicas comunes para el razonamiento de agentes de IA, incluidos los pros y los contras de cada una:

    ● Lógica condicional

    ● Heurística

    ● ReAct (Razón + Acción)

    ● ReWOO (Razonamiento sin observación)

    ● Autorreflexión

    ● Razonamiento multiagente

Lógica condicional

Los agentes de IA simples siguen un conjunto de reglas de condición-acción preprogramadas. Estas reglas suelen adoptar la forma de declaraciones "si-entonces", donde la parte "si" especifica la condición y la parte "entonces" indica la acción. Cuando se cumple una condición, el agente lleva a cabo la acción correspondiente.

Esta metodología de razonamiento es especialmente adecuada para casos de uso específicos del dominio. En finanzas, por ejemplo, un agente de detección del fraude marca una transacción como fraudulenta de acuerdo con un conjunto de criterios definidos por un banco.

Con la lógica condicional, IA agéntica no puede actuar en consecuencia si se encuentra con un escenario que no reconoce. Para reducir esta inflexibilidad, los agentes basados en modelos utilizan su memoria y percepción para almacenar un modelo o estado actual de su entorno. Este estado se actualiza a medida que el agente recibe nueva información. Sin embargo, los agentes basados en modelos siguen estando sujetos a sus reglas de condición-acción.

Por ejemplo, un robot se desplaza por un almacén para colocar un producto en una estantería. Consulta un modelo del almacén para determinar la ruta que debe seguir, pero cuando detecta un obstáculo, puede modificar su trayectoria para evitarlo y continuar su recorrido.

Heurística

Los sistemas de agentes de IA también pueden utilizar la heurística para el razonamiento. Los agentes basados en objetivos, por ejemplo, tienen un objetivo preestablecido. Mediante un algoritmo de búsqueda, encuentran secuencias de acciones que pueden ayudarles a lograr su objetivo y luego planifican estas acciones antes de llevarlas a cabo.

Por ejemplo, un vehículo autónomo puede contar con un agente de navegación cuyo objetivo es sugerir la ruta más rápida a un destino en tiempo real. Puede buscar entre diferentes rutas y recomendar la más rápida.

Al igual que los agentes basados en objetivos, los agentes basados en la utilidad buscan secuencias de acción que logren un objetivo, pero también tienen en cuenta la utilidad. Emplean una función de utilidad para determinar el resultado más óptimo. En el ejemplo del agente de navegación, se le puede asignar la tarea de encontrar no solo la ruta más rápida, sino también una que consuma la menor cantidad de combustible.

ReAct (Razón + Acción)

Este paradigma de razonamiento implica un ciclo de pensar-actuar-observar para la resolución paso a paso de problemas y la mejora iterativa de las respuestas. Se instruye a un agente para que genere rastros de su proceso de razonamiento1, de forma muy parecida a lo que ocurre con el razonamiento de cadena de pensamiento en los modelos de IA generativa (IA gen) y los modelos de lenguaje de gran tamaño (LLM). A continuación, actúa sobre ese razonamiento y observa su resultado2, actualizando su contexto con un nuevo razonamiento basado en sus observaciones. El agente repite el ciclo hasta que llega a una respuesta o solución2.

ReAct funciona bien en tareas específicas del lenguaje natural y su trazabilidad mejora la transparencia. Sin embargo, también puede generar el mismo razonamiento y acciones repetidamente, lo que puede dar lugar a bucles infinitos2.

ReWOO (razonamiento sin observación)

A diferencia de ReAct, ReWOO elimina el paso de observación y planifica con antelación. Este patrón de diseño de razonamiento agéntico consta de tres módulos: planificador, trabajador y solucionador3.

El módulo planificador divide una tarea en subtareas y asigna cada una de ellas a un módulo de trabajo. El trabajador incorpora herramientas utilizadas para fundamentar cada subtarea con pruebas y hechos. Por último, el módulo solucionador sintetiza todas las subtareas y sus pruebas correspondientes para sacar una conclusión3.

ReWOO supera a ReAct en ciertos puntos de referencia de procesamiento del lenguaje natural (PLN). Sin embargo, añadir herramientas adicionales puede degradar el rendimiento de ReWOO, y no funciona bien en situaciones en las que tiene un contexto limitado sobre su entorno3.

Autorreflexión

La IA agéntica también puede incluir la autorreflexión como parte de la evaluación y el perfeccionamiento de sus capacidades de razonamiento. Un ejemplo de esto es Language Agent Tree Search (LATS), que comparte similitudes con el razonamiento del árbol del pensamiento en los LLM.

LATS se inspiró en el método de aprendizaje por refuerzo de Monte Carlo, y los investigadores adaptaron la búsqueda de árbol de Monte Carlo para agentes basados en LLM4. LATS crea un árbol de decisión que representa un estado como un nodo y un borde como una acción, busca en el árbol posibles opciones de acción y emplea un evaluador de estado para elegir una acción concreta2. También aplica un paso de razonamiento de autorreflexión, incorporando sus propias observaciones, así como el feedback de un modelo de lenguaje para identificar cualquier error en el razonamiento y recomendar alternativas2. Los errores de razonamiento y las reflexiones se almacenan en la memoria, sirviendo como contexto adicional para futuras referencias4.

LATS destaca en tareas más complejas, como la codificación y la respuesta interactiva a preguntas, y en la automatización del flujo de trabajo, incluidas la búsqueda y la navegación web4. Sin embargo, un enfoque más implicado y un paso adicional de autorreflexión hacen que LATS sea más intensivo en recursos y tiempo en comparación con métodos como ReAct2.

Razonamiento multiagente

Los sistemas multiagente consisten en varios agentes de IA que trabajan juntos para resolver problemas complejos. Cada agente se especializa en un determinado dominio y puede aplicar su propia estrategia de razonamiento agencial.

Sin embargo, el proceso de toma de decisiones puede variar en función de la arquitectura del sistema de IA. En un ecosistema jerárquico o vertical, un agente actúa como líder de la orquestación de la IA y decide qué acción tomar. Mientras tanto, en una arquitectura horizontal, los agentes deciden colectivamente.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones del mundo real

Descubra cómo la IA basada en objetivos y servicios se adapta a flujos de trabajo y entornos complejos.

Desafíos en el razonamiento agentivo

El razonamiento es el núcleo de los agentes de IA y puede dar lugar a capacidades de IA más potentes, pero también tiene sus limitaciones. Estos son algunos desafíos en el razonamiento de los agentes de IA:

    ● Complejidad computacional

    ● Interpretabilidad

    ● Escalabilidad

Complejidad computacional

El razonamiento agente puede ser difícil de implementar. El proceso también requiere mucho tiempo y potencia computacional, especialmente cuando se resuelven problemas más complicados del mundo real. Las empresas deben encontrar formas de optimizar sus estrategias de razonamiento agentivo y estar preparadas para invertir en las plataformas y recursos de IA necesarios para el desarrollo.

Interpretabilidad

El razonamiento agente podría carecer de explicabilidad y transparencia sobre cómo se tomaron las decisiones. Varios métodos pueden ayudar a establecer la interpretabilidad, y la integración de la ética de la IA y la supervisión humana en el desarrollo algorítmico es crítico para garantizar que los motores de razonamiento agéntico tomen decisiones de manera justa, ética y precisa.

Escalabilidad

Las técnicas de razonamiento agéntico no son soluciones universales, lo que dificulta escalarlas en todas las aplicaciones de IA. Es posible que las empresas necesiten adaptar estos patrones de diseño de razonamiento para cada uno de sus casos de uso, lo que requiere tiempo y esfuerzo.

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione potentes asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agente de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que puede confiar.

    Explore las soluciones de los agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.

    Explore los servicios de inteligencia artificial
    Dé el siguiente paso

    Tanto si opta por personalizar las aplicaciones y habilidades prediseñadas como si prefiere crear e implementar servicios agentivos personalizados mediante un estudio de IA, la plataforma IBM watsonx le ofrece todo lo que necesita.

    Explore watsonx Orchestrate Explore watsonx.ai