¿Qué son las llamadas de herramientas?

Autores

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué son las llamadas de herramientas?

La llamada a herramientas se refiere a la capacidad de los modelos de inteligencia artificial (IA) para interactuar con herramientas externas, interfaces de programación de aplicaciones (APIs) o sistemas para mejorar sus funciones.

En lugar de depender únicamente de conocimientos previamente entrenados, un sistema de IA con capacidades de llamada a herramientas puede consultar bases de datos, obtener información en tiempo real, ejecutar funciones o realizar operaciones complejas más allá de sus capacidades nativas.

Las llamadas a herramientas, a veces denominadas llamadas a funciones, son un habilitador clave de la IA agéntica. Permite que los sistemas autónomos completen tareas complejas accediendo dinámicamente a recursos externos y actuando sobre ellos.

En lugar de solo responder preguntas, los modelos de lenguaje de gran tamaño (LLM) con llamadas a herramientas pueden automatizar flujos de trabajo, interactuar con bases de datos, resolver problemas de varios pasos, tomar decisiones en tiempo real y más.

Este cambio está convirtiendo a los LLM de asistentes pasivos en agentes digitales proactivos capaces de llevar a cabo tareas complejas.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

¿Por qué es importante la llamada de herramientas?

Los modelos de lenguaje de gran tamaño (LLM) tradicionalmente están limitados por los datos con los que se entrenan, un proceso que puede requerir mucho tiempo y recursos computacionales.

Aunque los principales LLM se entrenan con conjuntos de datos enormes, la necesidad de datos en tiempo real, los cálculos externos y una interactividad mejorada llevó a la integración de las capacidades de llamada a herramientas.

Los primeros LLM, incluido el GPT-2 de OpenAI, eran estáticos. Generaban respuestas basadas en sus datos de entrenamiento sin la capacidad de obtener nueva información.

Si bien eran impresionantes, carecían de conciencia del mundo real y tenían dificultades con consultas dinámicas que requerían datos en vivo, como eventos actuales, precios de acciones o acciones específicas del usuario.

Para hacer frente a esta limitación, los desarrolladores comenzaron a integrar complementos externos, API y bases de datos, lo que permitió a los modelos solicitar y procesar información en tiempo real en lugar de depender únicamente de datos de entrenamiento estáticos.

Los desarrolladores entrenaron a los LLM para reconocer cuándo requería asistencia externa una consulta. Además, por lo común los sistemas externos tienen un esquema de entrada particular. Las herramientas llaman a las solicitudes de modelos de respuestas que coincidan con el esquema particular utilizado por los sistemas externos.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones reales

Descubra cómo la IA orientada a objetivos y basada en utilidades se adapta a los flujos de trabajo y entornos complejos.

¿Cómo funciona la llamada de herramientas?

La llamada a herramientas implica varios componentes clave que trabajan juntos para facilitar la interacción de la IA con herramientas externas. Los LLM modernos, incluidos Claude de Anthropic, Llama 3 de Meta, Mistral e IBM® Granite®, poseen capacidades de llamada a herramientas, pero manejan cada una de manera un poco diferente.

El primer componente es el propio modelo de IA, que reconoce cuándo carece de conocimientos suficientes o requiere una función externa para completar una solicitud.

A continuación, el mecanismo de selección de herramientas identifica las dependencias adecuadas para manejar la tarea específica, ya sea un motor de búsqueda, una base de datos o un recurso computacional.

Cuando se selecciona una herramienta, entra en juego la interfaz API, que permite a la IA enviar consultas estructuradas y recibir respuestas en un formato legible por máquina.

Por último, el sistema de procesamiento de respuestas ayuda a garantizar que los datos recuperados tengan el formato correcto y se presenten al usuario de manera significativa.

Paso 1. Reconocimiento de la necesidad de una herramienta

Supongamos que un usuario pregunta a una IA: "¿Cómo está el clima ahora en San Francisco?". La IA usa natural language understanding para reconocer que se necesitan datos meteorológicos en tiempo real, que no pueden derivar de su base de conocimientos estática.

Se asigna automáticamente un ID de llamada a herramienta único a una solicitud realizada por un modelo para usar una herramienta, que actúa como un número de seguimiento para vincular la solicitud con su resultado correspondiente.

Paso 2. Selección de la herramienta

La IA identifica la mejor herramienta para la tarea, en este caso la consulta de una base de datos meteorológica actualizada. Este paso ayuda a garantizar que la información recuperada sea precisa y pertinente.

Cada herramienta contiene metadatos e información estructurada, como un nombre de herramienta único (o nombre de función), que ayuda al modelo y al sistema a identificarla correctamente. Otros metadatos incluyen la descripción, los parámetros de la herramienta y los tipos de entrada y resultados requeridos.

El modelo realiza una elección de herramienta después de determinar que los datos deben obtenerse de una selección de herramientas disponibles.

Las plantillas son formatos de instrucciones estructuradas que le indican al modelo qué herramienta usar y qué argumentos (o “args”) proporcionar, lo que permite interacciones más controladas y estructuradas con las API.

En el contexto de las llamadas a herramientas, los argumentos se refieren a las entradas estructuradas que se pasan a una herramienta o función cuando la inicia un modelo generativo. Estos argumentos definen los parámetros que la herramienta requiere para ejecutarse correctamente.

Combinar las llamadas a herramientas con la generación aumentada por recuperación (RAG) mejora las capacidades de IA al permitir que los sistemas recuperen datos estructurados y no estructurados antes de generar resultados estructurados.

Este enfoque mejora la relevancia contextual al obtener los datos más pertinentes antes de generar una respuesta, lo que conduce a resultados más informados y precisos.

También reduce la sobrecarga de la API al consolidar múltiples recuperaciones en un solo paso, lo que reduce la latencia y los costos. RAG es más flexible que las llamadas a herramientas tradicionales, lo que permite que los modelos extraigan información de diversas fuentes y lo hace altamente adaptable en diferentes dominios.

A diferencia de la estructura rígida del uso de herramientas tradicionales, RAG permite una integración más fluida del conocimiento recuperado con el razonamiento y la generación, lo que da como resultado respuestas más dinámicas y perspicaces.

Paso 3. Construir y enviar una consulta

A continuación, la IA formula una solicitud estructurada que la herramienta o la API pueden entender.

Cada herramienta está asociada a funciones específicas de la herramienta, que definen lo que esta hace. Tales funciones se basan en una referencia de API, que proporciona documentación sobre cómo interactuar con la API de la herramienta, incluidas las URL de los puntos finales, los métodos de solicitud y los formatos de respuesta.

Para acceder a una API externa, muchos servicios requieren una clave de API, un identificador único que otorga licencia para realizar solicitudes. Cuando se selecciona la herramienta y se establecen los parámetros, se realiza una llamada a la API para obtener los datos aplicar. Normalmente, esta solicitud se envía a través de HTTP a un servidor externo.

Paso 4. Recepción y procesamiento de la respuesta

La herramienta externa devuelve datos. A continuación, la IA debe analizar los resultados de la herramienta. En el caso de una solicitud meteorológica, la API puede responder con un objeto de esquema JSON que contenga la temperatura, la humedad y la velocidad del viento. La IA filtra y estructura estos datos para resumir una respuesta significativa para el usuario.

Paso 5. Presentar la información o actuar

La IA entrega la información procesada de manera intuitiva. Si la solicitud implica automatización, como establecer un recordatorio, la IA confirmaría que se ha programado una acción.

Paso 6. Refinamiento de la búsqueda

Si el usuario solicita más detalles o modificaciones, la IA puede repetir el proceso con una consulta ajustada, lo que ayuda a garantizar que continúe refinando su respuesta en función de las necesidades del usuario.

LangChain se utiliza comúnmente en las llamadas a herramientas al proporcionar un marco de código abierto para integrar herramientas externas, API y funciones con LLM. Ayuda a gestionar la ejecución de herramientas, el manejo de entradas o salidas y la toma de decisiones consciente del contexto.

Por ejemplo, LangChain maneja los argumentos de función con un analizador para las consultas de los usuarios, extrayendo parámetros relevantes y dándoles el formato correctamente para la herramienta. A diferencia de las simples llamadas a herramientas, LangChain puede almacenar y recuperar resultados de herramientas anteriores, lo que permite mejores interacciones multiturno.

LangChain permite la combinación de múltiples herramientas en una secuencia, habilitando flujos de trabajo agénticos más complejos. Por ejemplo, primero puede recuperar datos de la API meteorológica y luego usar una herramienta independiente para recomendar qué ropa usar con base en el pronóstico.

Tipos de llamada a herramientas

Las llamadas a herramientas permiten a los LLM realizar todo tipo de tareas. Hay casos de uso ilimitados para las aplicaciones de IA que utilizan llamadas a herramientas, pero aquí presentamos 5 categorías comunes con algunos ejemplos del mundo real.

Recuperación y búsqueda de información

La IA obtiene datos en tiempo real de la web, fuentes de noticias, bases de datos académicas o mercados financieros. Por ejemplo, un modelo de chat de IA puede llamar a una API de búsqueda para obtener las últimas cotizaciones bursátiles o artículos de investigación de IA y ofrecer la información a través de un chatbot.

Ejecución de código

Esto permite a la IA realizar cálculos complejos o ejecutar scripts utilizando motores matemáticos como Wolfram Alpha o entornos de ejecución Python. Esto es útil para resolver ecuaciones, realizar simulaciones o ejecutar pequeños fragmentos de código.

Automatización de procesos

La IA automatiza flujos de trabajo como la programación de reuniones, el envío de correos electrónicos o la gestión de listas de tareas a través de integraciones con plataformas como Google Calendar y Zapier. Los agentes de IA pueden interactuar con herramientas de CRM, finanzas y analytics como Salesforce y QuickBooks, lo que permite a las empresas automatizar procesos como la recuperación de datos de clientes o la elaboración de informes financieros.

Dispositivos inteligentes y monitoreo de IoT

Los sistemas de IA agéntica pueden monitorear y controlar sistemas de automatización, dispositivos IoT industriales y robótica. Es fácil imaginar que algún día agentes autónomos gestionen flujos de trabajo completos de principio a fin.

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione poderosos asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agentes de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que pueda confiar.

    Explorar las soluciones de agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma en que las empresas trabajan con IA para la transformación.

    Explorar los servicios de inteligencia artificial
    Dé el siguiente paso

    Ya sea que elija personalizar aplicaciones y habilidades predefinidas o crear y desplegar servicios agénticos personalizados utilizando un estudio de IA, la plataforma IBM watsonx responde a sus necesidades.

    Explore watsonx Orchestrate Explore watsonx.ai