¿Qué son las llamadas a herramientas?

Autores

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué son la llamadas a herramientas?

La llamada a herramientas se refiere a la capacidad de los modelos de inteligencia artificial (AI) de interactuar con herramientas externas, interfaces de programación de aplicaciones (API) o sistemas para mejorar sus funciones.

En lugar de depender únicamente del conocimiento previo entrenado, un sistema de IA con capacidades de llamada a herramientas puede consultar bases de datos, obtener información en tiempo real, ejecutar funciones o realizar operaciones complejas más allá de sus capacidades nativas.

La llamada a herramientas, a veces denominada llamada a funciones, es un facilitador clave de la IA agéntica. Permite a los sistemas autónomos completar tareas complejas accediendo dinámicamente a recursos externos y actuando sobre ellos.

En lugar de limitarse a responder preguntas, los modelos de lenguaje de gran tamaño (LLM) con llamadas a herramientas pueden automatizar flujos de trabajo, interactuar con bases de datos, resolver problemas en varios pasos, tomar decisiones en tiempo real y mucho más.

Este cambio está haciendo que los LLM dejen de ser asistentes pasivos para convertirse en agentes digitales proactivos capaces de llevar a cabo tareas complejas.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

¿Por qué es importante la llamada a herramientas?

Los modelos de lenguaje de gran tamaño (LLM) están tradicionalmente limitados por los datos con los que se entrenan, un proceso que puede requerir mucho tiempo y capacidad computacional.

Aunque los principales LLM se entrenan con amplios conjuntos de datos, la necesidad de datos en tiempo real, de cálculos externos y de una mayor interactividad condujo a la integración de capacidades de llamada a herramientas.

Los primeros LLM, incluido el GPT-2 de OpenAI, eran estáticos. Generaban respuestas basadas en sus datos de entrenamiento sin la capacidad de obtener nueva información.

Aunque eran impresionantes, carecían de conciencia del mundo real y tenían dificultades con las consultas dinámicas que requerían datos en tiempo real, como acontecimientos de actualidad, cotizaciones bursátiles o acciones específicas de los usuarios.

Para abordar esta limitación, los desarrolladores empezaron a integrar complementos externos, API y bases de datos, lo que permitió a los modelos solicitar y procesar información en tiempo real en lugar de depender únicamente de datos de entrenamiento estáticos.

Los desarrolladores entrenaron a los LLM para reconocer cuándo una consulta requería asistencia externa. Además, los sistemas externos suelen tener un esquema de entrada particular. La llamada a herramientas solicita respuestas del modelo que coincidan con el esquema específico utilizado por los sistemas externos.

Agentes de IA

Cinco tipos de agentes de IA: funciones autónomas y aplicaciones del mundo real

Descubra cómo la IA basada en objetivos y servicios se adapta a flujos de trabajo y entornos complejos.

¿Cómo funciona la llamada a herramientas?

La llamada a herramientas implica varios componentes clave que trabajan juntos para facilitar la interacción de la IA con herramientas externas. Los LLM modernos, incluidos Claude de Anthropic, Llama 3 de Meta, Mistral e IBM® Granite, poseen capacidades de llamada a herramientas, pero manejan cada uno de forma un poco diferente.

El primer componente es el propio modelo de IA, que reconoce cuándo carece de conocimientos suficientes o requiere una función externa para completar una solicitud.

A continuación, el mecanismo de selección de herramientas identifica las dependencias adecuadas para gestionar la tarea específica, ya sea un motor de búsqueda, una base de datos o un recurso computacional.

Cuando se selecciona una herramienta, entra en juego la interfaz API, que permite a la IA enviar consultas estructuradas y recibir respuestas en un formato legible por máquina.

Por último, el sistema de procesamiento de respuestas ayuda a garantizar que los datos recuperados estén formateados correctamente y se presenten al usuario de manera significativa.

Paso 1. Reconocer la necesidad de una herramienta

Supongamos que un usuario le pregunta a una IA: "¿Qué tiempo hace ahora en San Francisco?". La IA utiliza la comprensión del lenguaje natural para reconocer que se necesitan datos meteorológicos en tiempo real, que no pueden obtenerse de su base de conocimientos estática.

Se asigna automáticamente un ID de llamada de herramienta único a una solicitud realizada por un modelo para utilizar una herramienta, que actúa como un número de seguimiento para vincular la solicitud con su resultado correspondiente.

Paso 2. Seleccionar la herramienta

La IA identifica la mejor herramienta para la tarea, en este caso al comprobar una base de datos meteorológica actual. Este paso ayuda a garantizar que la información recuperada sea precisa y relevante.

Cada herramienta contiene metadatos e información estructurada, como un nombre único (o nombre de función), que ayuda al modelo y al sistema a identificarla correctamente. Otros metadatos incluyen la descripción, los parámetros de la herramienta y los tipos de entrada y salida requeridos.

El modelo selecciona las herramientas necesarias para obtener los datos de entre las disponibles.

Las plantillas son formatos de instrucción estructurados que indican al modelo qué herramienta utilizar y qué argumentos (o “args”) proporcionar, lo que permite interacciones más controladas y estructuradas con las API.

En el contexto de la llamada a herramientas, los argumentos se refieren a las entradas estructuradas que se pasan a una herramienta o función cuando la inicia un modelo generativo. Estos argumentos definen los parámetros que la herramienta requiere para ejecutarse correctamente.

Combinar la llamada a herramientas con generación aumentada por recuperación (RAG) mejora las capacidades de IA al permitir que los sistemas recuperen datos estructurados y datos no estructurados antes de generar outputs estructurados.

Este enfoque mejora la relevancia contextual al obtener los datos más pertinentes antes de generar una respuesta, lo que conduce a resultados más informados y precisos.

También minimiza la sobrecarga de la API al consolidar varias recuperaciones en un solo paso, lo que reduce la latencia y los costes. La RAG es más flexible que las llamadas a herramientas tradicionales, ya que permite a los modelos extraer datos de diversas fuentes y se adapta a distintos ámbitos.

A diferencia de la estructura rígida del uso tradicional de herramientas, RAG permite una integración más fluida del conocimiento recuperado con el razonamiento y la generación, lo que da como resultado respuestas más dinámicas y perspicaces.

Paso 3. Construir y enviar una consulta

A continuación, la IA formula una solicitud estructurada que la herramienta o API puede entender.

Cada herramienta está asociada a funciones específicas que definen su función. Estas funciones se basan en una referencia de API, que proporciona documentación sobre cómo interactuar con la API de la herramienta, incluyendo las URL de los endpoints, los métodos de solicitud y los formatos de respuesta.

Para acceder a una API externa, muchos servicios requieren una clave de API, un identificador único que otorga permiso para realizar solicitudes. Cuando se selecciona la herramienta y se establecen los parámetros, se realiza una llamada a la API para obtener los datos solicitados. Normalmente, esta solicitud se envía a través de HTTP a un servidor externo.

Paso 4. Recibir y procesar la respuesta

La herramienta externa devuelve datos. A continuación, la IA debe analizar los resultados. En el caso de una solicitud meteorológica, la API puede responder con un objeto de esquema JSON que contenga la temperatura, la humedad y la velocidad del viento. La IA filtra y estructura estos datos para ofrecer una respuesta significativa al usuario.

Paso 5. Presentar la información o tomar medidas

La IA proporciona la información procesada de forma intuitiva. Si la solicitud implica automatización, como establecer un recordatorio, la IA confirmará que se ha programado una acción.

Paso 6. Afinar la búsqueda

Si el usuario solicita más detalles o modificaciones, la IA puede repetir el proceso con una consulta más específica, lo que ayuda a garantizar que continúe perfeccionando su respuesta en función de las necesidades del usuario.

LangChain se suele utilizar en la llamada a herramientas al proporcionar un marco de código abierto para integrar herramientas externas, API y funciones con LLM. Ayuda a gestionar la ejecución de herramientas, la gestión de entradas o salidas y la toma de decisiones teniendo en cuenta el contexto.

Por ejemplo, LangChain maneja los argumentos de las funciones con un analizador sintáctico para las consultas de los usuarios, extrae los parámetros relevantes y los formatea correctamente para la herramienta correspondiente. A diferencia de las simples llamadas a herramientas, LangChain puede almacenar y recuperar resultados anteriores de herramientas, lo que permite mejorar las interacciones multivuelta.

LangChain permite combinar varias herramientas en una secuencia, lo que posibilita flujos de trabajo más complejos. Por ejemplo, primero se pueden recuperar datos de la API meteorológica y luego utilizar otra herramienta para recomendar ropa en función de la previsión.

Tipos de llamadas a herramientas

La llamada a herramientas permite a los LLM realizar todo tipo de tareas. Existen infinidad de casos de uso para las aplicaciones de IA que utilizan la llamada a herramientas, pero aquí presentamos cinco categorías comunes con algunos ejemplos del mundo real.

Recuperación y búsqueda de información

La IA obtiene datos en tiempo real de la web, de fuentes de noticias, de bases de datos académicas o de mercados financieros. Por ejemplo, un modelo de chatbot de IA puede llamar a una API de búsqueda para obtener las últimas cotizaciones bursátiles o artículos de investigación de IA y ofrecer la información a través de un chatbot.

Ejecución de código

Esto permite a la IA realizar cálculos complejos o ejecutar scripts utilizando motores matemáticos como los entornos de ejecución Wolfram Alpha o Python. Esto es útil para resolver ecuaciones, ejecutar simulaciones o ejecutar pequeños fragmentos de código.

Automatización de procesos

La IA automatiza flujos de trabajo como la programación de reuniones, el envío de correos electrónicos o la gestión de listas de tareas pendientes a través de integraciones con plataformas como Google Calendar y Zapier. Los agentes de IA pueden interactuar con herramientas de CRM, finanzas y análisis como Salesforce y QuickBooks, lo que permite a las empresas automatizar procesos, incluida la recuperación de datos de clientes o los informes financieros.

Dispositivos inteligentes y monitorización de IoT

Los sistemas de IA agéntica pueden monitorizar y controlar sistemas de domótica, dispositivos IoT industriales y robótica. Es fácil imaginar que, algún día, los agentes autónomos se encargarán de flujos de trabajo completos de principio a fin.

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione potentes asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agente de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que puede confiar.

    Explore las soluciones de los agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.

    Explore los servicios de inteligencia artificial
    Dé el siguiente paso

    Tanto si opta por personalizar las aplicaciones y habilidades prediseñadas como si prefiere crear e implementar servicios agentivos personalizados mediante un estudio de IA, la plataforma IBM watsonx le ofrece todo lo que necesita.

    Explore watsonx Orchestrate Explore watsonx.ai