Creación de un proxy REST para OpenAI con el AI Gateway

Crear un proxy REST que utilice el AI Gateway para controlar el acceso a los modelos AI.

Antes de empezar

Complete las tareas en Requisitos previos para utilizar el AI Gateway para asegurarse de que puede acceder al OpenAI.

Acerca de esta tarea

El AI Gateway sólo es compatible con las API OpenAPI 3.0.

Procedimiento

  1. En el panel de navegación, haga clic en Desarrollar icono.

  2. En la página Desarrollo, haga clic en Añadir > API.

  3. En la página Seleccionar tipo de API, haga clic en la pestaña OpenAPI 3.0.

  4. En la sección Crear, seleccione Pasarela AI y, a continuación, haga clic en Siguiente.

  5. En la página Crear API desde pasarela de IA, utilice el campo Plataforma para seleccionar openai como el servicio de IA que utilizará la nueva API.

  6. Utilice la sección "Info" para proporcionar información básica sobre la API y, a continuación, haga clic en Siguiente:
    • La versión OpenAPI se basa en la selección del paso 3, en el que hizo clic en OpenAPI 3.0

    • Título: El Título puede incluir caracteres especiales, pero debe ser corto para que pueda mostrarse fácilmente en la interfaz de usuario.

    • El nombre se rellena en función del título. El valor es una cadena única que se utiliza para identificar la API en los comandos CLI del kit de herramientas para desarrolladores.

    • Versión: Acepte el valor predeterminado o modifíquelo según sea necesario. La versión corresponde al valor de la info.version propiedad de la definición OpenAPI. Se recomienda el esquema de numeración de versiones version.release.modification; por ejemplo 1.0.0.

    • Ruta base: Acepta el valor por defecto o modifícalo según necesites. La "ruta base" de la API es la URL del servidor, que se utiliza para determinar el punto final de URL completa para llamar a la API, teniendo en cuenta cualquier configuración de punto final de vanidad en el catálogo en el que se publica la API. Para una API reforzada por la API Gateway DataPower®, sólo necesita proporcionar el valor de la ruta base. Además:
      • No incluya el nombre del host ni segmentos adicionales para rutas u operaciones
      • No incluya caracteres especiales
      • Empezar la URL con una barra inclinada ( / ) aunque esté vacía

    • Descripción: La descripción opcional ayuda a identificar la API.
  7. Proporcione información sobre cómo la API accede a ' OpenAI ' para enviar solicitudes y, a continuación, haga clic en Crear:
    • ID del proyecto: Proporcione el ID del proyecto ' OpenAI ' utilizado para resolver las solicitudes de API, o un $(nombre de una propiedad del catálogo) cuyo valor sea el ID del proyecto ' OpenAI '.

    • Clave de API: Proporcione el valor de la clave de API o la variable $(nombre de una propiedad del catálogo) cuyo valor es la clave de API.

      La clave API permite a la API autenticarse con el servidor ' OpenAI ', y es necesaria para acceder al servicio ' OpenAI '.

    • Rutas expuestas: Acepte la lista predeterminada de rutas expuestas o seleccione solo las rutas a las que desea que acceda su API. Las rutas expuestas definen qué OpenAI operaciones se incluyen en la API generada.

    • Activar caché de respuesta: La caché de respuesta está activada por defecto para optimizar el rendimiento de la API; sin embargo, puede desactivarla si es necesario para su API. Si utiliza la caché de respuesta, puede especificar la duración de la caché en el campo TTL de caché en segundos.

      Cuando se activa el almacenamiento en caché de respuestas, cuando se envía una solicitud al OpenAI servicio, se inspecciona la caché de respuestas para determinar si la carga útil de la solicitud tiene una respuesta almacenada en caché asociada. Si es así, esa respuesta y sus cabeceras de respuesta HTTP asociadas se colocan en el mensaje de contexto de API Gateway DataPower (que por defecto se denomina message ). La propiedad Mensaje de salida de la interfaz de usuario de la política puede modificarse una vez generada la API si se necesita un mensaje diferente.

      Si no hay respuesta en caché, la petición se pasa al OpenAI servicio, y la respuesta se almacena en caché para operaciones posteriores utilizando el tiempo de vida especificado en la propiedad Cache TTL en segundos.

      TTL de la caché en segundos: Si habilita el almacenamiento en caché de respuestas, configure la duración de la caché aceptando el valor predeterminado o seleccionando (o escribiendo) un nuevo valor. La duración mínima es de 60 segundos y la duración máxima es de 86400 segundos (1 día) -- cualquier valor fuera de ese rango fallará la validación cuando se publique la API, incluso si el valor es aceptado en este campo.

    • En la sección Limitación de tarifa, seleccione Crear producto si desea generar un producto " API Connect " que controle la limitación de tarifa para la API.

      En API Connect, un producto sirve de contenedor para una API y sus planes de uso asociados, que definen los límites de las tarifas. Al establecer aquí los límites de tarifa de producto, se crea un plan que contiene los límites de tarifa openai-default y openai-token-weighted de montaje requeridos y especifica los límites que ha definido.

      Si decide no generar un producto automáticamente, deberá crearlo como se explica en Creación de un producto personalizado para una API OpenAI.

      Atención: Un producto creado posteriormente con la función de autopublicación (al publicar su API) no incluye el plan necesario para utilizar el servicio de IA. Cree el producto ahora o cree un producto personalizado antes de publicar la API.

      Configure los tipos de limitación de velocidad que se aplicarán a las llamadas a la API:

      Nota: Si decide no especificar los valores de un límite de tarifa, se asignarán valores por defecto para ese límite de tarifa.
      • Establecer límite de velocidad : (Basado en el tiempo) Acepte el límite de velocidad predeterminado o configure un nuevo límite basado en el número de solicitudes de API enviadas en un periodo de tiempo especificado. Este tipo de límite de tarifa no utiliza fichas.

      • Establecer límite de tokens AI : (Basado en tokens) Acepta el límite de tarifa por defecto o configura un nuevo límite basado en el número de tokens basados en costes utilizados en un periodo de tiempo determinado. La limitación de velocidad basada en tokens utiliza la operación /chat/completions para realizar un seguimiento del uso de tokens.

        El límite de tokens AI aplica una limitación de tarifa basada en el uso de tokens. El límite de velocidad determina cuántos tokens pueden pasar por la pasarela en un periodo de tiempo determinado.

  8. Revise la página Resumen para comprobar que la API no presenta problemas.

  9. Edite la nueva API y añada políticas y construcciones lógicas que controlen el flujo de trabajo de la API.

    La API creada contendrá las políticas de invocación 'OpenAI ' para las rutas expuestas que se solicitaron. Sus propiedades pueden editarse según sea necesario.