Criação de um proxy REST para OpenAI com o AI Gateway

Crie um proxy REST que use o AI Gateway para controlar o acesso aos modelos de IA.

Antes de iniciar

Conclua as tarefas em Pré-requisitos para usar o AI Gateway para garantir que você possa acessar o OpenAI.

Sobre Esta Tarefa

O AI Gateway é compatível apenas com as APIs OpenAPI 3.0.

Procedimento

  1. No painel de navegação, clique em Desenvolver ícone.

  2. Na página Desenvolver, clique em Adicionar > API.

  3. Na página Selecionar tipo de API, clique na guia OpenAPI 3.0.

  4. Na seção Create (Criar), selecione AI gateway e clique em Next (Avançar).

  5. Na página Criar API do gateway de IA, use o campo Plataforma para selecionar openai como o serviço de IA que a nova API usará.

  6. Use a seção "Info" para fornecer informações básicas sobre a API e, em seguida, clique em Next:
    • A versão OpenAPI é baseada na seleção da etapa 3, na qual você clicou em OpenAPI 3.0

    • Título: O título pode incluir caracteres especiais, mas deve ser curto para que possa ser facilmente exibido na interface do usuário.

    • O Nome é preenchido para você com base no título. O valor é uma única cadeia de caracteres usada para identificar a API nos comandos da CLI do kit de ferramentas do desenvolvedor.

    • Versão: Aceite o valor padrão ou modifique-o conforme necessário. A versão corresponde ao valor da propriedade info.version da definição OpenAPI. O esquema de numeração de versão version.release.modification é recomendado; por exemplo, 1.0.0.

    • Caminho base: Aceite o valor padrão ou modifique-o conforme necessário. O "caminho base" da API é o URL do servidor, que é usado para determinar o ponto de extremidade completo do URL para chamar a API, levando em conta qualquer configuração de ponto de extremidade de vaidade no catálogo em que a API é publicada. Para uma API que é imposta pelo DataPower® API Gateway, você só precisa fornecer o valor do caminho base. (Co-Marketing Center) ao criar uma MAP. Veja mais detalhes.
      • Não inclua o nome do host ou qualquer segmento adicional para caminhos ou operações
      • Não inclua caracteres especiais
      • Iniciar o URL com uma barra ( / ), mesmo que esteja vazio

    • Descrição: A descrição opcional ajuda a identificar a API.
  7. Forneça informações sobre como a API acessa ' OpenAI para enviar solicitações e, em seguida, clique em Create (Criar):
    • ID do projeto: Forneça o ID do projeto " OpenAI usado para resolver solicitações de API ou um $(nome de uma propriedade de catálogo) cujo valor seja o ID do projeto " OpenAI.

    • Chave da API: Forneça o valor da chave da API ou a variável $(nome de uma propriedade do catálogo) cujo valor é a chave da API.

      A chave de API permite que a API se autentique no servidor " OpenAI e é necessária para o acesso ao serviço " OpenAI.

    • Caminhos expostos: Aceite a lista padrão de caminhos expostos ou selecione apenas os caminhos que você deseja que sua API acesse. Os caminhos expostos definem quais OpenAI operações estão incluídas na API gerada.

    • Ativar o cache de resposta: o cache de resposta é ativado por padrão para otimizar o desempenho da API; no entanto, você pode desativá-lo se necessário para a sua API. Se você usar o cache de resposta, poderá especificar a duração do cache no campo Cache TTL in seconds (TTL de cache em segundos ).

      Quando o cache de resposta está ativado, quando uma solicitação é enviada ao OpenAI serviço, o cache de resposta é inspecionado para determinar se a carga útil da solicitação tem uma resposta em cache associada. Em caso afirmativo, essa resposta e seus cabeçalhos de resposta HTTP associados são colocados na mensagem de contexto do DataPower API Gateway (que, por padrão, é denominada message ). A propriedade Mensagem de saída na interface do usuário da política pode ser modificada depois que a API for gerada, se for necessária uma mensagem diferente.

      Se não houver resposta em cache, a solicitação será passada para o serviço OpenAI e a resposta será armazenada em cache para operações subsequentes usando o tempo de vida especificado na propriedade Cache TTL em segundos.

      TTL do cache em segundos: Se você ativar o cache de resposta, configure a duração do cache aceitando o valor padrão ou selecionando (ou digitando) um novo valor. A duração mínima é de 60 segundos e a duração máxima é de 86400 segundos (1 dia). Qualquer valor fora desse intervalo falhará na validação quando a API for publicada, mesmo que o valor seja aceito nesse campo.

    • Na seção Rate Limiting (Limite de taxa), selecione Create product (Criar produto ) se quiser gerar um produto " API Connect que controle o limite de taxa para a API.

      Em API Connect, um produto serve como um contêiner para uma API e seus planos de uso associados, que definem os limites de taxa. A definição dos limites de taxa do produto aqui cria um plano que contém os limites de taxa de montagem openai-default e openai-token-weighted necessários e especifica os limites que você definiu.

      Se você optar por não gerar um produto automaticamente, deverá criar um, conforme explicado em Criação de um produto personalizado para uma API OpenAI.

      Atenção: Um produto que é criado posteriormente com o recurso de publicação automática (ao publicar sua API) não inclui o plano necessário para usar o serviço de IA. Crie o produto agora ou crie um produto personalizado antes de publicar a API.

      Configure os tipos de limitação de taxa a serem aplicados nas chamadas de API:

      Observação: se você optar por não especificar os valores de um limite de taxa, serão atribuídos valores padrão para esse limite de taxa.
      • Definir limite de taxa : (com base no tempo) Aceite o limite de taxa padrão ou configure um novo limite com base no número de solicitações de API enviadas em um período de tempo especificado. Esse tipo de limite de taxa não usa tokens.

      • Definir limite de token de IA : (Baseado em token) Aceite o limite de taxa padrão ou configure um novo limite com base no número de tokens baseados em custo usados em um período de tempo especificado. A limitação de taxa baseada em token usa a operação /chat/completions para rastrear o uso do token.

        O limite de token de IA aplica a limitação de taxa com base no uso do token. O limite de taxa determina quantos tokens podem passar pelo gateway em um período de tempo específico.

  8. Revise a página Summary (Resumo ) para verificar se a API não apresenta problemas.

  9. Edite a nova API e adicione políticas e construções lógicas que controlam o fluxo de trabalho da API.

    A API criada conterá o " OpenAI invocar políticas para os caminhos expostos que foram solicitados. Suas propriedades podem ser editadas conforme necessário.