API Connect Comprobador

La herramienta API Connect Tester prueba las API, genera casos de prueba, conjuntos de pruebas y mucho más.

La herramienta realiza operaciones que son compatibles con la herramienta API Test and Monitor (ATM). Prueba las API para garantizar que funcionan como se espera. Se centra en verificar que los puntos finales de la API muestren las respuestas correctas para diversas entradas y escenarios, mediante la creación de aserciones de prueba.

Detalles de herramientas
  • Se puede acceder a la prueba de API en la pestaña Pruebas de API del Gestor de API.
  • Esta herramienta utiliza la función Smart Generation para generar casos de prueba.

Generar casos de prueba

La operación Generate test case crea un conjunto de pruebas a partir del archivo de especificación de la API o OpenAPI proporcionado. La API puede ser un borrador o estar publicada en un catálogo específico. Cada caso de prueba del conjunto corresponde a un punto final diferente. Si ya existe un conjunto de pruebas para la API o el archivo de especificación OpenAPI, se eliminará y se creará uno nuevo. Puede controlar el número de casos de prueba que se enumeran utilizando los parámetros de límite y desplazamiento.

Esta operación muestra una lista de casos de prueba como enlaces, dirigiéndole a los casos de prueba correspondientes en el Gestor de API.
Nota:
  • Si no se especifica el nombre del catálogo, el conjunto de pruebas se crea para un borrador de API con el nombre dado (si está disponible). Para generar casos de prueba contra una API publicada, especifique el nombre del catálogo.
  • Si la especificación OpenAPI de una API se actualiza después de haber creado un conjunto de pruebas, deberá eliminarse el conjunto de pruebas existente. Debe crearse un nuevo conjunto de pruebas basado en la especificación actualizada de la API.
Tabla 1. Parámetros
Parámetro Descripción Valor predeterminado Obligatorio
api_name Nombre de la API para la que deben crearse casos de prueba. Ninguna Opcional
api_file Nombre de la especificación de API abierta para la que debe ejecutarse el caso de prueba. Ninguna Opcional
catalog El nombre del catálogo en el que el usuario publicó la API. Ninguna Opcional
version La versión específica de la API que se ha publicado o la versión que se especifica en la API. Ninguna Opcional
limit Número máximo de casos de prueba, que se encuentra en la respuesta. Toma un valor entero. 19 Opcional
Offset Omite este número de casos de prueba y recupera los casos de prueba restantes. Toma un valor entero. 0 Opcional
Ejemplos de indicaciones
  • Generate test case for Swagger-Petstore api
  • Generate test case for Swagger-Petstore api in sandbox
  • Generate test for Swagger-Petstore:1.0.0 api
  • Generate test for Swagger-Petstore api with version 1.0.0 in sandbox
  • Generate test case for Swagger-Petstore api with limit 5 offset 15
  • Generate test case for @bookshop.yaml
Próxima acción sugerida
Run test case for the test suite {testsuite_name}

Ejecutar casos de prueba

El caso de prueba de ejecución ejecuta los casos de prueba del conjunto de pruebas dado o creado para una API. Durante la ejecución, se realizan llamadas a la API y se validan las afirmaciones. La API puede ser un borrador o estar publicada en un catálogo específico. Puede controlar el número de casos de prueba que se enumeran utilizando los parámetros de límite y desplazamiento. Esta operación sólo puede realizarse después de la operación Generar caso de prueba.

Durante esta operación, se verifica que cada caso de prueba tenga un servidor URL válido para realizar llamadas a la API. Si falta el servidor URL, como en los borradores de API, el caso de prueba no se ejecutará. Se pide al usuario que actualice el servidor URL en el editor a través de un enlace al caso de prueba en el que se puede hacer clic. Si el caso de prueba tiene un servidor válido URL, un enlace le dirige a la pestaña Informe de los casos de prueba en el Gestor de API, donde puede revisar los resultados de la prueba.
Tabla 2. Parámetros
Parámetro Descripción Valor predeterminado
api_name Nombre de la API para la que deben ejecutarse los casos de prueba. Ninguna
api_file Nombre de la especificación de API abierta para la que debe ejecutarse el caso de prueba. Ninguna
test_name Nombre del caso de prueba que debe ejecutarse. Ninguna
testsuite_name Nombre del testsuite para el que deben ejecutarse los casos de prueba. Ninguna
catalog El nombre del catálogo que el usuario publicó en la API. Ninguna
version La versión específica de la API que se ha publicado o la versión que se especifica en la API. Ninguna
limit Número máximo de casos de prueba, que se muestra en la respuesta. Toma un valor entero. 19
Offset Omite este número de casos de prueba y recupera los casos de prueba restantes. Toma un valor entero. 0
Ejemplos de indicaciones
  • run test for AA_TEST_SUITE_Swagger_Petstore_1.0.0
  • run test for Swagger-Petstore api
  • run test for Swagger-Petstore api in sandbox
  • run test for Swagger-Petstore:1.0.0 api
  • run test for Swagger-Petstore api with version 1.0.0 in sandbox
  • run test for AA_TEST_CASE_get/200 in AA_TEST_SUITE_Swagger_Petstore_1.0.0
  • run test for AA_TEST_CASE_get/200 in AA_TEST_SUITE_Swagger-Petstore-1.0.0 test suite
  • run test for Swagger-Petstore api with limit 5 offset 15
Próxima acción sugerida
Get test status for the {api_name} api
Get test status for the test suite {testsuite_name}

API de prueba

La operación API de prueba genera casos de prueba y los ejecuta para el archivo de especificación de API o OpenAPI dado. La API puede ser un borrador o estar publicada en un catálogo específico. Puede controlar el número de casos de prueba que se enumeran utilizando los parámetros de límite y desplazamiento.

La operación presenta estos casos de prueba como enlaces clicables, dirigiéndole a la pestaña Informe de los casos de prueba en el Gestor de API, donde puede revisar los resultados de la prueba.

Tabla 3. Parámetros
Parámetro Descripción Valor predeterminado
api_name Nombre de la API para la que deben crearse y ejecutarse casos de prueba. Ninguna
api_file Nombre de la especificación api abierta para la que debe crearse y ejecutarse el caso de prueba. Ninguna
catalog El nombre del catálogo en el que el usuario publicó la API. Ninguna
version La versión específica de la API que se ha publicado o la versión que se especifica en la API. Ninguna
limit Número máximo de casos de prueba que se mostrarán en la respuesta. Toma un valor entero. 19
offset Omite este número de casos de prueba y recupera los casos de prueba restantes. Toma un valor entero. 0
Ejemplos de indicaciones
  • test api Swagger-Petstore api
  • test api Swagger-Petstore api in sandbox
  • test api Swagger-Petstore:1.0.0 api
  • test api Swagger-Petstore api with version 1.0.0 in sandbox
  • test api for Swagger-Petstore api with limit 5 offset 15
  • test api for @bookshop.yaml
Próxima acción sugerida
Get test status for the {api_name} api
 Get test status for the test suite {testsuite_name}

Lista de suites de prueba

La operación listar conjunto de pruebas proporciona una lista de todos los conjuntos de pruebas presentes en la organización proveedora.

Ejemplo de solicitud:
list test suites

Lista de casos de prueba

La operación de lista de casos de prueba muestra la lista de casos de prueba presentes para el conjunto de pruebas o la API dados. La API puede ser un borrador o estar publicada en un catálogo específico. Puede controlar el número de casos de prueba que se enumeran utilizando los parámetros de límite y desplazamiento.
Tabla 4. Parámetros
Parámetro Descripción Valor predeterminado
api_name Nombre de la API para listar los casos de prueba generados bajo ella. Ninguna
catalog El nombre del catálogo en el que el usuario publicó la API. Ninguna
testsuite_ name Nombre del conjunto de pruebas para enumerar los casos de prueba que contiene. Ninguna
limit Número máximo de casos de prueba que se mostrarán en la respuesta. Toma un valor entero. 19
offset Omite este número de casos de prueba y recupera los casos de prueba restantes. Toma un valor entero. 0
Ejemplos de indicaciones
  • list test cases in AA_TEST_SUITE_Swagger_Petstore_1.0.0
  • list test cases in Swagger-Petstore api
  • list test cases in Swagger-Petstore api in sandbox
  • list test cases in Swagger-Petstore api with limit 5 offset 15

Eliminar el conjunto de pruebas

La operación delete test suite elimina un conjunto de pruebas, junto con todos los casos de prueba creados dentro de ese conjunto de pruebas.
Tabla 5. Parámetros
Parámetro Descripción Obligatorio
testsuite_name Nombre del conjunto de pruebas que debe eliminarse.
Ejemplo
delete test AA_TEST_CASE_get/200 in AA_TEST_SUITE_Swagger_Petstore_1.0.0

Eliminar caso de prueba

La operación delete test case elimina un caso de prueba específico dentro de un conjunto de pruebas.
Tabla 6. Parámetros
Parámetro Descripción Obligatorio
test_name Nombre del caso de prueba que debe eliminarse.
testsuite_name Nombre del conjunto de pruebas en el que se encuentra el caso de prueba que se desea eliminar.
Ejemplo
delete test AA_TEST_CASE_get/200 in AA_TEST_SUITE_Swagger_Petstore_1.0.0

Publicar casos de prueba

Después de configurar y verificar su prueba, puede publicarla. Esta operación publica un caso de prueba específico dentro de un conjunto de pruebas si se proporciona un nombre, o todos los casos de prueba del conjunto si no se especifica ningún nombre de conjunto de pruebas.
Tabla 7. Parámetros
Parámetro Descripción Valor predeterminado Obligatorio
test_name Nombre del caso de prueba que debe publicarse. Ninguna
testsuite_name Se presenta el nombre del conjunto de pruebas en el que se encuentra el caso de prueba que debe publicarse. Ninguna
Ejemplos de indicaciones
  • publish test in test suite AA_TEST_SUITE_Swagger_Petstore_1.0.0
  • publish test AA_TEST_CASE_get/200 in test suite AA_TEST_SUITE_Swagger_Petstore_1.0.0

Obtener el estado de los casos de prueba

La operación Obtener estado proporciona el estado de ejecución de los casos de prueba para la API o el conjunto de pruebas especificado, tanto si se trata de un borrador como si está publicado en un catálogo específico. El número de casos de prueba puede controlarse mediante los parámetros de límite y desplazamiento.

Esta operación proporciona un resumen consolidado del estado de las pruebas y de los casos individuales. Para cada caso de prueba que se ha ejecutado, muestra los recuentos de aserciones exitosas y fallidas, junto con un enlace a la pestaña Informe de los casos de prueba en el Gestor de API. Si un caso de prueba no se ha ejecutado, su estado se muestra como Not run yet para el caso de prueba concreto.
Tabla 8. Parámetros
Parámetro Descripción Valor predeterminado
api_name Nombre de la API para la que debe obtenerse el estado de los casos de prueba. Ninguna
test_name Nombre del caso de prueba cuyo estado debe obtenerse. Ninguna
catalog El nombre del catálogo en el que el usuario publicó la API. Ninguna
testsuite_ name Nombre del conjunto de pruebas cuyo estado debe obtenerse. Ninguna
limit El número máximo de casos de prueba que se mostrarán en la respuesta. Toma un valor entero. 19
offset Omita este número de casos de prueba y recupere los casos de prueba restantes. Toma un valor entero. 0
version La versión específica de la API que se ha publicado o la versión que se especifica en la API. Ninguna
Ejemplos de indicaciones
  • get test status for Swagger-Petstore api
  • get test status for Swagger-Petstore api in sandbox
  • get test status for Swagger-Petstore:1.0.0 api
  • get test status for Swagger-Petstore api with version 1.0.0 in sandbox
  • get test status for test suite AA_TEST_SUITE_Swagger-Petstore-1.0.0
  • get test status for AA_TEST_CASE_get/200 in test suite AA_TEST_SUITE_Swagger-Petstore-1.0.0

Crear webhook

La operación create webhook permite la creación de un webhook para un conjunto de pruebas específico, permitiendo la creación de múltiples webhooks por conjunto. Puede crear webhooks proporcionando un nombre, una descripción y el nombre del conjunto de pruebas. La operación muestra la dirección URL del webhook creado, junto con directrices sobre cómo generar la clave y el secreto necesarios para acceder al webhook.
Acceso al gancho

Para utilizar el gancho API, es necesario generar una clave y un secreto API.

Para generar una clave y un secreto de API, siga estos pasos:
  1. Ve a «Conjunto de pruebas » > «Configuración ».
  2. Seleccione ganchos y claves API.
  3. En la sección Claves, haga clic en Añadir.
Tabla 9. Parámetros
Parámetro Descripción Valor predeterminado Obligatorio
testsuite_name Nombre del conjunto de pruebas para el que debe crearse el gancho. Ninguna
name El gancho debe crearse con este nombre. Ninguna
des_hooks Descripción del gancho. ""
Ejemplos de indicaciones
  • create hook with name test-hook for test suite AA_TEST_SUITE_Swagger-Petstore-1.0.0
  • create hook with name test-hook with description 'For testing purpose' for the test suite AA_TEST_SUITE_Swagger-Petstore-1.0.0

Lista de webhooks

Esta operación enumera todos los webhooks creados para un conjunto de pruebas concreto.
Tabla 10. Parámetros
Parámetro Descripción Obligatorio
testsuite_name El nombre del conjunto de pruebas para el que debe listarse el gancho.
Ejemplo
list hooks for test suite AA_TEST_SUITE_Swagger_Petstore_1.0.0

Borrar webhooks

Esta operación elimina un webhook específico con el nombre dado del conjunto de pruebas especificado.
Tabla 11. Parámetros
Parámetro Descripción Obligatorio
name Nombre del gancho que hay que borrar.
testsuite_name El nombre del conjunto de pruebas en el que está presente el gancho que se va a eliminar.
Ejemplo
delete hook test-hook in test suite AA_TEST_SUITE_Swagger-Petstore-1.0.0