¿Qué es un API gateway?

Vista aérea de una rotonda urbana iluminada

Puertas de enlace de API, definidas

Una puerta de enlace de API es una capa de software que presenta un único punto de entrada para que los clientes (como aplicaciones web o móviles) accedan a múltiples servicios de backend, al tiempo que gestionan simultáneamente las interacciones cliente/servidor. Es un componente común en las arquitecturas de microservicios.

Sus funciones incluyen enrutar y transformar las solicitudes de los clientes, agregar respuestas, hacer cumplir políticas de seguridad e integrarse con herramientas de analytics y monitoreo.

Una interfaz de programación de aplicaciones (API) es un conjunto de reglas o protocolos que permiten que las aplicaciones de software intercambien datos, características y funcionalidades. Las API ayudan a las empresas a utilizar servicios internos y de terceros sin tener que crear integraciones personalizadas para cada uno. Más de ocho de cada 10 empresas han adoptado algún grado de estrategia API-first, mientras que el 25% se considera totalmente API-first, según el Informe sobre el estado de API 2025 de Postman.

Las API gateways desempeñan un papel fundamental en los entornos de TI modernos, ya que optimizan las interacciones con las API y ayudan a las aplicaciones a acceder a una amplia variedad de servicios (a través de las respectivas API de dichos servicios), incluso a servicios desarrollados en diferentes lenguajes de programación, alojados en diversas plataformas o desplegados en entornos en la nube, en el borde y on premises.

Las API gateways pueden servir tanto a usuarios internos que acceden a una aplicación propia o de terceros como a usuarios externos, por ejemplo clientes o asociados de negocios. En los sistemas federados, las empresas utilizan múltiples puertas de enlace para aplicar diferentes protocolos y estándares de seguridad según el grupo de API o el tipo de usuario.

¿Cómo funcionan las puertas de enlace API?

Las puertas de enlace API suelen presentar dos capas arquitectónicas principales:

  • El plano de control maneja la configuración y la gestión: establecer políticas de seguridad y de registro, monitorear solicitudes de API y definir reglas de enrutamiento.
     

  • El plano de datos enruta las solicitudes de API en tiempo real, al tiempo que aplica las directrices de enrutamiento, los protocolos de seguridad y las restricciones de datos establecidas por el plano de control.

Una solicitud de datos de un cliente a una API se conoce como llamada a la API. La API gateway recibe una llamada API (a veces llamada solicitud API), la enruta a uno o más servicios de backend, recopila los datos solicitados y los entrega al cliente en una única respuesta combinada. De lo contrario, el cliente necesitaría interactuar directamente con varias API para acceder a cada servicio o fuente de datos relevante.

Por ejemplo, un sistema de atención médica podría usar una API Gateway para ayudar a los pacientes a conectarse a múltiples servicios de backend a través de una aplicación. Con una computadora portátil o un teléfono, los pacientes pueden revisar registros médicos, programar citas, realizar pagos y enviar mensajes desde el mismo panel. La API gateway actúan como un único punto de entrada, redirigiendo las llamadas a la API al servicio correspondiente, de modo que los usuarios no tengan que navegar entre varias plataformas para acceder a cada servicio. También admite el cifrado, la aplicación de autorizaciones y otras medidas de seguridad para ayudar a proteger los datos confidenciales de los pacientes.

Diagrama del flujo de trabajo de la puerta de enlace de API

API vs. API Gateway

Antes de explorar cómo se implementan las API Gateway, es importante comprender en qué se diferencian de las propias API. Las API son conjuntos de reglas y protocolos que permiten que diferentes aplicaciones de software se comuniquen, a menudo a través de los protocolos basados en la web HTTP o HTTPS. Son como pisos dentro de un edificio de oficinas, donde cada piso representa un servicio específico. Para recuperar datos, el cliente debe visitar el piso correspondiente para acceder al servicio que se encuentra dentro.

Mientras tanto, una API gateway es como la puerta principal del edificio de oficinas: el único punto de paso que los clientes deben usar para llegar a cada piso. En muchas configuraciones, la puerta de enlace también actúa como un asistente de puerta: verifica las credenciales de los visitantes para determinar a qué pisos tienen permiso de acceso. Y en lugar de requerir que los clientes exploren cada piso por su cuenta, recupera la información o los servicios solicitados en su nombre y se los devuelve como un solo paquete.

Desarrollo de aplicaciones

Entérese: desarrollo de aplicaciones empresariales en la nube

En este video, el Dr. Peter Haumer analiza cómo es el desarrollo de aplicaciones empresariales modernas en la nube híbrida y hace una demostración de diferentes componentes y prácticas, incluidos IBM Z Open Editor, IBM Wazi y Zowe.

Funciones y responsabilidades de API Gateway

Las API Gateway ayudan a las organizaciones a proporcionar una Experiencia coherente, segura y eficiente para los usuarios. Las funciones y responsabilidades clave incluyen:

Solicitudes, enrutamiento y composición

Actuando como un punto final de API unificado, la gateway recibe llamadas entrantes, las autentica, las procesa en función de las políticas de la organización y las enruta a los servicios backend apropiados. Luego, la gateway agrega y devuelve los resultados al cliente API (a menudo una aplicación o sitio web orientado al usuario) en forma compuesta.

Este proceso permite a los usuarios acceder a varios recursos con una sola llamada a la API y recibir una respuesta cohesiva. En algunas configuraciones, la pasarela opera junto a una capa de orquestación de flujo de trabajo que puede coordinar tareas automatizadas de varios pasos para agilizar las funciones del negocio.

API Management

La gestión de API es el proceso escalable de creación, publicación y gestión de API dentro de una empresa. Según la empresa de soluciones multicloud F5, las organizaciones modernas suelen gestionar miles (PDF) de API al mismo tiempo, lo que convierte la visibilidad, el control y la gobernanza en un desafío constante.

Las puertaa de enlace de API simplifican esta complejidad al centralizar tareas de gestión como el enrutamiento de solicitudes, el control de versiones, el equilibrio de carga y la gestión del tráfico. También mejoran la observabilidad de las API generando registros de llamadas a las API e integrándose con herramientas de analytics, lo que brinda a los equipos insights más profundos de los patrones de uso y el rendimiento de las API.

Seguridad

La seguridad de API se refiere a las prácticas y procedimientos que protegen las API del uso indebido, ataques maliciosos y otras amenazas de ciberseguridad. Las API gateways ayudan a aplicar los protocolos de seguridad de API mediante la gestión de la autenticación, la autorización y otros permisos y controles de acceso.

Utilizan protocolos de cifrado como la seguridad de la capa de transporte (TLS) y la autorización abierta (OAuth) para ayudar a mantener una red segura y facilitar conexiones seguras. La limitación de tasa, o permitir un cierto número de solicitudes por usuario, puede proteger contra ataques de denegación distribuida del servicio (DDoS). Por último, la API gateway se encarga de la gobernanza y la supervisión de cada API en su ámbito, protegiendo contra desalineaciones, API en la sombra y otras vulnerabilidades de seguridad.

Monitoreo y registro

Las puertas de enlace de API pueden monitorear y registrar solicitudes, respuestas y errores de API. Las organizaciones utilizan estos datos de analytics para comprender mejor el tráfico y el rendimiento de las API, mejorar la resolución de problemas y fortalecer la seguridad.

Los registros y las métricas no solo mejoran la visibilidad, ayudando a los equipos a identificar rápidamente errores y amenazas de seguridad, sino que también proporcionan contexto sobre cómo y por qué surgen los errores. Esto contribuye a la salud del sistema a largo plazo.

Optimización del rendimiento

Las puertas de enlace de API pueden mejorar la eficiencia de las empresas al aumentar el rendimiento y la disponibilidad de los servicios de backend, y al contribuir a ofrecer a los usuarios una experiencia más confiable y ágil. 

La compresión de respuestas permite que la puerta de enlace transforme respuestas grandes en archivos más pequeños, lo que reduce el consumo de ancho de banda y los tiempos de carga. El almacenamiento en caché ayuda a las empresas a almacenar localmente los datos a los que se accede con frecuencia, lo que mejora el rendimiento y, al mismo tiempo, reduce los costos y la carga del servidor.

Por último, aunque las compañías suelen implementar limitaciones de tasas por motivos de seguridad, la táctica también promueve la estabilidad. Ayuda a evitar que los servidores se desborden y ayuda a garantizar que el acceso a la API se distribuya de manera justa.

Cómo encajan las puertas de enlace de API en las arquitecturas y despliegues modernos

Si bien comparten funciones centrales, los despliegues de API Gateway pueden variar según la arquitectura y la implementación. Los marcos comunes incluyen:

Microservicios

Una arquitectura de microservicios es un enfoque de desarrollo de software que divide las aplicaciones en partes más pequeñas e independientes. Cada microservicio es responsable de una sola función y se puede desplegar y escalar de forma autónoma. Al mismo tiempo, los servicios pueden comunicarse fácilmente a través de API, sirviendo como bloques de construcción modulares para programas más grandes. Casi tres cuartas partes de las organizaciones utilizan microservicios, mientras que un 23% adicional planea implementar el marco en el futuro, según un informe de Gartner de 2023.

En un entorno de microservicios, API Gateway a menudo manejan el tráfico norte-sur, enrutando las llamadas API de clientes externos al servicio de backend apropiado. A menudo trabajan junto con mallas de servicios, que manejan principalmente el tráfico este-oeste, o las comunicaciones entre servicios dentro del entorno de microservicios.

Hay algunas excepciones: se puede configurar una API gateway para enrutar el tráfico interno, especialmente en entornos modernos. Pero la puerta de enlace tiende a ubicarse en una capa arquitectónica separada, mientras que las mallas de servicios se despliegan junto con cada servicio o se integran con él para facilitar y gestionar las conexiones internas.  

En un entorno de microservicios, la puerta de enlace de API desempeña un papel clave al permitir que las organizaciones devuelvan los recursos solicitados a través de una sola llamada a la API. Por ejemplo, una empresa de comercio electrónico podría tener servicios separados para información de productos, precios e inventario. Con una puerta de enlace de API, una aplicación puede obtener información o acceder a funciones de cada servicio a través de una sola solicitud. Este flujo de trabajo optimizado es especialmente útil a medida que los entornos de microservicios se vuelven más complejos, y las empresas agregan nuevos servicios y API con el tiempo.

Kubernetes

Kubernetes es un sistema de orquestación de código abierto que ayuda a las compañías a implementar, escalar y gestionar servicios dentro de entornos de contenedores, donde las aplicaciones se empaquetan como contenedores ligeros que incluyen sus dependencias. Kubernetes se utiliza con frecuencia en arquitecturas de microservicios, aunque también es compatible con arquitecturas monolíticas, sin servidor y otros marcos. La plataforma de orquestación desempeña un papel crítico en la infraestructura moderna en la nube, permitiendo a los desarrolladores crear aplicaciones una vez y desplegarlas en cualquier lugar.

Las API gateways pueden interactuar con un clúster de Kubernetes en contenedores de varias maneras.

  • Cuando se despliega frente a más de un clúster de Kubernetes, una puerta de enlace de API puede integrarse con un equilibrador de carga, dirigiendo el tráfico al clúster correcto para que ninguna instancia se sobrecargue.
     

  • Cuando se despliega en el borde de un clúster de Kubernetes, un API gateway puede actuar como un controlador de entrada. Los controladores de entrada dirigen el tráfico a un clúster de Kubernetes, a los servicios solicitados, y luego vuelven a salir.
     

  • Cuando se despliega dentro de un clúster de Kubernetes, una puerta de enlace de API puede complementar y trabajar junto con una malla de servicios, que maneja la comunicación entre servicios internos en contenedores. Esta integración puede mejorar el equilibrio de carga, el descubrimiento de servicios, el enrutamiento del tráfico y el cifrado de extremo a extremo.

Sin servidor

En un modelo sin servidor, los desarrolladores no interactúan directamente con los servidores que impulsan sus aplicaciones. En cambio, los proveedores de la nube son responsables de aprovisionar y administrar servidores, por lo que los desarrolladores pueden enfocarse únicamente en escribir y desplegar código.

En un contexto sin servidor, las puertas de enlace de API funcionan como puertas de enlace en entornos de microservicios, pero en lugar de recuperar datos de servicios de larga ejecución, activan eventos (instrucciones que inician acciones particulares) basados en las solicitudes del cliente. Este enfoque ayuda a garantizar que las aplicaciones se ejecuten solo cuando sea necesario, lo que mejora la seguridad y la eficiencia.

Se puede emplear un modelo de despliegue sin servidor para implementar una arquitectura de microservicios, creando una especie de infraestructura híbrida, donde cada servicio opera como un despliegue sin servidor (en lugar de un despliegue en contenedores o máquinas virtuales). Dicha configuración puede reducir los costos y mejorar la escalabilidad, especialmente para cargas de trabajo variables.

¿En qué se diferencian las API Gateway de otros componentes de API Management?

No todas las implementaciones de API Management tienen el mismo aspecto. Los componentes pueden diferir en función de la complejidad del sistema, el enfoque arquitectónico y el caso de uso previsto, aunque las distinciones no siempre son claras, ya que algunos componentes comparten roles y funciones superpuestas.

API Gateway vs. controlador de entrada

Un controlador de entrada es un componente de software nativo de Kubernetes que actúa como proxy inverso, enrutando el tráfico HTTP (o HTTPS) externo a los servicios dentro de un clúster de Kubernetes basado en un conjunto de reglas de entrada. Los controladores de entrada suelen tener capacidades de balanceo de carga, que dirigen inteligentemente el tráfico a diferentes servicios para ayudar a garantizar la estabilidad de la red. También pueden ajustar dinámicamente sus comportamientos de enrutamiento para adaptarse a nuevos despliegues y actualizaciones de configuración.

Aunque los controladores de entrada de Kubernetes realizan algunas de las mismas funciones que las puertas de enlace de API, el papel de estas suele tener un alcance más amplio, incorporando más capacidades de gestión de alto nivel, como auditoría, registro, control de acceso y seguridad. Además, aunque las puertas de enlace API pueden admitir diversas configuraciones, los controladores de entrada son específicos de los entornos Kubernetes.

API Gateway vs. Service Mesh

Una malla de servicios es una capa de infraestructura que facilita la comunicación entre servicios internos, lo que les permite compartir datos y funciones de manera eficiente. Si bien el plano de control (que establece configuraciones y políticas) está centralizado, el plano de datos se distribuye en todos los servicios a través de proxies sidecar ligeros.

Estos proxies, que se encuentran junto a cada instancia de servicio, ejecutan políticas de plano de control, que incluyen seguridad, registro, enrutamiento y cifrado. Por el contrario, los API Gateway suelen existir en el borde de la red, en una capa arquitectónica separada tanto del cliente como de las API que gestionan.

Aunque una malla de servicios ayuda a los servicios internos a intercambiar datos e información, aún necesita una forma de interactuar con el tráfico externo. En este caso, un componente especial llamado puerta de enlace de entrada actúa como punto de entrada de la malla, manejando el enrutamiento del tráfico externo mientras mantiene las políticas de seguridad y rendimiento. Las puertas de enlace de API y las mallas de servicios a menudo se utilizan en conjunto: las primeras manejan las interacciones públicas y las mallas de servicios facilitan las conexiones entre servicios.

Beneficios de API Gateway

Cuanto más complejo sea un entorno de API y mayor sea el tráfico que reciben las API, más valor puede proporcionar una API gateway. Más allá de enrutar el tráfico a los servicios de backend, las API Gateway también pueden:

Reduzca la latencia

Las puertas de enlace de API pueden optimizar el enrutamiento del tráfico para ayudar a reducir la latencia y mejorar la experiencia del usuario. La limitación de velocidad establece un límite en la cantidad de solicitudes que un cliente puede realizar y bloquea las solicitudes excesivas. La limitación de solicitudes gestiona los picos de tráfico al ralentizar, retrasar o poner en cola las solicitudes. Además, el equilibrio de carga ayuda a las empresas a determinar el estado de un servidor basándose en métricas en tiempo real y a ajustar las rutas de enrutamiento en consecuencia.

Juntas, estas estrategias protegen los servicios de backend para que no se sobrecarguen o comprometan, minimizan los tiempos de respuesta y contribuyen a un servicio más rápido y confiable.

Acelere la escalabilidad y la innovación

Las API Gateway ayudan a las organizaciones a equilibrar el tráfico de API y las cargas de trabajo a medida que la organización escala. Las puertas de enlace pueden integrarse con sistemas de automatización para agregar o eliminar instancias en tiempo real en función de la demanda de tráfico, lo que permite a los desarrolladores centrarse en la lógica empresarial central y el desarrollo de API en lugar de la administración.

Las puertas de enlace de API también pueden fortalecer y acelerar los despliegues de DevOps definiendo y aplicando políticas uniformes de seguridad y distribución del tráfico. Debido a que las puertas de enlace reducen la complejidad técnica y promueven la interoperabilidad y la integración, permiten a los desarrolladores centrarse en crear características nuevas y únicas en lugar de reconstruir constantemente funciones comunes como el control de tráfico o la traducción de protocolos.

Por último, dado que las puertas de enlace pueden gestionar eficazmente varias versiones de una API, los desarrolladores pueden probar varias iteraciones antes del despliegue o mantener una instancia de una versión anterior de la API para un caso de uso específico.

Flujos de trabajo optimizados

Si bien las API tienen roles y responsabilidades distintas, a menudo comparten algunos flujos de trabajo comunes.

Por ejemplo, muchas llamadas a API pasan por un proceso idéntico de autorización y validación para cumplir con los protocolos de seguridad. Cada API puede estar sujeta a las mismas políticas de registro y monitoreo, que se utilizan para obtener insights sobre las tasas de uso y el tráfico. Por último, si se monetizan las API, es posible que cada llamada deba enrutarse a un servicio de facturación. Una puerta de enlace de API puede automatizar y orquestar estas tareas, promoviendo flujos de trabajo fluidos y uniformidad en todo el sistema.

Las API Gateway también admiten la terminación de capa de sockets seguros (SSL), un método utilizado para descifrar datos confidenciales, como contraseñas y números de tarjetas de crédito, en la API Gateway, descargando esta tarea de alto rendimiento fuera de las API individuales. Por último, cuando se despliegan varias iteraciones de una aplicación en el mismo servidor, las API Gateway pueden dirigir el tráfico a la versión adecuada leyendo encabezados, rutas URL y parámetros de consulta perfectamente.

Reforzar la seguridad

Debido a que las API desempeñan un papel vital en la infraestructura de TI moderna, a menudo corren el riesgo de sufrir ataques cibernéticos, incluidos ataques de denegación distribuida del servicio (DDoS), manipulación de parámetros, ataques de inyección y otras amenazas. Las API Gateway pueden ayudar a proteger contra estas amenazas con limitación de velocidad, autenticación API, autorización de solicitudes y otras técnicas.

Las puertas de enlace de API suelen incluir sistemas integrados de gestión de identidades y accesos (IAM), que permiten saber quién intenta interactuar con qué servicios. También pueden monitorear el uso de API, registrar el tráfico y analizar métricas para identificar comportamientos sospechosos o vulnerabilidades antes de que ocurra un ataque. Por último, las puertas de enlace de API se pueden utilizar junto con herramientas como cortafuegos de aplicaciones web (WAF), que monitorean, filtran y bloquean el tráfico HTTP malicioso.

Menor complejidad

Las puertas de enlace de API pueden unir servicios que utilizan diferentes formatos de datos y API con diferentes arquitecturas o protocolos,como transferencia de estado representacional (API REST), SOAP, gRPC y WebSocket.

Sin una puerta de enlace de API, los diferentes formatos y protocolos pueden causar problemas de comunicación entre los clientes y los servicios de backend. Loas puertas de enlace mitigan este desafío al realizar la conversión de datos y protocolos, transformando automáticamente las solicitudes y respuestas en formatos compatibles tanto para clientes como para servidores.

Las empresas también pueden sincronizar la documentación y las claves de acceso entre el API gateway y el portal de desarrolladores (el repositorio central donde los desarrolladores pueden descubrir e implementar nuevas API) para que el entorno de desarrollo refleje con precisión los últimos despliegues y actualizaciones de API.

Amplíe las aplicaciones heredadas

Las aplicaciones heredadas pueden ser una barrera para el progreso, especialmente cuando son incompatibles con los entornos modernos y las implementaciones de API. Sin embargo, a menudo vale la pena conservar las aplicaciones heredadas porque contienen datos y funciones esenciales que no se pueden reemplazar fácilmente.

Las puertas de enlace de API ayudan a las organizaciones a integrar, reutilizar y dar un nuevo propósito a aplicaciones heredadas en entornos de nube modernos, en lugar de abandonarlas o reconstruirlas desde cero. Las capacidades de conversión de la puerta de enlace permiten a las organizaciones preservar el código y el formato originales de una aplicación heredada, incluso cuando el resto de la compañía se ha movido a sistemas más nuevos.

El desacoplamiento, que implica dividir los servicios en partes más pequeñas, permite que las puertas de enlace de API apliquen limitaciones de velocidad, estrangulamiento y otras prácticas a las aplicaciones heredadas para ayudar a modernizar su funcionalidad y ampliar su ciclo de vida. Esta estrategia también ayuda a las organizaciones a mantener los servicios en línea incluso cuando los actualizan detrás de escena.

Monitoree y rastree analytics de aplicaciones

Como centro de control del tráfico entrante de una aplicación, las puertas de enlace de API pueden proporcionar una visión completa del uso y el rendimiento de la API. Los gráficos y paneles personalizados ayudan a las organizaciones a visualizar los patrones de tráfico, el rendimiento, los tiempos de respuesta y otras métricas. Las notificaciones alertan a los equipos sobre posibles errores e incidentes de seguridad antes de que afecten al rendimiento o la seguridad de las aplicaciones.

Desafíos de las API gateways

Si bien las API Gateway pueden ayudar a resolver problemas complicados de enrutamiento, también pueden introducir nuevos problemas. Los desafíos comunes incluyen:

Escalabilidad



Si bien las puertas de enlace de API pueden promover la escalabilidad en algunos aspectos, también pueden presentar desafíos de escalabilidad que deben abordarse. Las puertas de enlace de API suelen ayudar a optimizar la comunicación de API, la asignación de recursos y las solicitudes de enrutamiento. Sin embargo, una configuración incorrecta y una capacidad insuficiente pueden tener el efecto contrario: aumentar el riesgo de cuellos de botella (al fin y al cabo, un puerta de enlace de API constituye un único punto de entrada) y añadir una carga adicional al sistema.

Un diseño de arquitectura cuidadoso que considere oportunidades de escalado horizontal (utilizando múltiples puertas de enlace), estrategias de equilibrio de carga, políticas de escalado automático y capacidades de monitoreo puede ayudar a evitar problemas de escalabilidad. 

Complejidad arquitectónica

Al igual que con la escalabilidad, el efecto de las puertas de enlace en la complejidad de TI es matizado. Una puerta de enlace elimina cierta complejidad de TI a través de una gestión uniforme y la aplicación de políticas, así como la traducción automática de datos y protocolos.

Sin embargo, las puertas de enlace de API introducen una capa adicional en el ecosistema de API de una empresa, que requiere mantenimiento, computación y experiencia adicionales. Es posible que a los desarrolladores les resulte más difícil probar nuevos despliegues porque las puertas de enlace de API pueden ser difíciles de recrear con precisión en un entorno virtual. Esta limitación hace que a los equipos les resulte difícil saber de antemano cómo podrían afectar las implementaciones al sistema.

Una práctica de DevOps llamada infraestructura como código (IaC) puede ayudar a enfrentar estos desafíos mediante el uso de archivos de configuración para automatizar la administración y estandarización de la infraestructura. Este enfoque simplifica el mantenimiento y el aprovisionamiento, ayudando a los equipos de TI a maximizar la eficiencia de la puerta de enlace de API y, al mismo tiempo, reducir la complejidad arquitectónica.

Punto único de falla

Debido a que las API Gateway actúan como un único punto de entrada, la propia puerta de enlace puede convertirse en un vector potencial para ciberataques o infiltraciones. Las amenazas y los errores también tienen una mayor probabilidad de propagarse en cascada a través de múltiples servicios de backend, lo que podría cortar el tráfico de API y dañar aplicaciones que, de otro modo, estarían en buen estado.

Para reducir este riesgo, las empresas pueden mantener varias instancias de puertas de enlace en entornos y zonas de disponibilidad, lo que ayuda a garantizar que si una se desconecta, otra pueda ocupar su lugar temporalmente. De manera similar, las organizaciones pueden emplear diferentes tipos de puertas de enlace, incluidas las puertas de enlace edge, para repartir las responsabilidades de enrutamiento y gestión entre múltiples puntos de entrada.

Dependencia de la gateway

Después de que una organización elige una API gateway que satisfaga sus necesidades específicas y crea su entorno de API en torno a esa API gateway, puede ser costoso y llevar mucho tiempo mover a otro proveedor. En algunos casos, una organización puede optar por alojar automáticamente una puerta de enlace de código abierto, en lugar de utilizar un servicio gestionado, para mantener un control más preciso sobre las configuraciones. Sin embargo, si una organización elige una opción autohospedada, este enfoque puede ser más costoso para el equipo de desarrollo.

Autores

Nick Gallagher

Staff Writer, Automation & ITOps

IBM Think

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

Gita Jackson

Staff Writer

Soluciones relacionadas
IBM API Connect

Desarrolle, gestione, proteja y socialice perfectamente todos sus tipos de interfaz de programación de aplicaciones (API), dondequiera que residan.

Explore API Connect
Soluciones de integración de IBM

Potencie su negocio a través de una conectividad y automatización perfectas con el software de plataforma de integración.

Explore las soluciones de integración de IBM
Servicios de consultoría en la nube

Desbloquee todo el potencial de la nube híbrida en la era de la IA agéntica.

Explore la consultoría sobre la nube
Dé el siguiente paso

IBM API Connect admite todos los tipos modernos de interfaz de programación de aplicaciones (API), al tiempo que refuerza la seguridad y la gobernanza. Las capacidades de IA generativa automatizan las tareas manuales, ahorran tiempo y ayudan a garantizar la calidad. 

  1. Explore IBM API Connect
  2. Explore las soluciones de integración de IBM