Qu’est-ce qu’une passerelle d’API ?

Vue aérienne d'un rond-point illuminé en ville

Passerelle d’API : définition

Une passerelle d’API est une couche logicielle qui présente un point d’entrée unique permettant aux clients (tels que les applications Web ou les applications mobiles) d’accéder à plusieurs services backend, tout en gérant simultanément les interactions client/serveur. Il s’agit d’un composant courant des architectures de microservices.

Ses fonctions incluent l’acheminement et la transformation des requêtes clients, l’agrégation des réponses, l’application des politiques de sécurité et l’intégration avec des outils d’analyse et de surveillance.

Une interface de programmation d’application (API) est un ensemble de règles ou de protocoles qui permettent aux applications logicielles d’échanger des données, des caractéristiques et des fonctionnalités. Les API permettent aux entreprises d’utiliser des services internes et tiers sans avoir à créer des intégrations personnalisées pour chacun d’entre eux. Plus de huit entreprises sur dix ont adopté dans une certaine mesure une stratégie API-first, tandis que 25 % se considèrent comme totalement API-first, selon le 2025 State of the API Report publié par Postman.

Les passerelles d’API jouent un rôle clé dans les environnements informatiques modernes. Elles rationalisent les interactions API et aident les applications client à accéder à une grande variété de services (via les API respectives de ces services), y compris des services développés dans différents langages de programmation, hébergés sur diverses plateformes ou déployés dans le cloud, en edge et sur site.

Les passerelles d’API servent tant aux utilisateurs internes accédant à une application de première ou de tierce partie qu’aux utilisateurs externes tels que les clients et les partenaires commerciaux. Dans les systèmes fédérés, les entreprises utilisent plusieurs passerelles pour appliquer différents protocoles et normes de sécurité en fonction du groupe d'API ou du type d'utilisateur.

Comment fonctionnent les passerelles d’API ?

Les passerelles d’API comportent souvent deux couches architecturales principales :

  • Le plan de contrôle porte sur la configuration et la gestion : définition des politiques de sécurité, journalisation et surveillance des requêtes d’API, et définition des règles de routage.
     

  • Le plan de données achemine les requêtes d’API en temps réel, tout en appliquant les directives de routage, les protocoles de sécurité et les contraintes de données définies par le plan de contrôle.

Une requête de données d’un client à une API est connue sous le nom « appel d’API ». La passerelle d’API reçoit un appel d’API (parfois appelé requête d’API), l’achemine vers un ou plusieurs services back-end, rassemble les données demandées et les livre au client dans un paquet unique et combiné. Sans cela, le client aurait à se connecter directement à plusieurs API pour accéder à chaque service ou source de données pertinent.

Par exemple, un système de santé peut utiliser une passerelle d’API pour aider les patients à se connecter à plusieurs services backend via une application. À l’aide d’un ordinateur portable ou d’un téléphone, les patients peuvent consulter leur dossier médical, prendre rendez-vous, effectuer des paiements et envoyer des messages à partir du même tableau de bord. La passerelle d’API agit comme un point d’entrée unique, acheminant les appels d’API vers le service approprié, pour que les utilisateurs n’aient pas à naviguer sur plusieurs plateformes pour accéder à chaque service. Elle prend également en charge le chiffrement, l’application des autorisations et d’autres mesures de sécurité pour protéger les données sensibles des patients.

Diagramme d’un workflow de passerelle d’API

API et passerelle d’API

Avant de découvrir comment les passerelles d’API sont implémentées, il est important de comprendre en quoi elles diffèrent des API elles-mêmes. Les API sont des ensembles de règles et de protocoles qui permettent à différentes applications logicielles de communiquer, souvent via les protocoles Web HTTP ou HTTPS. Elles sont comparables aux étages d’un immeuble de bureaux, chaque étage représentant un service spécifique. Pour récupérer les données, le client doit se rendre à l’étage correspondant pour accéder au service.

La passerelle d’API, quant à elle, est comme la porte d’entrée d’un immeuble de bureaux : le point de passage unique que les clients doivent emprunter pour accéder à chaque étage. Dans de nombreuses configurations, la passerelle sert également de portier : elle vérifie les identifiants des visiteurs pour déterminer à quels étages ils sont autorisés à accéder. Et au lieu de demander aux clients d’explorer chaque étage eux-mêmes, elle récupère les informations ou les services demandés en leur nom et les renvoie sous forme de package.

Développement d’applications

Rejoignez-nous : développement d’applications d’entreprise dans le cloud

Dans cette vidéo, Dr Peter Haumer explique à quoi ressemble actuellement le développement d’applications d’entreprise modernes dans le cloud hybride en présentant divers composants et différentes pratiques, notamment IBM Z Open Editor, IBM Wazi et Zowe. 

Fonctions et responsabilités de la passerelle d’API

Les passerelles d’API aident les organisations à fournir une expérience cohérente, sécurisée et efficace aux utilisateurs d’API. Les principales fonctions et responsabilités sont les suivantes :

Requêtes, routage et composition

Agissant comme un point de terminaison d’API unifié, la passerelle reçoit les appels entrants, les authentifie, les traite en fonction des politiques de l’entreprise et les achemine vers les services backend appropriés. Ensuite, la passerelle agrège et renvoie les résultats au client d’API (souvent une application ou un site Web accessible à l’utilisateur) sous forme composite.

Ce processus permet aux utilisateurs d’accéder à plusieurs ressources avec un seul appel d’API, et de recevoir une réponse cohérente. Dans certaines configurations, la passerelle fonctionne parallèlement à une couche d’orchestration des workflows capable de coordonner les tâches automatisées multi-étapes pour rationaliser les fonctions métier.

Gestion des API

La gestion des API est le processus évolutif de création, de publication et de gestion des API au sein de l’entreprise. Selon la société multicloud f5, les entreprises modernes gèrent souvent des milliers (PDF) d’API simultanément, ce qui fait de la visibilité, du contrôle et de la gouvernance un défi permanent.

Les passerelles d’API réduisent cette complexité en centralisant les tâches de gestion telles que le routage des requêtes, la gestion des versions, l’équilibrage de charge et la gestion du trafic. Elles améliorent également l’observabilité des API en générant des journaux d’appels d’API et en les intégrant à des outils d’analyse, ce qui permet aux équipes d’avoir des informations plus approfondies sur les modèles d’utilisation et la performance des API.

Sécurité

La sécurité des API désigne les pratiques et procédures qui protègent les API contre les abus, les attaques malveillantes et les cybermenaces. Les passerelles d’API aident à appliquer les protocoles de sécurité des API en gérant l’authentification, l’autorisation et d’autres contrôles d’autorisation et d’accès.

Elles utilisent des protocoles de chiffrement comme TLS (Transport Layer Security) et OAuth (open authorization) pour sécuriser les réseaux et les les connexions. Limiter le débit, c’est-à-dire autoriser un certain nombre de requêtes par utilisateur, peut vous protéger contre les attaques par déni de service distribué (DDoS). Enfin, la passerelle d’API assure la gouvernance et la surveillance de chaque API dont elle a la charge, ce qui protège contre les désalignements, les API fantômes et d’autres vulnérabilités.

Surveillance et journalisation

Les passerelles d’API peuvent surveiller et enregistrer les événements qui ont lieu au sein des API (requêtes, réponse et erreurs). Les entreprises utilisent ces données analytiques pour mieux comprendre le trafic et la performance des API, améliorer le dépannage et renforcer la sécurité.

Les journaux et les indicateurs améliorent la visibilité, aidant les équipes à identifier rapidement les erreurs et les menaces, et fournissent également un contexte expliquant pourquoi et comment les erreurs surviennent. Cela contribue à la santé du système à long terme.

Optimisation des performances

Les passerelles d’API peuvent renforcer l’efficacité des entreprises en améliorant la performance et la disponibilité des services backend, et en favorisant une expérience utilisateur plus fiable et plus dynamique. 

La compression permet à la passerelle de transformer les réponses volumineuses en fichiers plus petits, réduisant ainsi la consommation de bande passante et le délai de chargement. La mise en cache permet aux entreprises de stocker localement les données couramment référencées pour améliorer la performance tout en minimisant les coûts et la charge du serveur.

Enfin, si les entreprises mettent souvent en œuvre une limitation du débit pour des raisons de sécurité, cette tactique favorise également la stabilité. Cela permet d’éviter que les serveurs ne soient submergés et de garantir que l’accès aux API est réparti équitablement.

Comment les passerelles d’API s’intègrent dans les architectures et les déploiements modernes

Bien qu’elles partagent des fonctions de base, les déploiements de passerelles d’API peuvent varier en fonction de l’architecture et de la mise en œuvre. Les cadres courants comprennent :

Microservices

Une architecture de type microservices est une approche du développement logiciel qui décompose les applications en parties plus petites et indépendantes. Chaque microservice est responsable d’une seule fonction et peut être déployé et mis à l’échelle de manière autonome. En même temps, les services peuvent facilement communiquer par le biais d’API et servent de blocs modulaires pour construire des programmes plus amples. Près des trois quarts des entreprises utilisent des microservices, et 23 % prévoient de mettre en œuvre ce cadre à l’avenir, selon un rapport Gartner de 2023.

Dans un environnement de microservices, les passerelles d’API gèrent souvent le trafic nord-sud, en acheminant les appels d’API des clients externes vers le service backend approprié. Elles fonctionnent souvent ensemble avec des maillages de services, qui gèrent principalement le trafic est-ouest, ou les communications entre les services au sein de l’environnement du microservice.

Il existe quelques exceptions : une passerelle d’API peut être configurée pour acheminer le trafic interne, en particulier dans les environnements modernes. Mais la passerelle a tendance à se trouver dans une couche architecturale distincte, tandis que les maillages de service sont déployés à côté de chaque service ou intégrés à chaque service pour faciliter et gérer les connexions internes.  

Dans les environnements de microservices, la passerelle d’API joue un rôle clé en permettant aux entreprises de renvoyer les ressources demandées via un seul appel d’API. Par exemple, une entreprise de commerce électronique peut proposer des services distincts pour les informations sur les produits, les prix et les stocks. Avec une passerelle d’API, les applications peuvent récupérer des informations ou accéder aux fonctions de chaque service via une seule requête. Ce workflow rationalisé est particulièrement utile dans un contexte où les environnements de microservices deviennent de plus en plus complexes, puisque les entreprises y ajoutent de nouveaux services et de nouvelles API au fil du temps.

Kubernetes

Kubernetes est un système d’orchestration open source qui aide les entreprises à déployer, à faire évoluer et à gérer des services dans les environnements conteneurisés, où les applications sont empaquetées sous forme de conteneurs légers, intégrés à leurs dépendances. Kubernetes est fréquemment utilisé dans les architectures de type microservices, bien qu’il puisse également prendre en charge les architectures monolithiques, sans serveur et d’autres cadres. La plateforme d’orchestration joue un rôle essentiel dans l’infrastructure cloud moderne, en permettant aux développeurs de créer des applications une seule fois, et de les déployer là où ils souhaitent.

Les passerelles d’API peuvent interagir avec un cluster Kubernetes conteneurisé de plusieurs manières :

  • Lorsqu’elle est déployée devant plusieurs clusters Kubernetes, la passerelle d’API peut s’intégrer à un équilibreur de charge pour diriger le trafic vers le bon cluster, afin qu’aucune instance ne soit surchargée.
     

  • Lorsqu’elle est déployée à la périphérie d’un cluster Kubernetes, une passerelle d’API peut servir de contrôleur d’entrée. Les contrôleurs d’entrée dirigent le trafic vers un cluster Kubernetes, vers les services demandés, puis le trafic revient vers l’entrée.
     

  • Lorsqu’elle est déployée dans un cluster Kubernetes, la passerelle d’API peut compléter un maillage de services, qui gère la communication entre les services conteneurisés internes. Cette intégration améliore l’équilibrage de charge, la découverte des services, le routage du trafic et le chiffrement de bout en bout.

Sans serveur

Avec un modèle sans serveur, les développeurs n’interagissent pas directement avec les serveurs qui alimentent leurs applications. Ce sont les fournisseurs de cloud qui se chargent du provisionnement et de la gestion des serveurs, pour que les développeurs puissent se concentrer uniquement sur l’écriture et le déploiement du code.

Dans un contexte sans serveur, les passerelles d’API fonctionnent comme les passerelles d’un environnement de microservices, mais au lieu de récupérer des données à partir de services de longue durée, elles déclenchent des événements (instructions qui initient des actions particulières) selon les requêtes des clients. Cette approche permet de s’assurer que les applications ne s’exécutent que lorsque cela est nécessaire, ce qui améliore la sécurité et l’efficacité.

Un modèle de déploiement sans serveur peut être utilisé pour implémenter une architecture de microservices, créant une sorte d’infrastructure hybride, où chaque service fonctionne comme un déploiement sans serveur (et non comme un déploiement conteneurisé ou de machine virtuelle). Une telle configuration permet de réduire les coûts et d’améliorer l’évolutivité, en particulier pour les workloads variables.

En quoi les passerelles d’API diffèrent-elles des autres composants de la gestion des API ?

Toutes les implémentations de gestion des API ne se ressemblent pas. Les composants peuvent différer en fonction de la complexité du système, de l’approche architecturale et du cas d’utilisation prévu, bien que les distinctions ne soient pas toujours claires, certains composants partageant des rôles et des fonctions qui se recoupent.

Passerelle d’API et contrôleur d’entrée

Un contrôleur Ingress est un composant logiciel natif de Kubernetes qui agit comme un proxy inverse, acheminant le trafic HTTP (ou HTTPS) externe vers les services au sein d’un cluster Kubernetes selon un ensemble de règles d’entrée. Les contrôleurs Ingress disposent souvent de capacités d’équilibrage de charge qui dirigent intelligemment le trafic vers différents services, afin d’assurer la stabilité du réseau. Ils peuvent également ajuster dynamiquement leur comportement de routage pour s’adapter aux nouveaux déploiements et aux modifications de configuration.

Bien que les contrôleurs Ingress de Kubernetes remplissent certaines fonctions identiques à celles des passerelles d’API, le rôle de ces dernières est généralement plus large, intégrant des capacités de gestion plus avancées telles que l’audit, la journalisation, le contrôle d’accès et la sécurité. De plus, les passerelles d’API peuvent prendre en charge diverses configurations, tandis que les contrôleurs Ingress sont spécifiques aux environnements Kubernetes.

Passerelle d’API et maillage de services

Un maillage de services est une couche d’infrastructure qui facilite la communication entre les services internes, leur permettant de partager efficacement des données et des fonctions. Alors que le plan de contrôle (qui définit les configurations et les politiques) est centralisé, le plan de données est distribué sur chaque service via des proxys sidecar légers.

Ces proxys, qui se trouvent à côté de chaque instance de service, exécutent les politiques du plan de contrôle, notamment la sécurité, l’enregistrement, le routage et le chiffrement. En revanche, les passerelles d’API se trouvent généralement en périphérie du réseau, dans une couche architecturale distincte du client et des API qu’elles gèrent.

Si le maillage de services aide les services internes à échanger des données et des informations, il a tout de même besoin d’interagir avec le trafic externe. Dans ce cas, un composant spécial appelé passerelle Ingress agit comme point d’entrée du maillage et gère le routage du trafic externe tout en maintenant les politiques de sécurité et de performance. Les passerelles d’API et les maillages de services sont souvent utilisés conjointement : la passerelle d’API gère les interactions avec le public, et les maillages de services facilitent la connexion des services.

Avantages de la passerelle d’API

Plus un environnement d’API est complexe et plus le trafic reçu par les API est important, plus une passerelle d’API peut apporter de la valeur. Au-delà du routage du trafic vers les services de backend, les passerelles d’API peuvent également :

Réduire la latence

Les passerelles d’API optimisent l’acheminement du trafic afin de réduire la latence et d’améliorer l'expérience utilisateur. La limitation du débit restreint le nombre de requêtes qu’un client peut effectuer et bloque les requêtes excessives. La limitation des requêtes gère les pics de trafic en ralentissant, en retardant ou en mettant les requêtes en file d’attente. L’équilibrage de charge permet également aux entreprises de déterminer l’état des serveurs en s’appuyant sur des indicateurs en temps réel et d’ajuster les chemins de routage en conséquence.

Ensemble, ces stratégies protègent les services backend contre la surcharge et la compromission, minimisent les temps de réponse et favorisent un service plus rapide et plus fiable.

Accélérer l’évolutivité et l’innovation

Les passerelles d’API aident à équilibrer le trafic API et les workloads à mesure que l’organisation évolue. Les passerelles peuvent s’intégrer aux systèmes d’automatisation pour ajouter ou supprimer des instances en temps réel en fonction de la demande du trafic, ce qui permet aux développeurs de se concentrer sur la logique métier et le développement d’API plutôt que sur l’administration.

Les passerelles d’API peuvent également renforcer et accélérer les déploiements DevOps en définissant et en appliquant des politiques de sécurité et de distribution du trafic cohérentes. Parce que les passerelles réduisent la complexité technique et favorisent l’interopérabilité et l’intégration, elles permettent aux développeurs de se concentrer sur la création de nouvelles fonctionnalités uniques, au lieu d’avoir à reconstruire constamment des fonctions courantes comme le contrôle du trafic ou la traduction des protocoles.

Enfin, comme les passerelles sont capables de gérer efficacement plusieurs versions d’une API, les développeurs peuvent tester plusieurs itérations avant le déploiement, ou conserver une instance de l’ancienne version d’une API pour un cas d’utilisation spécifique.

Rationaliser les workflows

Bien que les API aient des responsabilités et des rôles distincts, elles partagent souvent des workflows communs.

Par exemple, de nombreux appels d’API sont soumis à un processus d’autorisation et de validation identique afin de respecter les protocoles de sécurité. Chaque API peut être soumise aux mêmes politiques de journalisation et de surveillance, qui sont utilisées pour obtenir des informations sur le taux d’utilisation et le trafic. Enfin, si les API sont monétisées, chaque appel peut devoir être acheminé vers un service de facturation. Une passerelle d’API peut automatiser et orchestrer ces tâches, favorisant ainsi la fluidité des workflows et la cohérence à l’échelle du système.

Les passerelles d’API prennent également en charge la terminaison SSL (Secure Sockets Layer), une méthode utilisée pour déchiffrer les données sensibles, telles que les mots de passe et les numéros de carte de crédit, au niveau de la passerelle, déchargeant ainsi cette tâche exigeante en performances des API individuelles. Enfin, lorsque plusieurs itérations d’une application sont déployées sur le même serveur, les passerelles d’API peuvent facilement diriger le trafic vers la version appropriée en lisant les en-têtes, les chemins d’URL et les paramètres de requête.

Renforcer la sécurité

Les API jouant un rôle essentiel dans l’infrastructure informatique moderne, elles sont souvent exposées au risque de cyberattaques, notamment les attaques DDoS, l’altération des paramètres, les attaques par injection et d’autres menaces. Les passerelles d’API peuvent contribuer à la protection contre ces menaces grâce à la limitation du débit, à l’authentification API, à l’autorisation des requêtes et à d’autres techniques.

Les passerelles d’API sont souvent dotées de fonctionnalités intégrées de gestion des identités et des accès (IAM), qui permettent de savoir qui tente d’interagir avec quels services. Elles peuvent également surveiller l’utilisation de l’API, enregistrer le trafic et analyser les indicateurs pour identifier les comportements suspects ou les vulnérabilités avant qu’une attaque ne se produise. Enfin, les passerelles d’API peuvent être utilisées conjointement avec des outils tels que les pare-feux d’application Web (WAF), qui surveillent, filtrent et bloquent le trafic HTTP malveillant.

Réduire la complexité

Les passerelles d’API peuvent unifier les services utilisant différents formats de données et les API avec une architecture ou des protocoles différents comme API REST (representational state transfer), SOAP, gRPC et WebSocket.

Sans passerelle d’API, les différents formats et protocoles peuvent entraîner des problèmes de communication entre les clients et les services backend. Les passerelles atténuent ce problème en effectuant la conversion des données et des protocoles, en transformant automatiquement les requêtes et les réponses en formats compatibles à la fois pour les clients et les serveurs.

Les entreprises peuvent également synchroniser la documentation et les clés d’accès entre les passerelles d’API et le portail de développement (le référentiel central où les développeurs peuvent découvrir et implémenter de nouvelles API) afin que l’environnement de développement reflète avec précision les derniers déploiements et mises à jour des API.

Étendre les applications héritées

Les applications héritées peuvent constituer un obstacle au progrès, en particulier lorsqu’elles sont incompatibles avec les environnements modernes et les implémentations d'API. Cependant, il est souvent judicieux de préserver les applications héritées, car elles contiennent des données et des fonctions essentielles, qui ne peuvent pas être facilement remplacées.

Les passerelles d’API aident les entreprises à intégrer, à réutiliser et à adapter leurs applications existantes dans les environnements cloud modernes, au lieu de les abandonner ou de les reconstruire entièrement. Les capacités de conversion de la passerelle permet aux entreprises de préserver le code et le formatage d’origine de l’application héritée, même lorsque le reste de l’entreprise a migré vers des systèmes plus récents.

Le découplage, qui consiste à décomposer les services en plusieurs parties, permet aux passerelles d’API d’appliquer la limitation de débit, la régulation et d’autres pratiques aux applications héritées afin de moderniser leurs fonctionnalités et de prolonger leur cycle de vie. Cette stratégie permet également aux entreprises de maintenir les services en ligne tout en les mettant à jour en coulisses.

Surveiller et suivre l’analytique des applications

En tant que centre de contrôle du trafic entrant de l’application, les passerelles d’API fournissent une vue complète de l’utilisation et de la performance des API. Les graphiques et les tableaux de bord personnalisés permettent aux entreprises de visualiser les schémas trafic, le débit, les temps de réponse et d’autres indicateurs. Les notifications alertent les équipes des erreurs et violations potentielles avant qu’elles n’affectent la performance ou la sécurité de l’application.

Défis des passerelles d’API

Si les passerelles d’API peuvent aider à résoudre des problèmes de routage complexes, elles peuvent également en introduire de nouveaux. Voici quelques exemples de défis courants :

Évolutivité



Si les passerelles d’API favorisent l’évolutivité à certains égards, elles peuvent également présenter des défis d’évolutivité qui doivent être résolus. Elles simplifient généralement la communication des API, l’allocation des ressources et les requêtes de routage. Cependant, des configurations erronées et une capacité insuffisante peuvent avoir l’effet inverse, en augmentant le risque de goulot d’étranglement (après tout, une passerelle d’API constitue un point d’entrée unique) et en ajoutant des contraintes supplémentaires au système.

Une conception minutieuse de l’architecture, qui tient compte des possibilités de mise à l’échelle horizontale (utilisation de plusieurs passerelles), des stratégies d’équilibrage de charge, des politiques d’auto-scaling automatique et des capacités de surveillance, permet d’éviter les problèmes d’évolutivité. 

Complexité architecturale

Comme pour l’évolutivité, l’effet d’une passerelle sur la complexité informatique est nuancé. Une passerelle élimine, en effet, une partie de la complexité informatique grâce à une gestion et à une application des politiques uniformes, ainsi qu’à la traduction automatique des données et des protocoles.

Cependant, les passerelles d’API introduisent une couche supplémentaire dans l’écosystème d’API de l’entreprise, ce qui nécessite davantage de maintenance, de calcul et d’expertise. Les développeurs pourraient avoir plus de difficultés à tester les nouveaux déploiements, car les passerelles d’API peuvent être difficiles à recréer dans un environnement virtuel. Cette limitation empêche les équipes de connaître à l’avance l’impact des déploiements sur le système.

Une pratique DevOps appelée infrastructure en tant que code (IaC) aide à relever ces défis en utilisant des fichiers de configuration pour automatiser la gestion et la standardisation de l’infrastructure. Cette approche simplifie la maintenance et le provisionnement, aidant les équipes informatiques à maximiser l’efficacité des passerelles d’API tout en réduisant la complexité architecturale.

Point de défaillance unique

Les passerelles d’API agissant comme un point d’entrée unique, elles peuvent devenir un vecteur potentiel de cyberattaques ou d’infiltrations. Les menaces et les erreurs ont également plus de chances de se répercuter sur plusieurs services back-end, ce qui risque d’interrompre le trafic d’API et de nuire à des applications par ailleurs saines.

Pour réduire ce risque, les entreprises peuvent maintenir plusieurs instances de passerelle dans différents environnements et zones de disponibilité, ce qui permet de s’assurer que si l’une d’entre elles est hors service, une autre peut temporairement la remplacer. De même, les entreprises peuvent utiliser différents types de passerelles, y compris les passerelles edge, pour répartir les responsabilités de routage et de gestion entre plusieurs points d’entrée.

Dépendance de la passerelle

Une fois qu’une organisation a choisi la passerelle d’API qui répond à ses besoins et a créé son environnement API autour de cette passerelle d’API, il peut être à la fois coûteux et chronophage de changer de fournisseur. Dans certains cas, une organisation peut choisir d’autohéberger une passerelle open source plutôt que d’utiliser un service géré, le but étant d’avoir un contrôle plus précis sur les configurations. Toutefois, si une organisation choisit une option autohébergée, cette approche peut se révéler plus coûteuse pour l’équipe de développement.

Auteurs

Nick Gallagher

Staff Writer, Automation & ITOps

IBM Think

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

Gita Jackson

Staff Writer

Solutions connexes
IBM API Connect

Développez, gérez, sécurisez et socialisez tous les types d’interface de programmation des applications (API) de façon fluide, quel que soit leur emplacement.

Explorer API Connect
Solutions d’intégration IBM

Renforcez votre entreprise grâce à une connectivité et à une automatisation transparentes avec un logiciel de plateforme d’intégration.

Découvrir les solutions d’intégration IBM
Services de conseil en cloud

Déverrouillez le potentiel complet du cloud hybride à l'ère de l'IA agentique.

Découvrir les services de conseil sur le cloud
Passez à l’étape suivante

IBM API Connect prend en charge tous les types d’interfaces de programmation des applications (API) modernes tout en renforçant la sécurité et la gouvernance. Les capacités d’IA générative automatisent les tâches manuelles, vous permettant de gagner du temps et de garantir la qualité. 

  1. Explorer IBM API Connect
  2. Découvrir les solutions d’intégration IBM