Une interface de programmation d’application (API), est un ensemble de règles ou de protocoles qui permet aux applications logicielles d’échanger des données, des caractéristiques et des fonctionnalités. Les API permettent aux entreprises d’utiliser à la fois des services internes et tiers sans avoir à créer des intégrations personnalisées pour chacun. Plus de huit entreprises sur dix ont adopté, dans une certaine mesure, une stratégie orientée API, tandis que 25 % se considèrent comme entièrement orientée API, selon le rapport 2025 de Postman, State of the API.
Les passerelles API jouent un rôle clé dans les environnements IT modernes en rationalisant les interactions API et en aidant les applications clientes à accéder à une grande variété de services (via les API respectives de ces services), y compris les services développés dans différents langages de programmation, hébergés sur diverses plateformes ou déployés dans les environnements cloud, edge et sur site.
Les passerelles API peuvent servir à la fois aux utilisateurs internes qui accèdent à une application propriétaire ou tierce et aux utilisateurs externes, tels que les clients ou les partenaires commerciaux. Dans les systèmes fédérés, les entreprises utilisent plusieurs passerelles pour appliquer différents protocoles et normes de sécurité en fonction du groupe d’API ou du type d’utilisateur.
Les passerelles d’API comportent souvent deux couches architecturales principales :
Le plan de contrôle gère la configuration et la gestion, c’est-à-dire la définition des politiques de sécurité, la connexion et la surveillance des requêtes API et la définition des règles de routage.
Le plan de données achemine les requêtes API en temps réel tout en appliquant les directives de routage, les protocoles de sécurité et les contraintes de données définis par le plan de contrôle.
Une requête de données d’un client à une API est connue sous le nom « appel d’API ». La passerelle d’API reçoit un appel d’API (parfois appelé requête d’API), l’achemine vers un ou plusieurs services back-end, rassemble les données demandées et les livre au client dans un paquet unique et combiné. Sans cela, le client aurait à se connecter directement à plusieurs API pour accéder à chaque service ou source de données pertinent.
Par exemple, un système de santé peut utiliser une passerelle d’API pour aider les patients à se connecter à plusieurs services de back-end via une application. Sur un ordinateur portable ou un téléphone, les patients peuvent consulter leurs dossiers médicaux, prendre des rendez-vous, effectuer des paiements et envoyer des messages. La passerelle d’API agit comme un point d’entrée unique (ou point de terminaison), de sorte que les utilisateurs n’ont pas besoin de passer d’une plateforme à l’autre pour accéder à chaque service. Elle prend également en charge le chiffrement, l’application des autorisations et d’autres mesures de sécurité pour protéger les données sensibles des patients.
Newsletter sectorielle
Restez au fait des tendances les plus étonnantes du secteur dans le domaine de l’IA, de l’automatisation, des données et bien d’autres avec la newsletter Think. Consultez la déclaration de confidentialité d’IBM.
Lire la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
Avant de découvrir comment les passerelles d’API sont implémentées, il est important de comprendre en quoi elles diffèrent des API elles-mêmes. Les API sont des ensembles de règles et de protocoles qui permettent à différentes applications logicielles de communiquer, souvent via les protocoles Web HTTP ou HTTPS. Elles sont comparables aux étages d’un immeuble de bureaux, chaque étage représentant un service spécifique. Pour récupérer les données, le client doit se rendre à l’étage correspondant pour accéder au service.
Une passerelle d’API, quant à elle, est comme la porte d’entrée de l’immeuble de bureaux, c’est-à-dire le point de passage unique que les clients doivent utiliser pour atteindre chaque étage. Dans de nombreuses configurations, la passerelle sert également de portier : elle vérifie les identifiants des visiteurs pour déterminer à quels étages ils sont autorisés à accéder. Et au lieu de laisser les clients découvrir chaque étage par eux-mêmes, elle récupère les informations ou les services demandés en leur nom et les renvoie dans un seul et même package.
Les passerelles d’API aident les organisations à fournir une expérience cohérente, sécurisée et efficace aux utilisateurs d’API. Les principales fonctions et responsabilités sont les suivantes :
Agissant comme un point de terminaison d’API unifié, la passerelle reçoit les appels entrants, les authentifie, les traite en fonction des politiques de l’organisation et les achemine vers les services de back-end appropriés. La passerelle agrège et renvoie ensuite les résultats au client d’API (souvent une application ou un site Web destiné aux utilisateurs) sous forme composite. Ce processus permet aux utilisateurs d’effectuer plusieurs requêtes avec un seul appel d’API et de recevoir une réponse cohérente. Dans certaines configurations, la passerelle fonctionne avec une couche d’orchestration de workflow capable de coordonner des tâches automatisées à plusieurs étapes pour rationaliser les fonctions métier.
La gestion des API est le processus évolutif de création, de publication et de gestion des API au sein d’une entreprise. Selon la société multicloud F5, les entreprises modernes gèrent souvent des milliers d’API simultanément, ce qui fait de la visibilité, du contrôle et de la gouvernance un défi permanent. Les passerelles d’API simplifient cette complexité en centralisant les tâches de gestion telles que le routage des requêtes, la gestion des versions, l’équilibrage des charges et la gestion du trafic. Elles améliorent également l’observabilité des API en générant des journaux d’appels d’API et en s’intégrant aux outils d’analyse, permettant aux équipes de mieux comprendre les modèles d’utilisation des API.
La sécurité des API fait référence aux pratiques et aux procédures qui protègent les API contre les abus, les attaques malveillantes et les menaces de cybersécurité. Les passerelles d’API aident à appliquer les protocoles de sécurité des API en gérant l’authentification, l’autorisation et d’autres contrôles d’autorisation et d’accès. Elles utilisent des protocoles de chiffrement tels que Transport Layer Security (TLS) et Open Authorization (OAuth) pour maintenir la sécurité du réseau et faciliter des connexions sécurisées.
Limiter le débit, c’est-à-dire autoriser un certain nombre de requêtes par utilisateur, peut vous protéger contre les attaques par déni de service distribué (DDoS). Enfin, la passerelle d’API assure la gouvernance et la supervision de chaque API du système, assurant ainsi la protection contre les défauts d’alignement, les API fantômes et autres vulnérabilités de sécurité.
Les passerelles d’API peuvent surveiller et enregistrer les événements qui ont lieu au sein des API (requêtes, réponse et erreurs). Les entreprises exploitent ensuite ces données analytiques pour mieux comprendre le trafic et les performances des API, améliorer le dépannage et renforcer la sécurité. Les journaux et indicateurs améliorent non seulement la visibilité, aidant les équipes à identifier rapidement les erreurs et les menaces de sécurité, mais fournissent également un contexte expliquant comment et pourquoi les erreurs apparaissent, contribuant ainsi à pérenniser la santé du système.
Les passerelles d’API peuvent améliorer l’efficacité au sein d’une entreprise, en permettant aux services backend d’atteindre une haute performance et une haute disponibilité, et de contribuer à une expérience plus fiable et réactive pour les utilisateurs. La compression des réponses permet à la passerelle de transformer des réponses volumineuses en fichiers plus petits, réduisant ainsi la consommation de bande passante et les temps de chargement. La mise en cache permet aux entreprises de stocker localement les données couramment référencées, améliorant ainsi la performance tout en minimisant les coûts et la charge du serveur. Enfin, si les entreprises mettent souvent en œuvre une limitation du débit pour des raisons de sécurité, cette tactique favorise également la stabilité, empêche les serveurs de finir submergés et contribue à garantir une répartition équitable de l’accès aux API.
Bien qu’elles partagent des fonctions de base, les déploiements de passerelles d’API peuvent varier en fonction de l’architecture et de la mise en œuvre. Les cadres courants comprennent :
Une architecture de microservices est une approche haut niveau du développement logiciel qui fractionne les applications en parties plus petites, fonctionnant de façon indépendante. Chaque microservice est responsable d’une seule fonction et peut être déployé et mis à l’échelle de manière autonome. Dans le même temps, les services peuvent facilement communiquer via des API, qui servent de base modulaire pour des programmes plus importants. Près des trois quarts des entreprises utilisent des microservices, et 23 % prévoient de mettre le cadre en œuvre, selon un rapport publié en 2023 par Gartner.
Dans un environnement de microservices, les passerelles d’API gèrent souvent le trafic nord-sud, en acheminant les appels d’API des clients externes vers le service backend approprié. Elles fonctionnent souvent ensemble avec des maillages de services, qui gèrent principalement le trafic est-ouest, ou les communications entre les services au sein de l’environnement du microservice. Il existe quelques exceptions : une passerelle d’API peut être configurée pour acheminer le trafic interne, en particulier dans les environnements modernes. Mais la passerelle a tendance à se trouver dans une couche architecturale distincte, tandis que les maillages de service sont déployés à côté de chaque service ou intégrés à chaque service pour faciliter et gérer les connexions internes.
Dans un environnement de microservices, la passerelle d’API joue un rôle clé en permettant aux entreprises de renvoyer les ressources demandées via un seul appel d’API. Par exemple, une entreprise de commerce électronique peut disposer de services distincts pour les informations sur les produits, la tarification et les stocks. Avec une passerelle d’API, l’entreprise peut récupérer des informations ou accéder aux fonctions de chaque service via une seule requête. Ce workflow ainsi optimisé est particulièrement utile dans la complexité des environnements de microservices, les entreprises ajoutant de nouveaux services et API au fil du temps.
Kubernetes est un système d’orchestration open source qui aide les entreprises à déployer, à mettre à l’échelle et à gérer les services au sein d’environnements conteneurisés, où les applications sont regroupées sous forme de conteneurs légers avec leurs dépendances. Kubernetes est fréquemment utilisé dans les architectures de microservices, bien qu’il puisse également prendre en charge les cadres monolithiques, sans serveur et autres. La plateforme d’orchestration joue un rôle critique dans l’infrastructure cloud moderne, permettant aux développeurs de créer des applications une seule fois et de les déployer n’importe où.
Les passerelles d’API peuvent interagir avec un cluster Kubernetes conteneurisé de plusieurs manières :
Lorsqu’elle est déployée devant plus d’un cluster Kubernetes, une passerelle d’API peut s’intégrer à un équilibreur de charge (elle dirige dans ce cas le trafic vers le cluster approprié afin qu’aucune instance ne finisse en situation de surcharge).
Lorsqu’elle est déployée à la périphérie d’un cluster Kubernetes, une passerelle d’API peut servir de contrôleur d’entrée. Les contrôleurs d’entrée dirigent le trafic vers un cluster Kubernetes, vers les services demandés, puis le trafic revient vers l’entrée.
Lorsqu’elle est déployée dans un cluster, une passerelle d’API peut compléter et fonctionner à côté d’un maillage de services, qui gère la communication entre les services conteneurisés internes. Cette intégration peut améliorer l’équilibrage des charges, la reconnaissance des services, le routage du trafic et le chiffrement de bout en bout.
Dans un modèle sans serveur, les développeurs n’interagissent pas directement avec les serveurs qui alimentent leurs applications. Au lieu de cela, les fournisseurs de cloud sont responsables de la mise à disposition et de la gestion des serveurs, de sorte que les développeurs peuvent se concentrer uniquement sur l’écriture et le déploiement du code.
Dans un contexte sans serveur, les passerelles d’API fonctionnent de la même manière que les passerelles des environnements de microservice. Mais au lieu de récupérer des données à partir de services de longue durée, elles déclenchent des événements (instructions qui initient des actions particulières) en fonction des demandes des clients. Cette approche permet de garantir que les applications ne s’exécutent qu’en cas de besoin, améliorant ainsi la sécurité et l’efficacité.
Les environnements sans serveur et les microservices peuvent être combinés pour former une architecture hybride où chaque service fonctionne comme un déploiement sans serveur (plutôt qu’un déploiement conteneurisé ou de machine virtuelle), ce qui réduit potentiellement les coûts et améliore l’évolutivité, en particulier pour les workloads variables.
Toutes les implémentations de gestion des API ne se ressemblent pas. Les composants peuvent différer en fonction de la complexité du système, de l’approche architecturale et du cas d’utilisation prévu, bien que les distinctions ne soient pas toujours claires, certains composants partageant des rôles et des fonctions qui se recoupent.
Un contrôleur d’entrée est un composant logiciel natif de Kubernetes qui fait office de proxy inverse et achemine le trafic HTTP externe vers les services d’un cluster Kubernetes en fonction d’un ensemble de règles d’entrée. Les contrôleurs d’entrée proposent souvent un équilibrage des charges, qui dirige intelligemment le trafic vers différents services afin d’assurer la stabilité du réseau. Ils peuvent également ajuster de façon dynamique leurs comportements de routage pour s’adapter aux nouveaux déploiements et aux mises à jour de configuration.
Bien que les contrôleurs d’entrée Kubernetes exécutent des fonctions identiques à celle des passerelles d’API, celles-ci ont généralement une portée plus large et intègrent des outils de gestion plus avancés tels que l’audit, l’enregistrement, le contrôle des accès et la sécurité. De plus, bien que les passerelles d’API puissent prendre en charge diverses configurations, les contrôleurs d’entrée sont spécifiques aux environnements Kubernetes.
Un maillage de services est une couche d’infrastructure qui facilite la communication entre les services internes, leur permettant de partager efficacement des données et des fonctions. Alors que le plan de contrôle (qui définit les configurations et les politiques) est centralisé, le plan de données est distribué sur chaque service via des proxys sidecar légers. Ces proxys, qui se trouvent à côté de chaque instance de service, exécutent les politiques du plan de contrôle, notamment la sécurité, l’enregistrement, le routage et le chiffrement. En revanche, les passerelles d’API se trouvent généralement en périphérie du réseau, dans une couche architecturale distincte du client et des API qu’elles gèrent.
Bien que le maillage de services aide les services internes à échanger des données et des informations, ils ont toujours besoin d’un moyen d’interagir avec le trafic externe. Dans ce cas, un composant spécial appelé passerelle d’entrée sert de point d’entrée du maillage, en gérant le routage du trafic externe tout en appliquant les politiques de sécurité et de performance. Les passerelles d’API et le maillage de services sont souvent utilisés conjointement, la passerelle d’API gérant les interactions avec le public et le maillage de services facilitant les connexions entre les services.
Plus un environnement d’API est complexe et plus le trafic reçu par les API est important, plus une passerelle d’API peut apporter de la valeur. Au-delà du routage du trafic vers les services de backend, les passerelles d’API peuvent également :
Les passerelles d’API peuvent optimiser le routage du trafic et ainsi permettre une faible latence et améliorer l’expérience. La limitation du débit plafonne le nombre de requêtes qu’un client peut effectuer et bloque les requêtes excessives. La régulation des requêtes gère les pics de trafic en ralentissant, en retardant ou en plaçant les requêtes en file d’attente. L’équilibrage de charge permet également aux entreprises de déterminer l’état de santé d’un serveur en s’appuyant sur des indicateurs en temps réel et d’ajuster les chemins de routage en conséquence. Ensemble, ces stratégies empêchent la surcharge ou la compromission des services back-end, minimisent les temps de réponse et contribuent à un service plus rapide et plus fiable.
Les passerelles d’API aident à équilibrer le trafic API et les workloads à mesure que l’organisation évolue. Les passerelles peuvent s’intégrer aux systèmes d’automatisation pour ajouter ou supprimer des instances en temps réel en fonction de la demande du trafic, ce qui permet aux développeurs de se concentrer sur la logique métier et le développement d’API plutôt que sur l’administration.
Les passerelles d’API peuvent également accélérer les déploiements DevOps en définissant et en appliquant des politiques de sécurité cohérentes et en provisionnant le trafic sur le réseau. Ce contrôle centralisé donne aux équipes l’autonomie nécessaire pour mettre à l’échelle ou mettre à jour les services de manière indépendante, sans affecter l’écosystème dans son ensemble, ce qui améliore l’allocation des ressources et l’accélération de l’innovation.
Enfin, comme les passerelles sont capables de gérer efficacement plusieurs versions d’une API, les développeurs peuvent tester plusieurs itérations avant le déploiement, ou conserver une instance de l’ancienne version d’une API pour un cas d’utilisation spécifique.
Bien que les API aient des responsabilités et des rôles distincts, elles partagent souvent des workflows communs. Par exemple, de nombreux appels d’API passent par un processus d’autorisation et de validation identique pour se conformer aux protocoles de sécurité. Chaque API peut être soumise aux mêmes politiques d’enregistrement et de surveillance, qui sont utilisées pour obtenir des informations sur les taux d’utilisation et le trafic. Enfin, si les API sont monétisées, chaque appel peut devoir être acheminé vers un service de facturation. Une passerelle d’API peut orchestrer et automatiser chacune de ces tâches afin que les développeurs n’aient pas à les effectuer manuellement lors de chaque appel d’API.
Les passerelles d’API prennent également en charge la terminaison SSL (Secure Sockets Layer), une méthode utilisée pour déchiffrer les données sensibles, telles que les mots de passe et les numéros de carte de crédit, au niveau de la passerelle, déchargeant ainsi cette tâche exigeante en performances des API individuelles. Enfin, lorsque plusieurs itérations d’une application sont déployées sur le même serveur, les passerelles d’API peuvent facilement diriger le trafic vers la version appropriée en lisant les en-têtes, les chemins d’URL et les paramètres de requête.
Les API jouant un rôle essentiel dans l’infrastructure informatique moderne, elles sont souvent exposées au risque de cyberattaques, notamment les attaques DDoS, l’altération des paramètres, les attaques par injection et d’autres menaces. Les passerelles d’API peuvent contribuer à la protection contre ces menaces grâce à la limitation du débit, à l’authentification API, à l’autorisation des requêtes et à d’autres techniques.
Les passerelles d’API disposent souvent de systèmes intégrés de gestion des identités et des accès (IAM), qui permettent de savoir qui tente d’interagir avec quels services. Elles peuvent également surveiller l’utilisation des API, consigner le trafic et analyser les indicateurs afin d’identifier les comportements suspects et les vulnérabilités avant qu’une attaque ne se produise. Enfin, les passerelles d’API peuvent être utilisées avec des outils tels que les pare-feu d’application Web (WAF), qui surveillent, filtrent et bloquent le trafic HTTP malveillant.
Les passerelles d’API prennent en charge les architectures de cloud hybride, ce qui permet aux utilisateurs d’interagir avec des services backend qui utilisent différents protocoles et formats de données, comme Representational State Transfer (API REST), SOAP, gRPC et WebSocket.
Sans passerelle d’API, les API pourraient avoir du mal à transformer manuellement les appels d’API dans un format accessible. Les passerelles atténuent ce problème en effectuant la conversion des données et des protocoles, en transformant automatiquement les requêtes et les réponses dans des formats que les clients et les services peuvent comprendre.
Les entreprises peuvent également synchroniser la documentation et les clés d’accès entre les passerelles d’API et le portail de développement (le référentiel central où les développeurs peuvent découvrir et implémenter de nouvelles API) afin que l’environnement de développement reflète avec précision les derniers déploiements et mises à jour des API.
Les applications héritées peuvent constituer un obstacle au progrès, en particulier lorsqu’elles sont incompatibles avec les implémentations d’API modernes, telles que SaaS ou l’IdO. Cependant, les applications héritées sont souvent dignes d’être préservées, car elles contiennent des données et des fonctions essentielles qui ne peuvent pas être facilement remplacées.
Les passerelles d’API permettent aux entreprises de réutiliser les applications héritées pour les adapter aux paramètres du cloud moderne, plutôt que de les abandonner ou de les reconstruire à partir de zéro. Les capacités de conversion des passerelles permettent aux entreprises de préserver le code et le formatage d’une application héritée, même lorsque le reste de l’entreprise a migré vers des systèmes plus récents.
Le découplage, qui consiste à décomposer les services en parties plus petites, permet aux passerelles d’API d’appliquer une limitation de débit, une régulation et d’autres outils aux applications héritées afin de moderniser leur fonctionnalité et de prolonger leur cycle de vie. Cette stratégie permet également aux entreprises de maintenir les services en ligne même lorsqu’elles les mettent à jour en coulisses.
En tant que centre de contrôle du trafic entrant d’une application, les passerelles d’API peuvent fournir une vue complète de l’utilisation des API et de la performance. Des graphiques et des tableaux de bord personnalisés permettent aux entreprises de visualiser les habitudes du trafic, le débit, les temps de réponse et d’autres indicateurs. Les notifications alertent les équipes sur les erreurs et les violations potentielles avant qu’elles n’affectent les performances ou la sécurité des applications.
Si les passerelles d’API peuvent aider à résoudre des problèmes de routage complexes, elles peuvent également en introduire de nouveaux. Voici quelques exemples de défis courants :
Les passerelles d’API permettent généralement de rationaliser la communication avec les API, l’allocation des ressources et le routage des requêtes. Cependant, des erreurs de configuration et une capacité insuffisante peuvent avoir l’effet inverse : augmenter le risque de goulots d’étranglement et surcharger le système. Pour éviter les interruptions et les ralentissements de service, les entreprises peuvent fournir davantage de ressources à mesure qu’elles attirent de nouveaux clients et élargissent leurs offres de services.
Les passerelles d’API introduisent une couche supplémentaire dans l’écosystème d’API d’une entreprise, ce qui nécessite davantage de maintenance, de capacités de calcul et d’expertise. Les développeurs peuvent avoir du mal à tester les nouveaux déploiements, car les passerelles d’API peuvent être difficiles à recréer avec précision dans un environnement virtuel. Cette limitation empêche les équipes de connaître à l’avance l’impact des déploiements sur le système.
Une pratique DevOps appelée infrastructure en tant que code (IaC) peut aider à aborder ces défis en utilisant des fichiers de configuration pour automatiser la gestion et la standardisation de l’infrastructure. Cette approche simplifie la maintenance et le provisionnement, permettant aux équipes informatiques de maximiser l’efficacité de la passerelle d’API tout en réduisant la complexité architecturale.
Les passerelles d’API agissant comme un point d’entrée unique, elles peuvent devenir un vecteur potentiel de cyberattaques ou d’infiltrations. Les menaces et les erreurs ont également plus de chances de se répercuter sur plusieurs services back-end, ce qui risque d’interrompre le trafic d’API et de nuire à des applications par ailleurs saines.
Pour réduire ce risque, les entreprises peuvent gérer plusieurs instances de passerelle dans les différents environnements et zones de disponibilité, afin de s’assurer que si l’une d’entre elles est hors ligne, une autre peut temporairement la remplacer. De même, les entreprises peuvent utiliser différents types de passerelles, y compris les passerelles edge et les maillages de services, pour répartir les responsabilités de routage et de gestion sur plusieurs points d’entrée.
Une fois qu’une organisation a choisi la passerelle d’API qui répond à ses besoins et a créé son environnement API autour de cette passerelle d’API, il peut être à la fois coûteux et chronophage de changer de fournisseur. Dans certains cas, une organisation peut choisir d’autohéberger une passerelle open source plutôt que d’utiliser un service géré, le but étant d’avoir un contrôle plus précis sur les configurations. Toutefois, si une organisation choisit une option autohébergée, cette approche peut se révéler plus coûteuse pour l’équipe de développement.
L’automatisation alimentée par l’IA augmente l’agilité dans les API, les applications, les événements, les fichiers et le B2B/EDI.
Libérez le potentiel de votre entreprise avec les solutions d’intégration IBM qui connectent les applications et les systèmes pour fournir un accès rapide et sécurisé aux données critiques.
Déverrouillez de nouvelles capacités et stimulez l’agilité métier grâce aux services de conseils cloud d’IBM. Découvrez comment co-créer des solutions, accélérer la transformation numérique et optimiser les performances grâce à des stratégies de cloud hybride et à des partenariats d’experts.