Déverrouiller le potentiel des entreprises avec l’IA open source et le multicloud hybride

25 mars 2025

8 minutes

Auteurs

Ian Smalley

Senior Editorial Strategist

L’intelligence artificielle (IA) open source est un mot à la mode mis en valeur par le récent lancement de grands modèles de langage (LLM) à faible coût tels que DeepSeek-1 et l’essor de modèles ouverts tels que Llama et Mistral AI.

Ces avancées attirent l’attention du public, mais les entreprises se posent la question suivante : comment transformer cet engouement en valeur commerciale ?

Les technologies open source comme Linux et Kubernetes sont depuis longtemps l’épine dorsale des systèmes critiques, car ils offrent transparence, stabilité et sécurité. Leur nature collaborative favorise une innovation rapide, qui a été vitale pour l’évolution des modèles d’IA avancés, notamment l’IA générative. Cependant, le véritable potentiel commercial réside dans la combinaison de l’IA open source et des environnements multicloud hybrides. Cette puissante association offre aux entreprises les avantages suivants :

  • Intégration transparente
  • Évolutivité flexible
  • Sécurité renforcée
  • Solutions personnalisées
  • Innovation grâce à la collaboration

Une étude d’IBM révèle que 62 % des entreprises prévoient d’augmenter leurs investissements dans l’IA en 2025, avec près de la moitié qui se concentreront sur l’utilisation d’outils open source pour leurs initiatives d’IA.

« Nous concevons une IA pour les multiclouds », explique Shobhit Varshney, vice-président et partenaire senior, responsable de l’IA, des données et de l’automatisation chez IBM. « Cela signifie que nous avons besoin d’une seule couche d’ automatisation, de sécurité FinOps et de gouvernance qui s’étend à tous les clouds. »

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets. 

Intégration transparente avec l’« hybrid by design »

Il est essentiel pour les entreprises d’éviter l’enfermement propriétaire, et l’IA open source s’intègre naturellement à un modèle multicloud hybride. Elle permet aux entreprises d’intégrer des modèles d’IA propriétaires, tels qu’AWS SageMaker ou Google Vertex AI, à des modèles ouverts tels que Granite d’IBM. La série de modèles Granite d’IBM, en open source sous Apache 2.0, a été conçue pour l’intégration dans des environnements multicloud hybrides. Elle offre aux entreprises plus de liberté et de contrôle dans le déploiement et la gestion des modèles IA sur différentes plateformes.

« Tout ce qui vous permet de gérer le modèle dans votre infrastructure fonctionne bien avec l’approche hybrid by design », explique M. Varshnay, « en particulier lorsque les systèmes sont conçus pour fonctionner de manière fluide dans plusieurs environnements de cloud computing et des infrastructures informatiques sur site dès le départ. »

Cette infrastructure hybride garantit que les modèles d’IA peuvent être déplacés librement dans les clouds, et cela permet aux entreprises de choisir l’environnement le mieux adapté à leurs besoins.

Mixture of Experts | 25 avril, épisode 52

Décryptage de l’IA : Tour d’horizon hebdomadaire

Rejoignez notre panel d’ingénieurs, de chercheurs, de chefs de produits et autres spécialistes de premier plan pour connaître l’essentiel de l’actualité et des dernières tendances dans le domaine de l’IA.

Flexibilité à l’échelle

Les modèles d’IA open source offrent une flexibilité inégalée, en particulier lors de la mise à l’échelle et du déploiement de modèles d’IA sur l’infrastructure d’une entreprise. Si les plateformes tierces telles que Claude d’Anthropic ou ChatGPT d’OpenAI sont faciles à déployer, elles enferment souvent les entreprises dans des écosystèmes spécifiques, avec une personnalisation limitée. En revanche, les modèles open source donnent aux organisations un contrôle total, notamment en leur permettant de créer des solutions sur mesure qui répondent aux besoins uniques de l’entreprise.

Cette flexibilité est essentielle pour les entreprises dont les opérations sont réparties dans plusieurs environnements cloud. Par exemple, une entreprise qui utilise AWS pour le stockage peut souhaiter déployer un modèle de Google ou d’OpenAI. Cependant, les modèles propriétaires s’accompagnent souvent de limitations en matière de compatibilité cloud. Les modèles open source s’intègrent de façon fluide sur diverses plateformes, ce qui permet aux entreprises de choisir le meilleur fournisseur de cloud sans compromettre la cohérence ou la conformité.

Sécurité et contrôle des données améliorés

L’auto-hébergement des modèles d’IA open source garantit que les données sensibles restent dans l’infrastructure informatique sécurisée de l’entreprise, ce qui est essentiel pour les entreprises dont les exigences de confidentialité sont strictes. En évitant les serveurs tiers, les entreprises conservent le contrôle sur leurs données et réduisent les risques liés au traitement externe des données, un avantage appréciable lorsqu’elles sont confrontées à des problèmes de sécurité internationale.

Un autre avantage important des modèles open source pour la sécurité est la possibilité de contrôler l’intégrité des modèles eux-mêmes. Des recherches d’Anthropic ont mis en évidence les risques potentiels de manipulation de code ou de vulnérabilités intégrées dans les modèles d’IA. Les acteurs malveillants peuvent introduire des menaces cachées, y compris avec des fournisseurs de confiance comme Meta ou Google.

Les modèles open source auto-hébergés atténuent ces risques en permettant aux entreprises d’inspecter, de valider et de modifier le code, ce qui garantit plus de transparence et de sécurité.

« Avec l’open source, vous contrôlez votre destin », déclare M. Varshney. « Vous savez ce qui se passe derrière le modèle, comment il est entraîné, et vous l’hébergez dans un environnement en lequel vous avez confiance. »

Personnalisation et adaptation aux besoins spécifiques

Au-delà de la flexibilité, la possibilité d’affiner les modèles d’IA open source change la donne. Le réglage fin permet aux entreprises d’adapter les modèles pour répondre aux exigences propres de leur secteur d’activité, ce qui les rend encore plus utiles. Par exemple, le réglage fin de modèles open source tels que Llama ou Granite dans des secteurs tels que la santé ou les télécommunications aide les entreprises à ajouter des connaissances spécifiques à un domaine et à améliorer la précision et les performances des modèles.

Contrairement aux modèles propriétaires, où le réglage fin nécessite souvent l’envoi de données propriétaires aux serveurs du fournisseur, les modèles open source permettent aux entreprises de garder un contrôle total sur le processus de personnalisation.

M. Varshney explique : « Si l’on prend un petit modèle, comme un modèle Granite, on peut ajouter un module d’adaptation capable de reconnaître et de traiter la terminologie de mon entreprise. Par exemple, la terminologie des soins de santé est différente de celle des télécommunications, ce qui me permet d’affiner le modèle pour mieux comprendre et servir ce domaine spécifique. »

 

Avantage du rapport coût/performance

Le réglage fin des modèles open source sur une infrastructure interne offre des avantages significatifs en matière de performances, en particulier lorsque les modèles plus petits sont finement réglés avec des données propriétaires.

« Si vous effectuez le réglage fin d’un petit modèle avec vos données propriétaires, celui-ci surpassera un modèle plus grand qui n’a bénéficié d’aucun réglage fin », explique M. Varshney. « Le rapport coût-performances crée un avantage, car les modèles plus petits sur lesquels a été effectué un réglage fin sont plus efficaces pour vos cas d’utilisation spécifiques. »

Par exemple, les premiers résultats de validation de concept pour les modèles IBM Granite montrent que la combinaison d’un petit modèle Granite avec des données d’entreprise permet d’obtenir, pour une tâche spécifique, des performances égales ou supérieures aux concurrents de même taille sur des benchmarks clés pour une fraction du coût (3 à 23 fois moins cher que pour les modèles de grande taille).

Cette capacité est particulièrement avantageuse dans les scénarios d’edge computing, où des modèles plus petits et optimisés, comme Granite, permettent un traitement en temps réel sur des appareils qui disposent d’une puissance de calcul limitée, ce qui élimine la nécessité d’une infrastructure cloud.

« On peut installer un petit modèle sur un appareil IdO distant et exploiter des cas d’utilisation qui étaient auparavant hors de portée », ajoute M. Varshney.

Cette approche permet à la fois de réaliser des économies et d’améliorer les capacités, en particulier pour les environnements distants ou dont les ressources sont limitées.

Innovation grâce à la collaboration

La nature collaborative de l’IA open source accélère le rythme d’innovation. Grâce à la contribution d’une communauté mondiale de développeurs, ces modèles évoluent rapidement et restent à la pointe du développement de l’IA Cette innovation rapide est cruciale pour les entreprises qui s’efforcent de conserver un avantage concurrentiel dans l’environnement des technologies assistées par l’IA.

Le projet InstructLab d’IBM, lancé en partenariat avec Red Hat, vise à démocratiser l’accès au réglage fin de l’IA et à rendre ainsi la personnalisation des grands modèles de langage plus abordable et accessible.

M. Varshney note : « La communauté joue un rôle clé dans le renforcement de ces modèles, en les rendant plus robustes ».

La voie est ouverte

La convergence de l’IA open source et du multicloud hybride est la stratégie ultime pour les entreprises qui cherchent à maximiser leurs investissements dans l’IA. En intégrant des modèles open source dans un framework multicloud flexible, les entreprises s’assurent que leurs solutions d’IA sont évolutives, adaptables et optimisées sur n’importe quelle plateforme. Elles procurent ainsi une valeur métier importante.

Une étude d’IBM montre que 51 % des entreprises qui utilisent l’IA open source enregistrent des résultats positifs, ce qui souligne l’impact tangible et mesurable de cette approche. Adopter cette combinaison d’open source et de multicloud hybride est fondamental pour stimuler la croissance dans un avenir alimenté par l’IA.

« L’ouverture est l’avenir de l’IA », déclare M. Varshney.

En adoptant l’IA open source au sein d’une infrastructure multicloud hybride, les entreprises peuvent non seulement garder une longueur d’avance sur les tendances émergentes, mais aussi apporter une valeur durable dans un monde qui repose de plus en plus sur l’IA.

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct