Les modèles open source d’OpenAI sont disponibles sur IBM watsonx.ai

leadspace ia générative

Auteurs

Armand Ruiz

Vice President, Product Management - AI Platform (watsonx.ai & watsonx.gov)

IBM

Nisarg Patel

Product Manager, watsonx.ai

IBM

OpenAI a rendu deux modèles d’intelligence artificielle accessibles au public, permettant aux développeurs et aux entreprises de les télécharger, de les exécuter et de les personnaliser librement. L’un de ces modèles est désormais hébergé sur le studio de développement watsonx.ai d’IBM.

C’est la première fois qu’OpenAI déplace ce type de déménagement depuis 2019. Au cours des cinq dernières années, l’entreprise s’est presque entièrement concentrée sur l’offre de ses modèles les plus puissants, tels que GPT-4, GPT-4o et ses modèles de raisonnement o3 et o4-mini, via des interfaces étroitement contrôlées. Cette dernière version met deux modèles performants directement entre les mains des utilisateurs, qui peuvent les exécuter localement ou sur leur propre infrastructure sans restrictions en termes d’utilisation commerciale.

Pourquoi utiliser des modèles OpenAI sur watsonx.ai ?

L’un des deux modèles, le plus grand gpt-oss-120b, est mis à disposition aujourd’hui sur la plateforme watsonx.ai d’IBM. IBM a déclaré que le modèle peut être déployé en toute sécurité dans l’infrastructure d’entreprise, personnalisé en utilisant des données internes et intégré dans des workflows concrets dans des secteurs tels que la santé, les services financiers et le support juridique. Le deuxième modèle, gpt-oss-20b, sera également bientôt intégré à la plateforme. Les équipes de développement pourront également tirer parti de ces modèles à partir de watsonx.ai lors de la création d’agents dans watsonx Orchestrate.

IBM watsonx.ai permet aux entreprises de développer, de déployer et de faire évoluer leurs applications d’IA dans une plateforme de développement unifiée. Il offre aux développeurs la flexibilité et le choix de personnaliser un modèle de fondation, d’accéder à une large gamme d’outils préconfigurés, personnalisés et open source, de profiter des principaux cadres et d’utiliser les options de déploiement hybride sur le cloud et sur site, ce qui donne accès à une expérimentation et à une création de valeur plus rapides pour l’entreprise. de personnaliser un modèle de fondation, d’accéder à une large gamme d’outils préconfigurés, personnalisés et open source, de profiter des principaux cadres et d’utiliser les options de déploiement hybride sur le cloud et sur site, ce qui donne accès à une expérimentation et à une création de valeur plus rapides pour l’entreprise. 

La disponibilité de gpt-oss sur watsonx.ai ajoute une autre option à un menu toujours plus étendu de modèles ouverts hébergés sur la plateforme et offrira un plus grand choix aux agents de création d’équipes dans watsonx Orchestrate. En offrant aux utilisateurs un accès à des modèles ouverts de premier plan dans watsonx y compris des modèles tiers tels que Meta et Mistral, mais aussi Granite, propriété d’IBM, l’objectif est de favoriser une culture de collaboration et de flexibilité pour les clients qui déploient l’IA générative.

Pensé pour la flexibilité

Le modèle plus grand, gpt-oss-120b, contient 116,8 milliards de paramètres et utilise une architecture Mixture of Experts (MoE), ce qui signifie que seule une partie du modèle est active à un instant donné. Cette conception lui permet de fonctionner efficacement sur un seul processeur graphique NVIDIA H100, largement utilisé dans les centres de données. Le modèle plus petit, gpt-oss-20b, est optimisé pour les appareils grand public tels que les ordinateurs portables avec 16 Go de mémoire.

Les deux modèles prennent en charge des niveaux de raisonnement réglables (faible, moyen ou élevé), afin que les utilisateurs puissent équilibrer la qualité de la production par rapport au coût et à la vitesse. Les modèles produisent également des chaînes complètes de raisonnement, permettant aux utilisateurs de voir comment une conclusion a été tirée au lieu de recevoir uniquement la réponse finale. Selon OpenAI, cela améliore la transparence et facilite le débogage et la confiance des modèles.

OpenAI a publié des scores de référence montrant que le modèle plus grand était compétitif dans plusieurs tâches de raisonnement et de calcul. Au test de référence MMLU, un test standard de connaissances générales, il a obtenu un score de 90. Das le cas du benchmark scientifique GPQA, il a obtenu un score de 80,1. Au test de mathématiques AIME 2025, il a obtenu un score de 97,9, ce qui suggère de solides capacités en raisonnement symbolique.

Ces modèles n’incluent pas la compréhension des images, de l’audio ou de la vidéo et ne sont pas équipés de filtres de contenu ou de systèmes de modération. Ils ne contiennent que du texte et les utilisateurs sont censés mettre en œuvre leurs propres mesures de protection en fonction de la manière dont les modèles sont déployés. Les utilisateurs peuvent utiliser Granite Guardian conjointement avec gpt-oss pour servir de modèle de garde-fou aidant à détecter les risques dans les invites et les réponses.

Essor de l’open source

La sortie de gpt-oss intervient à un moment où les modèles ouverts prennent de l’ampleur. Elle souligne en outre la stratégie multi-modèles ouverte d’IBM et son engagement à fournir aux développeurs et aux utilisateurs professionnels un accès aux technologies d’IA les plus avancées disponibles. Comme l’outil Granite d’IBM, LLaMA de Meta, Mistral et la famille Qwen d’Alibaba ont tous bénéficié d’une large adoption auprès des développeurs et des chercheurs qui recherchent des outils qui peuvent être audités, améliorés et déployés indépendamment.

Les modèles à pondération ouverte offrent une alternative aux systèmes de boîte noire commerciaux, ce qui permet un examen plus approfondi du comportement des modèles.

Pour OpenAI, la sortie de gpt-oss témoigne d’une volonté de s’engager dans cette dynamique, même si l’entreprise continue de proposer ses systèmes les plus avancés uniquement via des interfaces commerciales. La licence Apache 2.0 offre aux utilisateurs une grande liberté de créer en se basant sur les modèles, sans restrictions sur la redistribution ou l’utilisation dans des applications propriétaires.

« L’avenir est hybride », déclare Bruno Aziza, vice-président d’IBM chargé des données, de l’IA et de la stratégie analytique, dans un récent épisode du podcast Mixture of Experts. « Il n’y aura pas un seul modèle pour les régir tous... ou de modèle uniquement fermé ou ouvert. L’entreprise bénéficiera des deux. »

Commencer dès aujourd'hui

En mettant gpt-oss-120B à disposition dans watsonx.ai, IBM permet aux développeurs, aux data scientists et aux entreprises de :

  • Déployer des modèles ouverts sur leur propre infrastructure avec un contrôle total sur les données et les capacités de calcul
  • Personnaliser et affiner le modèle pour des cas d’utilisation spécialisés, par exemple pour la santé, la finance ou le support client
  • Créer des applications d’IA qui tirent parti des capacités d’utilisation des outils natifs du modèle

Qu’il s’agisse de créer des assistants internes, d’automatiser des workflows ou de découvrir de nouveaux cas d’utilisation pour l’IA générative, gpt-oss-120B sur watsonx.ai offre la flexibilité et la puissance pour tout faire, de manière sécurisée et transparente. 

Découvrez gpt-oss-120B dans watsonx.ai et commencez à créer avec l’un des modèles ouverts les plus performants disponibles sur le marché.