Qu’est-ce qu’une opération de grand modèle de langage (LLMOps) ?

19 octobre 2023

Que sont les LLMOps ?

LLMOps signifie « Large Language Model Operations » (opérations de grands modèles de langage) et désigne les pratiques et workflows spécialisés qui accélèrent le développement, le déploiement et la gestion des modèles d’IA tout au long de leur cycle de vie. 

Les plateformes LLMOps optimisent la gestion des bibliothèques, réduisant ainsi les coûts d’exploitation et permettant à moins de personnel technique de réaliser des tâches. Ces opérations comprennent le prétraitement des données, l’entraînement de modèles de langage, la surveillance, l’optimisation et le déploiement. À l’instar des opérations de machine learning (MLOps, « Machine Learning Operations »), un LLMOps repose sur une collaboration entre data scientists, ingénieurs DevOps et informaticiens.

Les LLM, comme ChatGPT d’OpenAI utilisant GPT-4, et BERT de Google, représentent une nouvelle catégorie plus avancée de modèles de traitement automatique du langage naturel (NLP) qui peuvent rapidement répondre à des questions en langage naturel, fournir un résumé et suivre des instructions complexes. 

Une plateforme LLMops intègre la science des données et l’ingénierie logicielle dans un environnement collaboratif pour l’exploration des données, le suivi des expériences en temps réel, le prompt engineering et la gestion des modèles et des pipelines. Un LLMops automatise les tâches opérationnelles et de surveillance du cycle de vie du machine learning.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets.

LLMops ou MLOps

Le LLMOps relevant du champ d’application des opérations de machine learning, il peut être négligé ou même appelé « MLOps pour les LLM », mais il doit être considéré séparément, car il est spécifiquement axé sur la rationalisation du développement des LLM. Voici deux façons dont les workflows et les exigences du machine learning (ML) changent spécifiquement avec les LLM.

  • Économies de coûts grâce au réglage des hyperparamètres : en machine learning, le réglage des hyperparamètres vise souvent à améliorer la précision ou d’autres indicateurs. Dans le cas des LLM, le réglage importe puisqu’il permet de réduire les coûts et les besoins en puissance de calcul liés à l’entraînement et à l’inférence. Pour ce faire, il suffit d’ajuster la taille des lots. Les LLM peuvent commencer par un modèle de fondation, puis être optimisés avec de nouvelles données pour permettre des améliorations dans des domaines précis ; c’est pourquoi ils permettent d’obtenir des performances supérieures à moindre coût.

  • Indicateurs de performance : le plus souvent, les indicateurs de performance des modèles de machine learning sont clairement définis et faciles à calculer, y compris la précision, l’AUC (aire sous la courbe) et le score F1. Toutefois, lors de l’évaluation des LLM, un ensemble différent de repères et de notations standard est nécessaire. Il peut notamment s’agir d’un indicateur d’évaluation de la qualité d’une traduction automatique (BLEU, « Bilingual Evaluation Understudy ») ou d’un indicateur d’évaluation de la qualité des résumés de texte (ROUGE, « Recall-Oriented Understudy for Gisting Evaluation »). Ils doivent également être pris en compte lors de l’implémentation.

Les LLMOps peuvent également fournir ce que l’on considère comme des fonctionnalités typiques des MLOps :

  • Gestion des données
  • Processus de déploiement
  • Test et entraînement des modèles
  • Surveillance et observabilité
  • Assistance en matière de sécurité et de conformité
AI Academy

Pourquoi les modèles de fondation constituent-ils un changement de paradigme pour l’IA ?

Découvrez une nouvelle catégorie de modèles IA flexibles et réutilisables, capables de générer de nouveaux revenus, de réduire les coûts et d’augmenter la productivité. Utilisez ensuite notre guide pour obtenir plus d’informations.

Cas d’utilisation

Les LLMOps peuvent renforcer l’efficacité d’une grande variété de tâches, notamment :

  • la création de bases de données vectorielles pour récupérer des informations contextuelles adéquates ;

  • l’intégration et le déploiement continus (CI/CD), où les pipelines CI/CD automatisent le processus de développement des modèles et rationalisent les tests et le déploiement. Des outils comme Jenkins GitLab CI/CD et GitHub Actions aident à gérer ces pipelines, garantissant ainsi un workflow fluide et efficace. Résultat, les mises à jour et les annulations des modèles sont simplifiées, minimisant ainsi les perturbations pour les utilisateurs. La gestion des versions et l’intégration de pratiques de test approfondies participent également à la détection de problèmes à un stade précoce, garantissant que seuls les modèles performants sont déployés ;

  • la collecte de données, la préparation et le prompt engineering, provenant d’une quantité suffisante de sources, de domaines et de langages ;

  • l’étiquetage et l’annotation des données avec intervention humaine pour fournir un jugement complexe et spécifique au domaine ;

  • le stockage, l’organisation et la gestion des versions des données avec des bases de données et des solutions de stockage adaptées pour faciliter le stockage, la récupération et la manipulation des données tout au long du cycle de vie du LLM ;

  • l’analyse exploratoire des données (EDA) pour découvrir, préparer et partager des données spécifiques pour le cycle de vie des modèles de machine learning lorsque vous créez des ensembles de données, des tables et des visualisations modifiables et partageables ;

  • la modification précise des modèles à des fins d’optimisation, pour des tâches ou des domaines spécifiques ;

  • l’inférence et la mise à disposition du modèle permettent de gérer les spécificités de production des tests et de l’assurance qualité, comme la fréquence d’actualisation du modèle et les délais de demande d’inférence. Activez les points de terminaison de votre modèle API REST grâce à l’accélération GPU ;

  • l’examen et la gouvernance du modèle pour suivre les versions du modèle et du pipeline et gérer l’ensemble de leur cycle de vie. Cette tâche favorise la collaboration entre les modèles de machine learning à l’aide d’une plateforme MLOps open source comme MLflow ;

  • La surveillance des modèles, y compris les commentaires humains sur vos applications LLM. Identifiez les attaques malveillantes potentielles, modélisez la dérive et identifiez les points à améliorer.

  • l’analyse des prompts, la journalisation et les tests ;

  • le prompt engineering, avec des outils pour permettre l’apprentissage en contexte plutôt que l’optimisation à l’aide de données sensibles ;
  • L’exécution de prompts pour optimiser le modèle.

  • La création de texte et de sorties pour une gamme de fonctions. Les LLM peuvent générer du code, notamment des scripts et des automatisations en lien avec le fonctionnement de l’infrastructure. Ils créent du texte, par exemple pour documenter du code ou les processus, et traduisent les langues.

Avantages

Les principaux avantages du LLMOps peuvent être classés en trois grandes catégories : efficacité, réduction des risques et évolutivité.

Efficacité

Un LLMOps permet à vos équipes d’en faire plus avec moins et ce, de différentes manières, à commencer par la collaboration. Les efforts peuvent être rationalisés lorsque les data scientists, les ingénieurs ML, les ingénieurs DevOps et les parties prenantes sont en mesure de collaborer plus rapidement sur une plateforme unifiée qui leur permet de communiquer, partager des informations, développer et déployer des modèles, le tout, pour une livraison plus rapide. 

De même, en optimisant l’entraînement des modèles, en sélectionnant des architectures appropriées et en utilisant des techniques comme l’élagage et la quantification des modèles, il est possible de réduire les coûts de calcul. Les LLMOps contribuent à garantir l’accès à des ressources matérielles appropriées, comme les GPU, favorisant ainsi un réglage, un contrôle et une optimisation efficaces de l’utilisation des ressources. En outre, la gestion des données peut être simplifiée lorsque les LLMOps promeuvent des pratiques solides de gestion des données afin de trouver et nettoyer des jeux de données de haute qualité, puis de les employer pour entraîner les modèles.

Pour obtenir des performances optimales, il est possible d’améliorer les hyperparamètres, notamment les taux d’apprentissage et la taille des lots. De même, l’intégration à DataOps peut faciliter le flux de données, de l’ingestion au déploiement du modèle, et permettre une prise de décision fondée sur les données. 

Les boucles d’itération et de retour d’informations peuvent être accélérées en automatisant les tâches répétitives et en intégrant des expériences rapides. Grâce à la gestion des modèles, les LLMops peuvent rationaliser les processus des grands modèles de langage de A à Z, en veillant à ce que les modèles soient créés, entraînés, évalués et déployés de manière optimale. 

La performance du modèle peut être améliorée à l’aide de données d’entraînement de haute qualité et adaptées au domaine. De plus, en surveillant et en mettant constamment à jour les modèles, les LLMOps assurent des performances optimales. Le développement de modèles et de pipelines peut être accéléré afin de fournir des modèles de meilleure qualité et de déployer les LLM en production plus rapidement.

Atténuation des risques

Vous pouvez améliorer la sécurité et la confidentialité en utilisant des LLMOps avancés et professionnels afin de prioriser la protection des données sensibles, évitant ainsi toute vulnérabilité et tout accès non autorisé. La transparence et des réponses plus rapides aux demandes réglementaires contribuent à assurer une meilleure conformité avec les politiques de votre organisation ou de votre secteur.

Évolutivité

Les LLMOps facilitent l’évolutivité et la gestion des données, indispensables lorsque des milliers de modèles doivent être supervisés, contrôlés, gérés et surveillés pour une intégration, une livraison et un déploiement continus. Ils y parviennent en améliorant la latence des modèles pouvant être optimisée afin d’offrir une expérience utilisateur plus réactive.

L’évolutivité peut être simplifiée en surveillant des modèles dans un environnement d’intégration, de livraison et de déploiement continus. Les pipelines LLM peuvent encourager la collaboration, réduire les conflits et accélérer les cycles de publication. La reproductibilité des pipelines LLM peut permettre une collaboration plus étroite entre les équipes chargées des données, réduisant ainsi les conflits avec les équipes DevOps et informatique afin d’accélérer la vitesse de publication. 

Des workloads qui peuvent être gérés facilement, même en cas de fluctuation. Un LLMOps peut gérer de grands volumes de requêtes simultanément, ce qui est particulièrement vital pour les applications d’entreprise.

Bonnes pratiques

Pour faciliter les opérations, voici quelques suggestions à garder à l’esprit.

  • Interaction avec la communauté : collaborez avec la communauté open source pour vous tenir au courant des dernières avancées et des bonnes pratiques. Les changements sont rapides.

  • Gestion des ressources informatiques : l’entraînement d’un LLM implique des calculs approfondis sur de grands jeux de données. Les GPU spécialisés peuvent permettre des opérations plus rapides et accélérer les opérations parallèles aux données.

  • Surveillance et maintenance continues des modèles : les outils de surveillance peuvent détecter une dérive des performances des modèles au fil du temps. L’utilisation de commentaires du monde réel sur les sorties du modèle peut permettre de l’affiner et de le réentraîner.

  • Gestion des données : choisissez un logiciel adapté pour gérer de grands volumes de données afin de garantir une récupération efficace des données tout au long du cycle de vie du LLM. Suivez les modifications et le développement des données grâce au versionnage des données. Protégez les données grâce au chiffrement en transit et aux contrôles d’accès. Automatisez la collecte, le nettoyage et le prétraitement des données pour fournir un flux constant de données de haute qualité. Assurez-vous que les jeux de données sont versionnés afin de permettre des transitions fluides entre les différentes versions des jeux de données.

  • Préparation des données et prompt engineering : transformez, agrégez et dédupliquez les données régulièrement. Assurez-vous que les données sont visibles et partageables entre les équipes chargées des données.

  • Déploiement : pour une rentabilité optimale, adaptez un modèle pré-entraîné à des tâches spécifiques. Des plateformes comme NVIDIA TensorRT et ONNX Runtime offrent des outils d’optimisation de l’apprentissage profond.

  • Reprise après sinistre et redondance : sauvegardez régulièrement les modèles, les données et les configurations en cas de sinistre. Grâce à la redondance, vous pouvez gérer les défaillances du système sans que cela n’affecte la disponibilité des modèles.

  • Développement de modèles éthiques : anticipez, découvrez et corrigez les impartialités dans les données d’entraînement et les sorties du modèle qui peuvent fausser la sortie.

  • Commentaires humains : l’apprentissage par renforcement à partir du feedback humain (RLHF) peut améliorer l’entraînement des LLM. Étant donné que les tâches des LLM sont souvent ouvertes, les commentaires de l’utilisateur final peuvent être essentielles pour permettre d’évaluer les performances du LLM.

  • Chaînes ou pipelines LLM : grâce à des cadres tels que LangChain ou LlamaIndex, vous pouvez lier plusieurs appels LLM ou interactions système externes pour permettre des tâches complexes comme la réponse aux questions des utilisateurs.

  • Affinage des modèles : servez-vous des bibliothèques open source comme DeepSpeed, Hugging Face Transformers, JAX, PyTorch et TensorFlow pour améliorer les performances du modèle. L’optimisation de la latence du modèle est essentielle pour offrir une expérience utilisateur réactive. 

  • Surveillance des modèles : créez des mécanismes de suivi de la provenance des modèles et des pipelines, ainsi que pour les versions, afin de garantir une gestion efficace du cycle de vie des artefacts et des transitions.

  • Entraînement des modèles : optez pour l’entraînement distribué afin de gérer l’énorme quantité de données et de paramètres des LLM. Ajustez régulièrement les modèles à l’aide de nouvelles données pour les mettre à jour et leur faire gagner en efficacité. 

  • Sécurité des modèles : vérifiez souvent les modèles pour détecter les vulnérabilités et effectuez des audits et des tests de sécurité réguliers.

  • Confidentialité et conformité : assurez-vous que les opérations respectent les réglementations comme le RGPD et la loi CCPA par des contrôles de conformité réguliers. Populaires, l’IA et les LLM seront au centre de toutes les attentions.

  • Prompt engineering : les modèles qui suivent des instructions peuvent suivre des prompts et des instructions complexes. La configuration correcte de ces modèles de prompt sera essentielle pour permettre l’obtention de réponses précises et fiables, et réduira le risque d’hallucinations de modèles ou de piratage de prompt.

Solutions connexes
Modèles de fondation

Explorez la bibliothèque de modèles de fondation d’IBM dans le portefeuille watsonx pour déployer l’IA générative dans votre entreprise en toute confiance.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Explorez la bibliothèque de modèles de fondation d’IBM dans le portefeuille IBM watsonx pour déployer l’IA générative dans votre entreprise en toute confiance.

Découvrir watsonx.ai Découvrir les solutions d’IA