Les LLM sont les modèles d’intelligence artificielle au cœur de nombreuses applications métier, telles que les agents IA, la réponse aux questions alimentée par la RAG ou les chatbots de service client avec génération automatisée de texte. Le traitement automatique du langage naturel (NLP) consiste à utiliser des algorithmes de machine learning pour comprendre et générer du langage humain, et les LLM sont un type spécifique de modèle de NLP.
Parmi les LLM les plus notables, on trouve la famille GPT d’OpenAI, comme GPT-4o et GPT-3.5, certains des modèles à l’origine de ChatGPT, ainsi que Claude d’Anthropic, Gemini de Google et Llama 3 de Meta. Tous les LLM sont capables de gérer des tâches complexes, mais les besoins spécifiques d’un projet machine learning peuvent aider à déterminer le LLM qui convient le mieux.
Le choix du bon LLM dépend de plusieurs facteurs, notamment :
- Cas d’utilisation spécifique : le machine learning affecte directement le processus de sélection LLM. Un LLM peut être plus adapté à la compréhension et à la synthèse de documents longs, tandis qu’un autre peut être plus facile à affiner pour des utilisations spécifiques à un domaine.
- Performance : tout comme les autres modèles, les LLM peuvent être comparés les uns aux autres pour évaluer les performances. Les benchmarks de LLM comprennent des indicateurs pour le raisonnement, le codage, les mathématiques, la latence, la compréhension et les connaissances générales. Évaluer les besoins d’un projet par rapport aux performances de référence peut aider à déterminer le meilleur LLM à choisir pour des résultats de haute qualité.
- Source ouverte ou fermée : les modèles open source permettent aux observateurs de surveiller comment le modèle prend ses décisions. Les différents LLM peuvent être sujets aux biais et aux hallucinations de différentes manières : lorsqu’ils génèrent des prédictions qui ne reflètent pas les résultats réels. Lorsque la modération du contenu et la prévention des biais sont primordiales, limiter les choix aux fournisseurs open source peut aider à façonner le processus de sélection du LLM.
- Utilisation et coût des ressources : les LLM sont des modèles gourmands en ressources. De nombreux LLM sont alimentés par des centres de données hyperscale remplis de centaines de milliers de processeur graphique (GPU) ou plus. Les fournisseurs de LLM facturent également différemment les connexions API à leurs modèles. L’évolutivité d’un modèle et de son système de tarification affecte directement la portée du projet.