L’avenir est programmable : comment l’informatique générative pourrait réinventer les logiciels

Mur de serveurs chez IBM Research à Yorktown Heights

L’idée n’est pas née en un clin d’œil. Elle est apparue lentement, à travers les fils de discussion Slack et les conversations dans les couloirs, une refonte silencieuse de la façon dont les machines raisonnent. Quelque part entre le chaos du prompting et les aspirations de l’automatisation, un nouveau concept a pris forme. Il pourrait redéfinir non seulement l’intelligence artificielle, mais aussi les logiciels eux-mêmes.

Le postulat est audacieux : et si nous cessions de traiter les grands modèles de langage comme des chatbots mystérieux pour les traiter comme des infrastructures programmables ? IBM désigne cette discipline émergente sous le nom d’informatique générative ; un terme et un cadre de travail développés par ses chercheurs pour définir une nouvelle approche de travail avec les modèles IA. Il s’agit de repenser la manière dont les modèles IA sont intégrés dans les systèmes, non pas comme des oracles, mais comme des composants contrôlés et modulaires. En cas de succès, cela pourrait marquer un tournant pour le développement de l’IA, la conception de logiciels et les technologies d’entreprise.

David Cox, directeur de la recherche d’IBM, a déclaré à IBM Think, à l’occasion d’un entretien, qu’il avait inventé le terme de l’informatique générative pour décrire le changement qu’il constate dans le développement de l’IA. Ce n’est ni une marque ni un produit. Il s’agit d’un changement, d’un mouvement visant à traiter les grands modèles de langage, non pas comme des interlocuteurs intelligents, mais comme des éléments programmables. Oubliez les tours de magie. C’est de l’ingénierie logicielle.

« Ce n’est pas que les LLM remplacent la programmation, précise-t-il, mais qu’ils deviennent une nouvelle forme de primitive de programmation. »

Aujourd’hui, interagir avec un grand modèle de langage donne souvent l’impression de faire appel à un oracle capricieux. Modifiez légèrement une phrase dans un prompt, et le résultat change de cap. Rédigez un prompt long comme une dissertation, puis espérez, priez, insistez. C’est un art, à la manière dont l’astrologie est un art : insaisissable, interprétatif et parfois profond. Mais pour les banques, les hôpitaux et les gouvernements, le mysticisme n’est pas viable à grande échelle.

« Vous tapez quelque chose et vous obtenez une réponse différente selon la manière dont vous l’avez formulée », a déclaré Ruchir Puri, scientifique en chef d’IBM Research, dans une interview accordée à IBM Think. « C’est comme aux débuts de la recherche en ligne. Nous sommes encore à l’époque où une virgule peut modifier le résultat. On ne peut pas gérer une entreprise de cette façon. »

M. Puri décrit un monde dans lequel les entreprises sont confrontées non seulement à des hallucinations, mais aussi à un manque de fiabilité dans la manière dont les modèles traitent les cas limites. « Nous parlons beaucoup d’hallucinations », a-t-il dit, « mais le plus grave, c’est que les modèles ne garantissent pas d’exécuter correctement les instructions. Vous modifiez un mot dans un prompt, et vous ne savez pas ce que vous obtiendrez. » C’est, selon lui, l’antithèse de l’ingénierie.

Les dernières tendances en matière d’IA, vues par des experts

Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.

Merci ! Vous êtes abonné(e).

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

Du prompting à la programmation

Pour être clair, personne ne rejette la puissance des modèles modernes. Selon M. Cox, ce qui est défaillant, c’est la façon dont nous les utilisons. « Le prompt engineering n’est pas de l’ingénierie. C’est du bricolage. Nous avons besoin d’un système dans lequel nous n’avons pas à espérer que le modèle comprenne ce que nous voulions dire et où nous pouvons le programmer pour faire ce que nous voulons. »

Le principe de base de l’informatique générative est simple : traiter le modèle comme une fonction. Au lieu d’enfouir les instructions dans des essais verbeux, les développeurs utilisent un runtime – une couche d’orchestration qui découpe les prompts en parties atomiques, les achemine, vérifie les conditions et réécrit les étapes échouées. La logique n’est pas simplement implicite ; elle est appliquée. Le contrôle devient explicite. La structure fait son retour.

« Pensez à Internet », a déclaré M. Cox. « On n’envoie pas des données brutes par câble en espérant qu’elles arrivent à destination. Vous avez des protocoles, des réessais et des routages. C’est ce que nous ajoutons à l’IA. » En pratique, cela signifie construire des systèmes en couches qui décomposent les tâches complexes en instructions plus petites et gérables, chacune étant vérifiée avant d’être traitée. « Vous pouvez avoir vingt petits prompts ciblés pour le modèle au lieu d’une seule requête longue et complexe », a déclaré M. Puri. « Mais maintenant, vous pouvez enregistrer chacune d’entre elles. Vous pouvez réessayer. Vous pouvez créer des solutions de repli. C’est ce dont les entreprises ont besoin. »

Cette structure ouvre également la porte aux tests et à la validation, deux principes qui ont été longtemps absents de l’IA générative. « Vous pouvez écrire des assertions autour du comportement des LLM de la même manière que vous le faites pour le code », a déclaré Cox. « Et si vous n’obtenez pas le comportement souhaité, vous pouvez demander au modèle de réessayer ou de passer à une autre sous-routine. »

Cette idée devient particulièrement puissante lorsqu’elle est appliquée à la sécurité. M. Puri explique qu’il entend souvent des directeurs techniques qui apprécient le potentiel des agents IA mais rechignent à leur imprévisibilité. « Ils ont peur de les laisser faire quoi que ce soit par eux-mêmes. Et s’ils hallucinaient ? Et s’ils envoyaient le mauvais message ou approuvaient la mauvaise transaction ? »

Pour répondre à cette question, l’informatique générative introduit des outils tels que la détection des hallucinations, la validation du contexte et le traitement tenant compte de la conformité. « Avec notre environnement d’exécution », explique M. Cox, « vous pouvez interposer un modèle gardien, un modèle qui vérifie la sortie du modèle principal. Si quelque chose semble suspect, il peut le signaler ou demander un autre essai. »

Ce type de superposition permet d’atteindre un niveau de reproductibilité et de confiance que le prompt engineering d’aujourd’hui ne peut pas offrir. Les développeurs peuvent mélanger du code traditionnel avec des réponses de LLM, en intégrant les productions dans des systèmes plus grands sans céder le contrôle.

« Ce n’est pas un chatbot », a déclaré Cox. « Ça fait partie de votre pile logicielle. Vous le testez comme vous testez n’importe quel autre module. »

Un modèle comportemental pour les machines

Ce moment, a déclaré M. Cox, est comparable à des époques antérieures de l’informatique. Dans les années 1980, l’introduction de modèles de conception logicielle, tels que Model-View-Controller (MVC), a permis aux développeurs de séparer la logique de l’interface, créant ainsi une base modulaire et réutilisable pour la création d’applications. Selon lui, l’informatique générative représente un point d’inflexion similaire.

« Nous allons trouver des modèles », a-t-il dit. « Tout comme le MVC est devenu omniprésent dans le développement d’interface utilisateur, nous verrons des frameworks pour orchestrer les LLM. C’est le début d’une nouvelle couche dans la pile logicielle. »

Cette vision de la structure sous-tend une grande partie du mouvement de l’informatique générative. Au lieu d’essayer de comprendre chaque neurone d’un grand modèle de langage, les développeurs créent des barrières adaptées aux contraintes de l’entreprise. « Nous instaurons une véritable responsabilité. », a déclaré M. Puri.

Selon M. Cox, la transparence n’est pas forcément synonyme de simplicité. « Le moteur de votre voiture est compliqué », a-t-il dit. « Mais il est construit dans une enveloppe de sécurité. En cas de panne, vous devez appliquer des procédures. C’est ce que nous voulons pour l’IA. Ce n’est pas un mystère. De l’ingénierie. »

En termes techniques, cela signifie exposer les étapes intermédiaires de la prise de décision d’un modèle. L’exécution utilisée dans l’informatique générative peut générer des journaux, associer des métadonnées et effectuer une validation à chaque étape.

« C’est l’explication en tant que fonctionnalité », ajoute M. Cox. « Pas un ajout après coup. »

Les modèles Granite d’IBM ont déjà été adaptés pour prendre en charge ce type d’orchestration modulaire. Ils sont optimisés pour une inférence rapide et économe en mémoire, permettant de multiplier les petites requêtes à la place d’un seul prompt. Ils sont donc bien adaptés à une approche basée sur l’environnement d’exécution.

« Vous pouvez les voir comme des éléments constitutifs », a déclaré M. Puri. « Au lieu d’essayer de tout faire en une seule fois, nous les appelons plusieurs fois pour des sous-tâches spécifiques. C’est plus rapide, moins cher et plus fiable. »

Les avantages ne sont pas seulement techniques, mais aussi organisationnels. Dans un projet pilote, une entreprise cliente a utilisé l’informatique générative pour construire un pipeline de classification des documents. Au lieu de s’appuyer sur un seul prompt pour résumer un mémoire juridique, ils ont divisé la tâche en neuf étapes : classification, segmentation, extraction, validation, évaluation des risques, résumé, mise en forme, examen et approbation.

« Chaque étape était isolée et surveillée », a déclaré M. Cox. « Si quelque chose échouait, on pouvait réessayer ou corriger le problème. C’était impossible avec un seul prompt. »

Ruchir Puri considère que ce type de structure deviendra la norme. « Nous allons cesser de considérer les LLM comme une solution miracle et commencer à les traiter comme une infrastructure », déclare-t-il. « Il n’est pas question de remplacer les développeurs. Il s’agit de leur donner de nouveaux outils. »

L’un de ces outils, a noté M. Cox, est l’intrinsèque LLM, un nouveau concept où des fonctions spéciales du modèle sont exposées directement au runtime, permettant une intégration plus profonde et une adaptation en temps réel. « Vous pouvez fixer un adaptateur qui modifie le comportement du modèle », a-t-il déclaré. « Cela vous permet de changer de ton, de réduire les risques et même de détecter les hallucinations à la volée. »

Ces avancées pourraient changer la façon dont les logiciels sont écrits. Cox imagine des IDE qui incluent des modèles d’orchestration au runtime pour les LLM, des tests unitaires qui valident les prompts et des systèmes de contrôle de version qui suivent le comportement des modèles.

« Les ingénieurs logiciels devront acquérir de nouvelles compétences », ajoute-t-il. « Mais les fondamentaux restent les mêmes : entrées, sorties, exactitude, observabilité. Nous n’abandonnons pas l’ingénierie logicielle. Nous la modernisons. »

Les chercheurs estiment que l’informatique générative s’étendra au-delà de ses cas d’utilisation actuels. Au fur et à mesure que le domaine mûrit, de nouvelles couches d’abstraction, de nouvelles normes et de nouveaux rôles professionnels apparaîtront.

Il s’arrête un instant. « Nous avons passé dix ans à apprendre comment faire paraître ces systèmes intelligents », a-t-il déclaré. « Maintenant, nous devons leur apprendre à se comporter. »

AI Academy

Du projet pilote à la mise en production : provoquer un ROI avec l’IA générative

Découvrez comment exploiter à l’échelle la puissance des solutions pilotées par l’IA pour réinventer et transformer votre entreprise de façon vraiment significative.

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct