Banque - Finance - Assurance
Finance : les atouts du Quantique
27 juillet 2022
Categorized: Banque - Finance - Assurance | Quantique
Share this post:
Du Classique au Quantique
Le monde de la finance à une propension naturelle pour les technologies. Les données sont la matière première de la finance. L’informatisation des comptes a commencé en 59 chez Bank of America. L’accès aux liquidités par les distributeurs automatiques de billets a révolutionné nos pratiques à la fin des années 60. Les premiers logiciels de gestion sont commercialisés dès 1979.
Cette tendance pour les technologies se manifeste également par le trading et l’utilisation d’algorithmes plus ou moins complexes.
Une période cruciale pour la finance
Aujourd’hui, le rythme s’accélère avec la transformation de ces activités. De nouveaux usages sont attendus, tant en interne qu’en externe. À travers la personnalisation de la relation avec le client, c’est toute une nouvelle approche digitale qu’il faut correctement appréhender.
Le « Core Banking » se tourne vers les nouvelles architectures orientées plateforme. Les Fintechs et les Néo-Banques sont devenues une concurrence sur des niches qui poussent les banques traditionnelles à chercher de nouvelles marges de manœuvres financières.
L’autonomie donnée aux clients pour communiquer avec leur banque, passe par la confiance et la sécurité des services proposés, autour de la data et de l’intelligence artificielle.
Mais au-delà de tous ces changements numériques, le monde de la finance est face à de nouveaux défis pour répondre à certains problèmes. Cette informatique que nous pourrions définir de « classique » va devoir être complétée par l’informatique « quantique ».
La recherche de modèles financiers plus stables, plus prédictifs pour une croissance économique plus durable, sont les enjeux des financiers de demain.
Depuis 2015, IBM a développé plus de 20 ordinateurs quantiques dont un à 127 Qubits et prévoit d’ici 2025 d’atteindre les 4 000 qubits. Il va permettre d’élargir toutes les applications rendues possibles par le quantique.
Pour cela, 3 axes essentiels sont à respecter :
– L’échelle
– La qualité
– La vitesse
Le passage à l’échelle
Afin de passer à l’échelle, nous allons partir du tout dernier processeur Eagle d’une puissance de 127 qubits qui sera augmenté avec Osprey à 433 qubits. Ces composants posent les premières briques dans la conception d’une autre puce encore plus puissante : Condor. Elle dispose d’une puissance de 1 121 qubits et arrivera en 2023.
La recherche de la qualité
Elle est mesurée par le volume quantique (Vq). Il indique la qualité des circuits et la fidélité avec laquelle ces circuits sont implémentés dans le matériel. Cette quête de puissance est une étape intermédiaire pour la création du superordinateur quantique.
L’augmentation de la vitesse
La rapiditié des processeurs quantiques est essentielle pour prendre en charge les algorithmes. Elle permet d’étendre considérablement la portée des systèmes quantiques actuels. Les processeurs de plus en plus performants vont nous permettre de concevoir des circuits quantiques plus longs pour augmenter la vitesse de traitement de l’ordinateur.
Cette vitesse, mesurée en CLOPS (circuit layer operations per second), devrait passer de 2900 à 10 000 opérations par seconde d’ici 2025. Cette unité, introduite par IBM en 2021, permet de mesurer la vitesse à laquelle les processeurs quantiques sont capables d’activer les puces dans un circuit quantique.
À partir du dernier processeur Eagle d’une puissance de 127 qubits couplé au kit de développement Qiskit, rendu open-source par IBM en 2017, ce composant offre déjà aux développeurs la possibilité d’effectuer des calculs quantiques poussés avec des connaissances de base. Qiskit Finance est un framework open-source qui contient des composants d’incertitude pour les problèmes d’actions/titres, des traducteurs Ising pour l’optimisation des portefeuilles et des fournisseurs de données réelles ou aléatoires pour les expériences financières.
Cas clients
Nous travaillons avec des partenaires tel que JP Morgan qui s’intéresse à des méthodologies de modélisations financières dans le pricing et l’analyse de risques. Pour Goldman Sachs, l’approche de l’informatique quantique va leur permettre d’obtenir un avantage et débloquer des gains d’efficacité dans la tarification d’instruments financiers sophistiqués. Wells Fargo de son côté utilise le machine learning pour étudier les séries temporelles afin de prédire les indices boursiers, ou les indices de certains produits financiers.
Le machine Learning est un grand cas d’usage dans le monde de la finance. Les modèles algorithmiques utilisés le plus fréquemment s’appellent les « Generative Adversarial Networks ». Ils servent au traitement des « European Call Options ». Ceux-ci sont des produits financiers achetés à un instant T, qui doivent obligatoirement être revendu à une date définie T+1. Il en est de même pour les « American Call Options » dont la revente, elle, n’est pas définie dans le temps.
Pour l’un comme pour l’autre, la mise en place de modèles financiers, d’optimisations, d’hypothèses est donc nécessaire afin d’obtenir un gain économique sur une durée donnée.
Les usages
Voici trois autres cas d’usage actuellement utilisés dans le monde de la finance :
- L’estimation d’amplitude quantique pour remplacer les coûteux algorithmes de Monte Carlo, (algorithmes probabilistes qui utilisent une source de hasard…) afin de fournir des solutions financières aux clients, dans des délais rapides, dans des domaines tels que l’analyse de risques.
- L’espace de caractéristiques quantiques qui peut donner un avantage exponentiel sur les algorithmes classiques, pour la détection des fraudes, l’évaluation du risque de crédit, ou encore la segmentation de la clientèle.
- Les méthodes d’optimisation quantique, telles que celle de Grover, qui peuvent fournir des solutions à des problèmes très difficiles à résoudre de manière classique, comme l’optimisation et la gestion de portefeuille.
Notre objectif, comme l’a précisé Xavier Vasques (CTO et Distinguished Data Scientist chez IBM France) lors de THINK Paris, c’est d’arriver à l’avantage quantique. Le moment où nous aurons cette maturité au niveau du Hardware qui permettra de basculer et de mettre en production l’informatique quantique. Une grosse emphase est faite sur les nouveaux algorithmes et les nouvelles applications, car, dès aujourd’hui, des sociétés y travaillent. Elles se préparent afin d’être prêtes, lorsque cette technologie sera industrialisée. (IBM Research Technology Atlas)
Pour en savoir +, visionnez l’intervention de Xavier Vasques lors de THINK Paris « Accélérer la recherche grâce aux nouvelles technologies » !
Client Engagement leader – IBM Innovation Studio
IBM et AWS intensifient leur partenariat pour proposer à grande échelle une IA générative responsable
Lors de la conférence annuelle « AWS Re:Invent », IBM et AWS annonceront conjointement une étape majeure dans leur collaboration visant à aider les entreprises à adopter une IA responsable. Ensemble, les deux compagnies unissent leurs forces pour permettre à nos clients de tirer parti de la puissance de l’IA générative tout en mettant l’accent sur la […]
L’intelligence artificielle et l’analytique avancée dans le système de santé français (Partie 3)
Ce troisième article de notre série explore l’impact de l’intelligence artificielle (IA) et de l’analyse avancée (AA) sur le système de santé français. L’article précédent explorait plusieurs défis urgents : pénuries de ressources, déserts médicaux, inégalités dans l’accès aux soins de santé, augmentation des coûts et évolution des attentes des patients. Ces problèmes sont dus, […]
Les partenaires sont les piliers de la réussite des entreprises en termes d’IA
IBM a annoncé de nouvelles avancées en matière d’IA qui permettent aux entreprises de se transformer plus facilement grâce au choix, à l’ouverture et à la confiance. Le plus marquant est le lancement de nouveaux modèles Granite puissants, qui surpassent ou égalent les performances de modèles de taille similaire des principaux fournisseurs de modèles. Nous […]