La France compte plus de 5 millions de sourds et malentendants. Une étude menée en 2021 par l’IFOP mettait en avant le manque d’intégration des personnes souffrant de ce handicap au sein de la société. Pour 36% d’entre elles, il faudrait former les entreprises et leurs collaborateurs à la langue de signes.
« La langue des signes est la langue native des personnes sourdes » confirme Didier Chabanol, Directeur Général d’IVèS. « La communication écrite sur les sites ou via les chatbots, n’est pas une solution adaptées pour eux : 80% des sourds ont des difficultés de lecture et d’écriture ».
IBM watsonx
C’est pour relever ce défi de l’intégration, qu’IVèS a imaginé la solution "MotionSign". Ce signbot, en d’autres termes un chatbot spécialisé dans la langue des signes, peut être installé sur un écran géant, une tablette ou le navigateur d’un ordinateur doté d’une caméra. Il est capable de reconnaître les signes de l’utilisateur et d’y répondre grâce à l’intelligence artificielle et un avatar en 3D. Dans le cas d’un échange avec un service client, Motion Sign est ainsi capable de résoudre 90% de problématiques en moins de 10 messages.
« L’idée de MotionSign, remonte à l’arrivée des avatars il y a quelques années », se rappelle Didier Chabanol, « leur apparition dans les jeux vidéo nous a incité à réfléchir à une manière de les utiliser pour la langue des signes… Mais c’est l’irruption de l’intelligence artificielle qui a été le déclic ».
La société IVèS est depuis près de 20 ans spécialisée dans l’accessibilité pour les sourds. Leader européen dans ce domaine, c’est d’abord en tant que prestataire qu’IVèS a croisé le chemin de Sopra Steria. « Cela fait des années que nous équipons les collaborateurs de Sopra Steria d’une plateforme audio-vidéo-texte qui permet aux personnes sourdes d’appeler des interprètes pour les assister, le temps d’une communication » explique Didier Chabanol. « Parce que Sopra Steria a toujours été très en pointe sur ces sujets d’accessibilité, nous leur avons présenté notre idée de signbot ». « Et nous avons immédiatement pris la mesure du potentiel du projet pour ouvrir les chatbots aux sourds et malentendants », enchaîne Patrick Meyer, Architecte IA Groupe chez Sopra Steria, « Sopra Steria ayant une expertise très spécifique dans ce domaine ».
Techniquement, la solution est composée de 3 couches. La première couche est liée à la reconnaissance des signes et à leur rendu en 3D. Elle repose sur l’expertise d’IVèS en langue des signes qui a constitué au fil des années des datasets uniques. « Il n’y a pas une langue des signes universelle » souligne Didier Chabanol, « mais presque une langue des signes par pays. Dans chacune de ces langues, on considère que 3000 signes permettent d’établir un dialogue « commun ». Mais une langue peut compter jusqu’à 10 000 signes, composés de gestes, d’expressions faciales et de mouvements des lèvres ! ». MotionSign intègre aujourd’hui la Langue des Signes Française (LSF), la Langue des Signes Québécoise (LSQ), la Langue des Signes Américaine (ASL) et la Langue des Signes Tunisienne (LST).
La seconde couche est conversationnelle, supportée par le savoir-faire de Sopra Steria au sein de son offre "Sopra Steria Alive Intelligence" (SSAI). Disponible en mode SaaS ou hybride, la solution est déjà utilisée de manière « classique » par de nombreuses organisations pour automatiser les tâches, améliorer l’expertise des utilisateurs, fluidifier les interactions entre les humains et les systèmes d’information. Pour l’analyse des conversations, SSAI repose sur la technologie IBM watson qui constitue la troisième couche de la solution. « Nous travaillons de longue date avec IBM pour plusieurs raison » explique Patrick Meyer, Architecte IA Groupe chez Sopra Steria, « IBM watson reste l’une des meilleures IA conversationnelle au monde. Son mode de licensing est très clair. Et puis IBM offre une véritable transparence sur la localisation de ses datacenters et donc des données ». Une prochaine version de SSAI, appelée nAIxus, mettra en œuvre l’IA générative de watsonx afin d’étendre les fonctionnalités et les performances de MotionSign. Les réponses de l’avatar, aujourd’hui modélisées à l’avance en 3D, pourraient être produites en temps réel grâce à la puissance de l'IA générative.
La solution est aujourd’hui industrialisée. « Nous avons relevé le défi du temps réel : la reconnaissance des signes pour en faire des textes et la reconnaissance des textes pour en faire des signes doit être instantanée. Pour ces raisons, l’IA ne peut être déportée sur le cloud et nous avons dû trouver un moyen de la faire tourner en local, avec des ressources limitées, par exemple sur un navigateur. Nous avons vraiment jeté les bases d’une IA "on the edge" », souligne Didier Chabanol.
Nombre d’entreprises sont aujourd’hui prêtes à franchir le pas de la mise en production. A une époque où l’accessibilité et l’inclusion constituent les piliers de la mission sociétale des entreprises, cette IA facilitatrice a aussi un intérêt commercial, puisqu’elle couvre une cible qui représente près de 10% de la population française. « Cette offre est un exemple remarquable du rôle positif et responsable que peut jouer l’IA » conclut Didier Chabanol, « et elle a pu être créée avec Sopra Steria et IBM parce que ces deux entreprises combinent une véritable avance sur des sujets innovants et une grande maturité en matière d’engagement sociétal ».
IVèS leader européen de la surdité, est à l’origine d’une plateforme dite de conversation totale, permettant l’utilisation simultanée de l’audio, du texte et de la vidéo en temps réel, pour rendre tout type de conversation accessible aux personnes sourdes ou malentendantes.
En 2005, Pascal Dupuy, Didier Chabanol et Emmanuel Buu font le constat suivant : en France, une personne sourde ou malentendante est confrontée à de multiples obstacles lorsqu’il s’agit de communiquer au quotidien. Elle n’a pas accès à l’un des objets les plus banals et utilisés de notre époque : le téléphone. C’est porté par ce désir de changement, qu’IVèS voit le jour.
La solution est aussi simple qu’innovante : la personne sourde ou malentendante lance un appel vidéo vers un interprète en langue des signes, qui relaie l’appel vers le téléphone de la personne entendante. Démarre ainsi une conversation entre la personne sourde et son interlocuteur, avec l’interprète comme intermédiaire.
Depuis, IVèS a grandi et décliné sa solution Elioz, palliant les différents types de surdité, via plusieurs modes de communication. La solution Elioz développée par IVèS est désormais présente dans plus de 10 pays dans le monde.