Les politiques RBAC permettent de résoudre les vulnérabilités en matière de cybersécurité en appliquant le principe du moindre privilège (PoLP). Selon ce principe, les rôles des utilisateurs n'accordent que le niveau minimal de permissions nécessaires pour accomplir une tâche ou exercer une fonction. Par exemple, un développeur junior pourrait avoir l’autorisation de travailler sur le code source d’une application, mais ne pas pouvoir valider de modifications sans l’approbation d’un superviseur.
En limitant l'accès aux données sensibles, le RBAC aide à prévenir à la fois les pertes de données accidentelles et les violations de données intentionnelles. Plus précisément, le RBAC permet de freiner les mouvements latéraux, c’est-à-dire lorsque des pirates informatiques utilisent un accès initial pour progressivement étendre leur contrôle sur un système.
Selon le X-Force Threat Intelligence Index, l’abus de comptes (où les pirates prennent le contrôle des comptes d’utilisateurs légitimes et utilisent leurs privilèges à des fins malveillantes) est l’un des vecteurs de cyberattaque les plus courants. Le RBAC réduit les dommages qu’un pirate peut causer avec un compte utilisateur en limitant d’emblée les accès de ce compte.
De même, les menaces internes figurent parmi les causes les plus coûteuses des violations de données. D’après le Rapport sur le coût d’une violation de données, les violations dues à des initiés malveillants coûtent en moyenne 4,92 millions de dollars, un montant supérieur au coût moyen global des violations, qui s’élève à 4,44 millions de dollars.
En limitant les permissions des utilisateurs, le RBAC rend plus difficile pour les employés d’abuser de leurs privilèges d’accès, que ce soit de manière intentionnelle ou par négligence.
La restriction minutieuse de l’accès au système deviendra encore plus importante avec l’utilisation accrue de l’intelligence artificielle (IA) avancée. Des problèmes peuvent survenir lorsque les utilisateurs fournissent des informations confidentielles ou sensibles à des outils d’IA générative sans autorisation, et qu’il y a peu de garde-fous en place. Une étude de l’IBM Institute for Business Value a révélé que seulement 24 % des projets d’IA générative comportent actuellement un composant de sécurisation des initiatives.