En perpétuelle croissance, le big data ne cesse de secouer le paysage technologique, et ce n’est pas près de changer. Pour la période 2022-2030, le cabinet Acumen Research and Consulting prévoit un taux de croissance annuel du big data d’environ 12,7 % (lien externe ibm.com). Selon ses prévisions, ce marché évalué à 163,5 milliards de dollars en 2021, devrait atteindre une valeur de 473,6 milliards de dollars en 2030. L’expansion du marché du big data s’accompagne d’un besoin accru de consolidation des données.
L’automatisation des processus manuels liés à la consolidation des données s’est elle aussi fortement développée ces dernières années. Cela se produit dans un contexte où les data scientists se font plutôt rares. On estime que lors des processus de consolidation, les équipes de science des données passent plus de 60 % de leur temps (lien externe à ibm.com) à nettoyer et à traiter les données. Ces processus peuvent et doivent être automatisés (et le seront de plus en plus).
Face au risque persistant et croissant de cyberattaques, dont celles par ransomware, la sécurité des données demeure une priorité absolue. En réponse, les entreprises se tournent vers des options plus sûres telles que les pipelines de données, qui déplacent, stockent et analysent les données.
Un autre concept récemment développé répond au besoin croissant de protéger la vie privée des consommateurs, notamment à la suite d’une série de cyberattaques très médiatisées, qui se sont soldées par la diffusion massive de données sur les consommateurs. Appelé « data clean room », ce nouveau type d’environnement est adopté de plus en plus pour sécuriser les interactions. En effet, ces dernières sont structurées de manière à limiter la quantité d’informations que les entreprises recueillent au sujet des consommateurs.