Annonce : IBM Big Replicate 2.14
Réduire les indisponibilités lors de la réplication de données au sein de divers environnements
IBM Big Replicate est une plateforme logicielle de réplication de données d'entreprise qui assure la cohérence des données dans un environnement distribué, sur site et dans le cloud hybride, y compris les bases de données SQL et NoSQL. Cet outil de réplication des données est optimisé par un moteur de coordination haute performance qui utilise un consensus pour que les données non structurées soient accessibles, précises et cohérentes à différents emplacements. La technologie de réplication des données en temps réel est non invasive. Les opérations de big data passent d'environnements de laboratoire à des environnements de production, sur plusieurs distributions Hadoop, et d'environnements sur site à des environnements cloud, avec des indisponibilités ou perturbations minimales.
Avantages
Prévention des incidents pour pratiquement tout environnement
La reprise après incident et la haute disponibilité via un RTO et un RPO (objectifs de temps/point de reprise) proches de zéro permettent d'assurer la continuité des opérations et la conformité aux SLA des données, dans des environnements cloud sur site et hybrides.
Migration cloud avec indisponibilité minimale
La réplication des données vers le cloud, conçue pour ne causer aucune perturbation, permet aux utilisateurs de continuer à utiliser les données, même lors de migrations à l'échelle du pétaoctet.
Portabilité des données pour éviter l'enfermement propriétaire
Répondez à vos besoins actuels et futurs de réplication de données, que vos données soient utilisées sur site ou dans un modèle de cloud hybride. La portabilité complète des données élimine la dépendance vis-à-vis d’un fournisseur.
Principales fonctionnalités
- Des données hautement disponibles et précises
- Reprise automatique après une panne
- Protection contre la dépendance excessive vis-à-vis d'un fournisseur cloud
- Portabilité complète des données
- Unification des clusters Hadoop pour la consolidation des lacs de données
- Structure de coûts allégée