Mettez les charges de travail d'IA à l'échelle, pour toutes vos données, partout.
IBM Analytics Engine fournit aux environnements Apache Spark un service qui dissocie les niveaux de traitement et de stockage pour contrôler les coûts et obtenir des analyses à grande échelle. En lieu et place d’un cluster permanent formé de nœuds à double usage, IBM Analytics Engine permet aux utilisateurs de stocker des données dans une couche de stockage d’objets telle qu’IBM Cloud Object Storage, et lance des clusters de nœuds de traitement le cas échéant. Pour plus de flexibilité et mieux anticiper les coûts, la consommation basée sur l’utilisation est disponible pour les environnements Apache Spark.
Consommer uniquement des instances lorsque des tâches sont en cours d’exécution
Payez uniquement pour ce que vous utilisez
Optimisez vos ressources en séparant le traitement et le stockage
Créez à partir d’une pile compatible ODPi avec des outils de science des données innovants dans l’écosystème élargi d’Apache Spark.
Définissez des clusters en fonction des besoins de votre application. Choisissez le progiciel, la version et la taille du cluster. Utilisez-le aussi longtemps que nécessaire puis supprimez-le dès que l’application a terminé ses tâches.
Configurez des clusters avec des bibliothèques et des packages d’analyse tiers, ainsi que les propres améliorations d’IBM. Déployez des charges de travail à partir de services IBM Cloud tels que le machine learning.
Lancez des clusters de traitement seul, à la demande. Aucune donnée n’étant stockée dans les clusters, ils n’ont pas besoin d’être mis à niveau.
Profitez d’IBM Cloud Object Storage (ou d’autres magasins de données) à la demande sans coûts supplémentaires pour les cycles de traitement non utilisés.
L’ajout et la suppression de nœuds de données en fonction de la demande en direct est possible via des API REST. En outre, les frais généraux restent faibles, car aucune donnée n’est stockée dans le cluster de traitement.
L’utilisation d’une approche multicouche simplifie considérablement l’implémentation de la sécurité de chaque cluster, tout en assurant une gestion d’accès à un niveau plus granulaire.
Les clusters sont lancés pour répondre aux besoins des tâches. Il ne s’agit plus de forcer la conformité des tâches vis-à-vis d’un seul progiciel ou d’une seule version de logiciel. Plusieurs versions différentes de logiciels peuvent être exécutées dans différents clusters.
Si vous travaillez avec Apache Spark mais que vous ne savez pas combien de ressources sont nécessaires, utilisez une instance Spark sans serveur qui consomme uniquement des ressources de traitement lorsqu’une application est exécutée. Payez uniquement pour ce que vous utilisez.
Collectez, organisez et analysez les données sur une plateforme multicloud ouverte pour l’IA et les données.
Reconnaissance intelligente de données et d’actifs d’analyse, catalogage et gouvernance pour alimenter les applications d’IA
Obtenez le service combiné qui fournit un environnement pour le développement et le déploiement d’applications analytiques avancées.