Escale cargas de trabajo de IA, para todos sus datos, en cualquier lugar
IBM® Analytics Engine proporciona a los entornos Apache Spark un servicio que desvincula los niveles de computación y almacenamiento para controlar los costes y lograr análisis a escala. En lugar de un clúster permanente formado por nodos de doble propósito, IBM® Analytics Engine permite a los usuarios almacenar datos en una capa de almacenamiento de objetos como IBM® Cloud Object Storage y pone en marcha clústeres de notas de computación cuando sea necesario. Para mayor flexibilidad y previsibilidad de costos, el consumo basado en el uso está disponible para entornos de Apache Spark.
Consuma instancias solo cuando los trabajos estén en ejecución
Pague solo por lo que utilice
Optimice los recursos separando la computación y el almacenamiento
Construya en una pila compatible con ODC con herramientas de ciencia de datos pioneras con el ecosistema de Apache Spark más amplio.
Defina clústeres basados en el requisito de tu aplicación. Elija el paquete de software, la versión y el tamaño adecuados del clúster. Utilícelo siempre que sea necesario y elimínelo tan pronto como la aplicación termine los trabajos.
Configure clústeres con bibliotecas y paquetes de analítica de terceros, así como con las propias mejoras de IBM. Implemente cargas de trabajo desde los servicios de IBM® Cloud, como el aprendizaje automático.
Active clústeres solo para procesamiento bajo demanda. Como no hay datos almacenados en el clúster, los clústeres nunca necesitan actualizarse.
Aprovisione más IBM® Cloud Object Storage (u otros almacenes de datos) bajo demanda sin costes adicionales por ciclos de computación no utilizados.
Es posible agregar y eliminar nodos de datos basados en la demanda en vivo a través de API REST. Además, los costes generales permanecen bajos porque no hay datos almacenados en el clúster de computación.
El uso de un enfoque multicapa simplifica significativamente la implementación individual de la seguridad del clúster, al tiempo que permite la gestión del acceso a un nivel más granular.
Los clústeres se ejecutan para satisfacer las necesidades del trabajo en lugar de forzar que los trabajos se ajusten a un único paquete/versión de software. Se pueden ejecutar varias versiones diferentes de software en diferentes clústeres.
Si está trabajando con Apache Spark, pero no está seguro de cuánto recursos se necesita, aprovisione una instancia de Serverless Spark que solo consume recursos informáticos al ejecutar una aplicación. Pague solo por lo que utilice.
Recopile, organice y analice datos en una plataforma multicloud de datos e IA.
Descubrimiento, catalogación y gobernanza inteligentes de datos y activos analíticos para impulsar las aplicaciones de IA
Obtenga el servicio combinado que proporciona un entorno para desarrollar e implementar aplicaciones de análisis avanzado