Escale las cargas de trabajo trabajo de IA para todos sus datos en cualquier lugar
IBM Analytics Engine proporciona a los entornos Apache Spark un servicio que combina los niveles de cómputo y almacenamiento para controlar los costos y lograr analíticas a escala. En lugar de un clúster permanente formado por nodos de doble propósito, IBM Analytics Engine permite a los usuarios almacenar datos en una capa de almacenamiento de objetos como IBM Cloud Object Storage y pone en marcha clústeres de notas de computación cuando sea necesario. Para mayor flexibilidad y previsibilidad de costos, el consumo basado en el uso está disponible para los entornos Apache Spark.
Consumir instancias solo cuando se estén ejecutando trabajos
Pague solo por lo que usa
Optimice los recursos separando la computación y el almacenamiento
Desarrolle en una pila compatible con ODPie con herramientas de ciencia de datos pioneras con el ecosistema Apache Spark más amplio.
Defina clústeres según los requisitos de su aplicación. Elija el paquete de software, la versión y el tamaño del clúster adecuados. Úselo todo el tiempo que sea necesario y elimínelo tan pronto como la aplicación finalice los trabajos.
Configure clústeres con bibliotecas y paquetes de análisis de terceros, así como con las mejoras propias de IBM. Despliegue cargas de trabajo de servicios de IBM Cloud, como el aprendizaje automático.
Configura clústeres de solo cálculo bajo demanda. Debido a que no se almacenan datos en el clúster, los clústeres nunca deben actualizarse.
Aprovisione más IBM Cloud Object Storage (u otros almacenes de datos) bajo demanda sin costos adicionales para ciclos de cómputo no utilizados.
Agregar y eliminar nodos de datos basados en la demanda en vivo es posible a través de las API REST. Además, los costos generales siguen siendo bajos porque no hay datos almacenados en el clúster de cómputos.
El uso de un enfoque de múltiples capas simplifica significativamente la implementación de la seguridad del clúster individual, al tiempo que permite la gestión del acceso a un nivel más granular.
Los clústeres se crean para satisfacer las necesidades del trabajo en lugar de obligar a los trabajos a ajustarse a un único paquete/versión de software. Se pueden ejecutar varias versiones diferentes de software en diferentes clústeres.
Si está trabajando con Apache Spark, pero no está seguro de cuánto recurso se necesita, proporcione una instancia de Spark sin servidor que solo consume recursos informáticos al ejecutar una aplicación. Pague solo por lo que usa.
Recopile, organice y analice datos en una plataforma abierta de IA y datos multinube.
Descubrimiento, catalogación y gobernanza inteligentes de datos y activos analíticos para impulsar las aplicaciones de IA
Obtenga el servicio combinado que proporciona un entorno para desarrollar e implementar aplicaciones analíticas avanzadas