Escale as cargas de trabalho de IA para todos os seus dados, em qualquer lugar
O IBM Analytics Engine fornece aos ambientes Apache Spark um serviço que separa os níveis de computação e armazenamento para controlar custos e obter análises em escala. Em vez de um cluster permanente formado por nós de dupla finalidade, o IBM Analytics Engine permite que os usuários armazenem dados em uma camada de armazenamento de objetos, como o IBM Cloud Object Storage, e gere clusters de notas de computação quando necessário. Para maior flexibilidade e previsibilidade de custos, o consumo baseado no uso está disponível para ambientes Apache Spark.
Consuma instâncias somente quando os trabalhos estiverem em execução
Pague apenas pelo que usar
Otimize os recursos separando computação e armazenamento
Desenvolva em stacks compatíveis com ODPi com ferramentas pioneiras de ciência de dados com o ecossistema Apache Spark mais amplo.
Defina clusters com base no requisito do seu aplicativo. Escolha o pacote de software apropriado, a versão e o tamanho do cluster. Use o tempo que for necessário e exclua assim que o aplicativo terminar os trabalhos.
Configure clusters com bibliotecas e pacotes de análise de terceiros, bem como com os próprios aprimoramentos da IBM. Implemente cargas de trabalho dos serviços IBM Cloud, como aprendizado de máquina.
Crie clusters somente de computação sob demanda. Como nenhum dado é armazenado no cluster, os clusters nunca precisam ser atualizados.
Forneça mais IBM Cloud Object Storage (ou outros armazenamentos de dados) sob demanda, sem custos adicionais para ciclos de computação não utilizados.
Adicionar e remover nós de dados com base na demanda em tempo real é possível via APIs REST. Além disso, os custos indiretos permanecem baixos porque não há dados armazenados no cluster de computação.
O uso de uma abordagem em várias camadas simplifica significativamente a implementação da segurança de clusters individuais, ao mesmo tempo em que permite o gerenciamento de acesso em um nível mais granular.
Em vez de forçar os trabalhos a se adequarem a um único pacote/versão de software, os clusters são girados para atender às necessidades do trabalho. Várias versões diferentes do software podem ser executadas em clusters diferentes.
Se você estiver trabalhando com o Apache Spark, mas não tiver certeza de quanto recurso é necessário, provisione uma instância do Serverless Spark que só consuma recursos de computação ao executar um aplicativo. Pague apenas pelo que você usa.
Colete, organize e analise dados em uma plataforma aberta de dados multinuvem e IA.
Dados inteligentes e descoberta de ativos analíticos, catalogação e governança para alimentar aplicativos de IA
Obtenha o serviço combinado que fornece um ambiente para o desenvolvimento e a implementação de aplicativos de análise avançada