Separa i livelli di elaborazione e storage per creare, scalare e gestire in modo flessibile le applicazioni di analytics
IBM Analytics Engine fornisce agli ambienti Apache Spark un servizio che disaccoppia i livelli di elaborazione e storage per controllare i costi e ottenere analytics su larga scala. Invece di un cluster permanente formato da nodi a doppio uso, IBM Analytics Engine consente agli utenti di archiviare dati a un livello di storage di oggetti come IBM Cloud Object Storage e di attivare cluster di note di elaborazione quando necessario. Per una maggiore flessibilità e prevedibilità dei costi, il consumo basato sull'utilizzo è disponibile per gli ambienti Apache Spark.
Attiva i cluster di sola elaborazione su richiesta. Poiché nessun dato viene memorizzato nel cluster, i cluster non devono mai essere aggiornati.
Esegui il provisioning di più IBM Cloud Object Storage (o altri archivi dati) su richiesta e senza costi aggiuntivi per i cicli di elaborazione non utilizzati.
L'aggiunta e la rimozione dei nodi di dati basati sulla domanda in tempo reale è possibile grazie alle API REST. Inoltre, i costi di spesa generale restano bassi, perché non esistono dati memorizzati nel cluster di elaborazione.
L'utilizzo di un approccio multilivello semplifica maggiormente l'implementazione della sicurezza dei singoli cluster, consentendo, al tempo stesso, di gestire gli accessi ad un livello più granulare.
Invece di richiedere che i lavori da svolgere debbano rispettare i requisiti di un singolo pacchetto/versione software, i cluster vengono attivati per soddisfare le esigenze di ogni lavoro. È possibile eseguire diverse versioni di software multiple in cluster differenti.
Se lavori con Apache Spark, ma non sei sicuro della quantità di risorse necessaria, esegui il provisioning di un'istanza Serverless Spark che consuma risorse di elaborazione solo durante l'esecuzione di un'applicazione. Paga solo per ciò di cui hai bisogno.
Sviluppa uno stack conforme a ODPI con strumenti di data science all'avanguardia con il più ampio ecosistema Apache Spark.
Definisci cluster in base ai requisiti delle tue applicazioni. Scegli il pacchetto software, la versione e la dimensione del cluster appropriati. Utilizzalo fino a quando necessario ed eliminalo non appena l'applicazione completa i lavori.
Configura i cluster con librerie e pacchetti di analytics di terze parti, nonché miglioramenti propri di IBM. Distribuisci carichi di lavoro provenienti dai servizi IBM Cloud, come la machine learning.
Raccogli, organizza e analizza i dati su una piattaforma aperta, di dati multicloud e AI.
Scoperta, catalogazione e governance di dati intelligenti e asset analitici per alimentare le applicazioni di intelligenza artificiale.
Scopri, rendi accurati e governa gli asset di dati, trasformando le informazioni non elaborate in insight di AI significativi e accurati, negli ambienti on-premise e cloud.
Distribuzione dei dati su scala, con un piano di controllo unificato dell'integrazione dei dati progettato per funzionare senza problemi con diversi stili di dati e integrazione, ottimizzando al contempo l'esecuzione della pipeline in termini di costi e prestazioni.