Tingkatkan beban kerja AI, untuk semua data Anda, di mana saja
IBM Analytics Engine menyediakan lingkungan Apache Spark suatu layanan yang memisahkan tingkat komputasi dan penyimpanan untuk mengontrol biaya dan mencapai analitik dalam skala besar. Selain kluster permanen yang terbentuk dari node dengan penggunaan ganda, IBM Analytics Engine memungkinkan pengguna untuk menyimpan data dalam lapisan penyimpanan objek seperti IBM Cloud Object Storage dan membuat kluster catatan komputasi jika diperlukan. Untuk tambahan fleksibilitas dan prediktabilitas biaya, konsumsi berbasis penggunaan tersedia untuk lingkungan Apache Spark.
Gunakan instans hanya saat tugas sedang berjalan
Hanya bayar sesuai yang Anda gunakan
Optimalkan sumber daya dengan memisahkan komputasi dan penyimpanan
Bangun di atas tumpukan yang sesuai dengan ODPi dengan memulai alat ilmu data dengan ekosistem Apache Spark yang lebih luas.
Tentukan kluster berdasarkan kebutuhan aplikasi Anda. Pilih paket, versi, dan ukuran perangkat lunak kluster yang sesuai. Gunakan selama diperlukan dan langsung hapus aplikasi menyelesaikan pekerjaan.
Konfigurasikan kluster dengan pustaka dan paket analitik pihak ketiga serta perangkat tambahan dari IBM. Terapkan beban kerja dari layanan IBM Cloud, seperti pembelajaran mesin.
Buat kluster khusus komputasi sesuai permintaan. Karena tidak ada data yang disimpan di dalam kluster, maka kluster tidak perlu ditingkatkan.
Sediakan lebih banyak IBM Cloud Object Storage (atau penyimpanan data lainnya) sesuai kebutuhan tanpa biaya tambahan untuk siklus komputasi yang tidak digunakan.
Menambahkan dan menghapus node data berdasarkan permintaan langsung dapat dilakukan melalui REST API. Selain itu, biaya beban tambahan tetap rendah karena tidak ada data yang disimpan dalam kluster komputasi.
Menggunakan pendekatan banyak lapisan secara signifikan menyederhanakan implementasi keamanan kluster individu, sekaligus memungkinkan manajemen akses pada tingkat yang lebih terperinci.
Kluster dibentuk untuk memenuhi kebutuhan pekerjaan, bukan untuk memaksa pekerjaan agar sesuai dengan satu paket/versi peranti lunak. Beberapa versi perangkat lunak yang berbeda dapat dijalankan dalam kluster yang berbeda.
Jika Anda bekerja dengan Apache Spark, tetapi tidak yakin berapa banyak sumber daya yang dibutuhkan, sediakan instans Serverless Spark yang hanya menggunakan sumber daya komputasi saat menjalankan aplikasi. Bayar hanya atas yang Anda gunakan.
Kumpulkan, atur, dan analisis data pada platform data multicloud dan AI yang terbuka.
Penemuan data cerdas dan aset analitik, katalog, dan tata kelola untuk mendorong aplikasi AI
Dapatkan layanan gabungan yang menyediakan lingkungan untuk mengembangkan dan menerapkan aplikasi analitik canggih