My IBM Masuk Berlangganan

Apa itu big data?

18 November 2024

Penyusun

Matthew Kosinski

Enterprise Technology Writer

Apa itu big data?

Big data mengacu pada kumpulan data besar dan kompleks yang tidak dapat ditangani oleh sistem manajemen data tradisional. Jika dikumpulkan, dikelola, dan dianalisis dengan benar, big data dapat membantu organisasi menemukan insight baru dan membuat keputusan bisnis yang lebih baik.

Sementara organisasi perusahaan telah lama mengumpulkan data, kedatangan internet dan teknologi lainnya secara signifikan meningkatkan volume dan variasi data yang tersedia, melahirkan konsep “big data.”

Saat ini, bisnis mengumpulkan sejumlah besar data, sering diukur dalam terabyte atau petabyte, pada segala hal mulai dari transaksi pelanggan dan tayangan media sosial hingga proses internal dan penelitian eksklusif.

Selama dekade terakhir, informasi ini telah memicu transformasi digital di seluruh industri. Faktanya, big data telah mendapatkan julukan “minyak baru” karena perannya mendorong pertumbuhan bisnis dan inovasi.

Ilmu data dan, lebih khusus lagi, analisis big data membantu organisasi memahami kumpulan big data yang besar dan beragam. Bidang-bidang ini menggunakan alat canggih seperti machine learning untuk mengungkap pola, mengekstrak insight, dan memprediksi hasil. 

Dalam beberapa tahun terakhir, kebangkitan kecerdasan buatan (AI) dan machine learning semakin meningkatkan fokus pada big data. Sistem ini bergantung pada kumpulan data yang besar dan berkualitas tinggi untuk melatih model dan meningkatkan algoritma prediktif.

Perbedaan antara data tradisional dan big data

Data tradisional dan big data berbeda terutama dalam jenis data yang terlibat, jumlah data yang ditangani, dan alat yang diperlukan untuk menganalisisnya.

Data tradisional terutama terdiri dari data terstruktur yang disimpan dalam basis data relasional. Basis data ini mengatur data ke dalam tabel yang didefinisikan dengan jelas, sehingga mudah untuk melakukan kueri menggunakan alat standar seperti SQL. Analisis data tradisional biasanya melibatkan metode statistik dan cocok untuk kumpulan data dengan format yang dapat diprediksi dan ukuran yang relatif kecil.

Big data, di sisi lain, mencakup kumpulan data besar dalam berbagai format, termasuk data terstruktur, semi-terstruktur, dan tidak terstruktur. Kompleksitas ini menuntut pendekatan analitik yang canggih, seperti machine learning, penggalian data, dan visualisasi data, untuk mengekstrak insight yang bermanfaat. Volume besar big data juga membutuhkan sistem pemrosesan terdistribusi untuk menangani big data secara efisien dalam skala besar. 

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

V dari big data

"V dari Big Data"—volume, kecepatan, variasi, kebenaran, dan nilai—adalah lima karakteristik yang membuat big data unik dari jenis data lainnya. Atribut ini menjelaskan bagaimana big data berbeda dari kumpulan data tradisional dan apa yang dibutuhkan untuk mengelolanya secara efektif. 

Volume

Big data disebut “big” karena ada lebih dalam lagi maknanya. Sejumlah besar data yang dihasilkan saat ini, mulai dari aplikasi web, perangkat Internet of Things (IoT) , catatan transaksi, dan banyak lagi, bisa sulit dikelola oleh organisasi mana pun. Sistem penyimpanan dan pemrosesan data tradisional sering berjuang untuk menanganinya dalam skala besar.

Solusi big data, termasuk penyimpanan berbasis cloud, dapat membantu organisasi menyimpan dan mengelola kumpulan data yang semakin besar ini dan memastikan informasi berharga tidak hilang hingga batas penyimpanan.

Kecepatan

Kecepatan adalah kecepatan di mana data mengalir ke dalam sistem dan big data bergerak dengan cepat.

Saat ini, data tiba lebih cepat dari sebelumnya, dari pembaruan media sosial real-time hingga catatan perdagangan saham frekuensi tinggi. Masuknya data yang cepat ini memberikan peluang untuk insight tepat waktu yang mendukung pengambilan keputusan yang cepat. Untuk menangani hal ini, organisasi menggunakan alat seperti kerangka kerja pemrosesan aliran dan sistem dalam memori untuk menangkap, menganalisis, dan bertindak pada data dalam hampir real-time.

Variasi

Variasi mengacu kepada banyak format berbeda yang dapat diambil big data.

Seiring dengan data terstruktur tradisional, big data dapat mencakup data yang tidak terstruktur, seperti teks, gambar, dan video dalam bentuk bebas. Big data juga dapat mencakup data semi-terstruktur, seperti file JSON dan XML, yang memiliki beberapa properti organisasi tetapi tidak ada skema yang ketat.

Mengelola variasi ini membutuhkan solusi fleksibel seperti basis data NoSQL dan data lake dengan kerangka kerja schema-on-read, yang dapat menyimpan dan mengintegrasikan beberapa format data untuk analisis data yang lebih komprehensif. 

Kejujuran

Veracity mengacu kepada keakuratan dan keandalan data. Karena big data datang dalam jumlah yang sangat besar dan dari berbagai sumber, data ini dapat mengandung noise atau kesalahan, yang dapat menyebabkan pengambilan keputusan yang buruk.

Big data mengharuskan organisasi untuk menerapkan proses untuk memastikan kualitas dan akurasi data. Organisasi sering kali menggunakan alat bantu pembersihan, validasi, dan verifikasi data untuk menyaring ketidakakuratan dan meningkatkan kualitas analisis mereka.

Nilai

Nilai mengacu pada manfaat dunia nyata yang dapat diperoleh organisasi dari big data. Manfaat ini mencakup segalanya mulai dari mengoptimalkan operasi bisnis hingga mengidentifikasi peluang pemasaran baru. Analisis big data sangat penting untuk proses ini, seringkali mengandalkan analisis canggih, machine learning, dan AI untuk mengubah informasi mentah menjadi insight yang dapat ditindaklanjuti.

Evolusi big data

Istilah “big data” sering digunakan secara luas, menciptakan ambiguitas seputar arti yang sebenarnya.

Big data lebih dari sekadar informasi dalam jumlah besar. Sebaliknya, ini adalah ekosistem teknologi, metodologi, dan proses yang rumit yang digunakan untuk menangkap, menyimpan, mengelola, dan menganalisis volume besar data yang beragam.

Konsep big data pertama kali muncul pada pertengahan 1990-an ketika kemajuan teknologi digital berarti organisasi mulai memproduksi data pada tingkat yang belum pernah terjadi sebelumnya. Awalnya, kumpulan data ini lebih kecil, biasanya terstruktur dan disimpan dalam format tradisional.

Namun, seiring berkembangnya internet dan menyebarnya konektivitas digital, big data benar-benar lahir. Ledakan sumber data baru, dari transaksi online dan interaksi media sosial hingga mobile dan perangkat IoT, menciptakan kumpulan informasi yang berkembang pesat.

Lonjakan variasi dan volume data ini mendorong organisasi untuk menemukan cara baru untuk memproses dan mengelola data secara efisien. Solusi awal seperti Hadoop memperkenalkan pemrosesan data terdistribusi, di mana data disimpan di beberapa server, atau “cluster”, alih-alih satu sistem.

Pendekatan terdistribusi ini memungkinkan pemrosesan paralel, yang berarti organisasi dapat memproses kumpulan data besar lebih efisien dengan membagi beban kerja di seluruh kluster, dan tetap penting hingga hari ini.

Alat yang lebih baru seperti Apache Spark, mesin analisis sumber terbuka, memperkenalkan komputasi dalam memori. Hal ini memungkinkan data diproses langsung dalam memori utama sistem (RAM) untuk waktu pemrosesan yang jauh lebih cepat daripada pembacaan penyimpanan disk tradisional.

Seiring bertambahnya volume big data, organisasi juga mencari penyimpanan baru. Danau data menjadi penting sebagai repositori yang dapat diskalakan untuk data terstruktur, semi terstruktur, dan tidak terstruktur, menawarkan solusi penyimpanan fleksibel tanpa memerlukan skema yang telah ditentukan sebelumnya (lihat “Penyimpanan big data” di bawah untuk informasi lebih lanjut).

Komputasi cloud juga muncul untuk merevolusi ekosistem big data. Penyedia cloud terkemuka mulai menawarkan opsi penyimpanan dan pemrosesan yang dapat diskalakan dan hemat biaya.

Organisasi dapat menghindari investasi signifikan yang diperlukan untuk perangkat keras on premises. Sebaliknya, mereka dapat menskalakan penyimpanan data dan daya pemrosesan sesuai kebutuhan, dengan hanya membayar sumber daya yang mereka gunakan. 

Fleksibilitas ini mendemokratisasi akses ke ilmu data dan analisis, membuat insight tersedia bagi organisasi dengan segala ukuran, bukan hanya perusahaan besar dengan anggaran IT yang besar.

Hasilnya adalah bahwa big data sekarang menjadi aset penting bagi organisasi di berbagai sektor, mendorong inisiatif dalam intelijen bisnis, kecerdasan buatan, dan machine learning.

Mixture of Experts | Podcast

Decoding AI: Rangkuman Berita Mingguan

Bergabunglah dengan panel insinyur, peneliti, pemimpin produk, dan sosok kelas dunia lainnya selagi mereka mengupas tuntas tentang AI untuk menghadirkan berita dan insight terbaru seputar AI.

Manajemen big data

Manajemen big data adalah proses sistematis pengumpulan data, pemrosesan data, dan analisis data yang digunakan organisasi untuk mengubah data mentah menjadi wawasan yang dapat ditindaklanjuti.

Inti dari proses ini adalah rekayasa data, yang memastikan bahwa jalur data, sistem penyimpanan, dan integrasi dapat beroperasi secara efisien dan dalam skala besar.

Pengumpulan big data

Tahap ini melibatkan pengambilan informasi dalam jumlah besar dari berbagai sumber yang membentuk big data.

Untuk menangani kecepatan dan keberagaman data yang masuk, organisasi sering mengandalkan teknologi big data khusus seperti Apache Kafka untuk streaming data real-time dan Apache NiFi untuk otomatisasi aliran data.

Alat-alat ini membantu organisasi menangkap data dari berbagai sumber, baik dalam aliran waktu nyata maupun dalam batch berkala, dan memastikan data tetap akurat dan konsisten saat berpindah melalui jalur data.

Saat data mengalir ke lingkungan penyimpanan dan pemrosesan terstruktur, alat integrasi data juga dapat membantu menyatukan kumpulan data dari sumber yang berbeda, menciptakan tampilan tunggal yang komprehensif yang mendukung analisis.

Tahap ini juga melibatkan pengambilan metadata, informasi tentang asal data, format dan karakteristik lainnya. Metadata dapat memberikan konteks penting untuk pengorganisasian dan pemrosesan data di masa depan.

Mempertahankan kualitas data yang tinggi sangat penting pada tahap ini. Kumpulan data besar dapat rentan terhadap kesalahan dan ketidakakuratan yang mungkin memengaruhi keandalan insight di masa depan. Prosedur validasi dan pembersihan, seperti validasi skema dan deduplikasi, dapat membantu mengatasi kesalahan, menyelesaikan inkonsistensi, dan mengisi informasi yang hilang.

Penyimpanan big data

Setelah data dikumpulkan, data harus ditempatkan di suatu lokasi. Tiga solusi penyimpanan utama untuk big data adalah data lake, data warehouse, dan data lakehouse.

Data lake

Data lake adalah lingkungan penyimpanan berbiaya rendah yang dirancang untuk menangani data mentah terstruktur dan tidak terstruktur dalam jumlah besar. Data lake umumnya tidak membersihkan, memvalidasi, atau menormalkan data. Sebaliknya, mereka menyimpan data dalam format aslinya, yang berarti mereka dapat mengakomodasi berbagai jenis data dan skala dengan mudah.

Data lake ideal untuk aplikasi yang volume, variasi, dan kecepatan big data besarnya tinggi dan kinerja kurang penting. Data ini umumnya digunakan untuk mendukung pelatihan AI, machine learning, dan big data. Data lake juga dapat berfungsi sebagai ruang penyimpanan serbaguna untuk semua big data, yang dapat dipindah dari data lake ke aplikasi lain sesuai kebutuhan.

Gudang data

Gudang data menggabungkan data dari berbagai sumber ke dalam satu penyimpanan data yang terpusat dan konsisten. Gudang data juga membersihkan data dan menyiapkannya sehingga siap digunakan, sering kali dengan mengubah data ke dalam format relasional. Gudang data dibangun untuk mendukung upaya analitik data, intelijen bisnis, dan ilmu data.

Karena gudang menerapkan skema yang ketat, biaya penyimpanan bisa tinggi. Alih-alih menjadi solusi big data tujuan umum, gudang terutama digunakan untuk membuat beberapa subset big data tersedia bagi pengguna bisnis untuk BI dan analisis.

Data lakehouse

Data lakehouse menggabungkan fleksibilitas data lake dengan struktur dan kemampuan kueri gudang data, memungkinkan organisasi memanfaatkan yang terbaik dari kedua jenis solusi dalam platform terpadu. Lakehouse adalah pengembangan yang relatif baru, tetapi menjadi semakin populer karena menghilangkan kebutuhan untuk memelihara dua sistem data yang berbeda.

Memilih antara data lake, gudang data, dan data lakehouse tergantung pada jenis dan tujuan data serta kebutuhan bisnis akan data tersebut. Data lake unggul dalam fleksibilitas dan penyimpanan yang murah, sedangkan gudang data menyediakan kueri yang lebih cepat dan lebih efisien. Lakehouse menggabungkan fitur keduanya tetapi bisa rumit untuk diatur dan dirawat.

Banyak organisasi menggunakan dua atau ketiga solusi ini dalam kombinasi. Sebagai contoh, sebuah bank dapat menggunakan data lake untuk menyimpan catatan transaksi dan data pelanggan mentah sambil memanfaatkan gudang data untuk mendukung akses cepat ke ringkasan keuangan dan laporan peraturan.

analisis data besar

Analisis big data adalah proses yang digunakan organisasi untuk memperoleh nilai dari big data mereka. Analisis big data melibatkan penggunaan machine learning, penambangan data, dan alat analisis statistik untuk mengidentifikasi pola, korelasi, dan tren dalam kumpulan data.

Dengan analisis big data, bisnis dapat memanfaatkan informasi dalam jumlah besar untuk menemukan insight baru dan mendapatkan keunggulan kompetitif. Artinya, mereka dapat pindah melampaui pelaporan tradisional ke insight prediktif dan preskriptif. 

Misalnya, menganalisis data dari berbagai sumber dapat membantu organisasi membuat keputusan bisnis yang proaktif, seperti rekomendasi produk yang dipersonalisasi dan solusi perawatan kesehatan yang disesuaikan.

Pada akhirnya, keputusan seperti ini dapat meningkatkan kepuasan pelanggan, meningkatkan pendapatan, dan mendorong inovasi.

Alat pemrosesan big data

Organisasi dapat menggunakan berbagai alat pemrosesan big data untuk mengubah data mentah menjadi insight yang berharga. 

Tiga teknologi big data utama yang digunakan untuk pemrosesan data meliputi: 

  • Hadoop
  • Apache Spark
  • Basis data NoSQL

Hadoop

Hadoop adalah kerangka kerja sumber terbuka yang memungkinkan penyimpanan terdistribusi dan pemrosesan kumpulan data besar di seluruh kluster komputer. Kerangka kerja ini memungkinkan Hadoop Distributed File System (HDFS) untuk mengelola data dalam jumlah besar secara efisien.

Skalabilitas Hadoop membuatnya ideal untuk organisasi yang perlu memproses kumpulan data besar dengan anggaran terbatas. Misalnya, perusahaan telepon mungkin menggunakan Hadoop untuk memproses dan menyimpan catatan panggilan di seluruh server terdistribusi untuk analisis kinerja jaringan yang lebih hemat biaya.

Apache Spark

Apache Spark dikenal karena kecepatan dan kesederhanaannya, terutama dalam hal analisis data real-time. Karena kemampuan pemrosesan dalam memorinya, itu unggul dalam penggalian data, analisis prediktif, dan tugas-tugas ilmu data. Organisasi umumnya beralih ke aplikasi yang memerlukan pemrosesan data cepat, seperti analisis streaming langsung.

Sebagai contoh, sebuah platform streaming dapat menggunakan Spark untuk memproses aktivitas pengguna secara real time untuk melacak kebiasaan audiens dan membuat rekomendasi instan.

Basis data NoSQL

Basis data NoSQL dirancang untuk menangani data yang tidak terstruktur, menjadikannya pilihan yang fleksibel untuk aplikasi big data. Tidak seperti basis data relasional, solusi NoSQL, seperti basis data dokumen, nilai kunci, dan grafik, dapat menskalakan secara horizontal. Fleksibilitas ini membuat mereka penting untuk menyimpan data yang tidak masuk rapi ke dalam tabel.

Misalnya, perusahaan e-commerce mungkin menggunakan database dokumen NoSQL untuk mengelola dan menyimpan deskripsi produk, gambar, dan ulasan.

Manfaat big data

Big data telah mengubah cara organisasi mengumpulkan insight dan membuat keputusan strategis.

Sebuah studi dari Harvard Business Review ulasan menemukan bahwa perusahaan berbasis data lebih menguntungkan dan inovatif dibandingkan perusahaan sejenisnya.1 Organisasi yang secara efektif memanfaatkan big data dan AI dilaporkan mengungguli perusahaan sejenisnya dalam hal metrik bisnis utama, termasuk efisiensi operasional (81% vs 58%), pertumbuhan pendapatan (77% vs 61%), dan pengalaman pelanggan (77% vs 45%).

Di bawah ini adalah beberapa manfaat dan contoh penggunaan big data yang paling signifikan.

  • Pengambilan keputusan yang lebih baik: Menganalisis kumpulan data yang sangat besar memungkinkan organisasi untuk menemukan pola dan tren yang mengarah pada keputusan yang lebih tepat. Misalnya, rantai bahan makanan dapat menggunakan data penjualan dan Forecasting cuaca untuk memprediksi permintaan produk musiman, membantu menyimpan stok yang sesuai di toko dan mengurangi limbah.
  • Pengalaman pelanggan yang ditingkatkan: Big data memungkinkan perusahaan untuk memahami perilaku pelanggan pada tingkat yang lebih terperinci, membuka jalan bagi interaksi yang lebih disesuaikan. Misalnya, analisis big data dapat membantu mengidentifikasi pelanggan yang sering membeli produk perawatan kulit dari merek tertentu. Merek dapat menggunakan informasi ini untuk membantu menargetkan kampanye untuk penjualan dalam waktu terbatas atau penawaran khusus untuk produk serupa.
  • Peningkatan efisiensi operasional: Data real-time memungkinkan organisasi merampingkan operasi dan mengurangi pemborosan. Di bidang manufaktur, misalnya, organisasi dapat menganalisis data sensor waktu nyata untuk memprediksi kegagalan peralatan sebelum terjadi. Proses ini, yang dikenal sebagai pemeliharaan prediktif, dapat membantu mencegah waktu henti dan mengurangi biaya pemeliharaan.
  • Pengembangan produk yang responsif: Insight big data membantu perusahaan menanggapi kebutuhan pelanggan dan memandu peningkatan produk. Misalnya, jika beberapa pengguna melaporkan bahwa fitur tertentu pada smartphone menguras daya baterai terlalu cepat, pengembang dapat memprioritaskan pengoptimalan fitur tersebut pada pembaruan perangkat lunak berikutnya.
  • Penetapan harga yang dioptimalkan: Big data memungkinkan organisasi untuk menyempurnakan strategi penetapan harga berdasarkan kondisi pasar secara real-time. Misalnya, maskapai penerbangan dapat menggunakan insight yang berasal dari big data untuk menyesuaikan harga tiket secara dinamis, menanggapi perubahan permintaan dan harga pesaing.
  • Peningkatan manajemen risiko dan deteksi penipuan: Big data memungkinkan organisasi untuk mengidentifikasi dan memantau risiko secara proaktif. Bank, misalnya, menganalisis pola transaksi untuk deteksi potensi penipuan. Jika kartu kredit nasabah digunakan untuk pembelian bernilai tinggi yang tidak biasa di negara lain, bank dapat menandai transaksi tersebut dan memberi tahu nasabah untuk verifikasi.
  • Inovasi layanan kesehatan: Penyedia layanan kesehatan dapat menggunakan big data untuk memahami catatan pasien, informasi genetik, dan data dari wearable devices. Sebagai contoh, monitor glukosa yang terus menerus untuk pasien diabetes dapat melacak kadar gula darah secara real-time, sehingga penyedia layanan kesehatan dapat mendeteksi lonjakan atau penurunan yang berbahaya dan menyesuaikan rencana perawatan yang sesuai. 

Tantangan big data

Meskipun big data menawarkan potensi yang sangat besar, big data juga memiliki tantangan yang signifikan, terutama seputar skala dan kecepatannya.

Beberapa tantangan terbesar dari big data meliputi:

  • Kualitas dan manajemen data: Menghubungkan titik data dan menjaga keakuratan data dapat menjadi pekerjaan yang rumit, terutama dengan banyaknya informasi yang terus mengalir dari media sosial, perangkat IoT, dan sumber-sumber lainnya. Misalnya, perusahaan logistik mungkin kesulitan untuk mengintegrasikan data GPS dari armadanya dengan masukan pelanggan dan inventaris gudang untuk mendapatkan pandangan yang tepat tentang kinerja pengiriman.
  • Skalabilitas: Seiring pertumbuhan data, organisasi harus memperluas sistem penyimpanan dan pemrosesan untuk mengikutinya. Misalnya, platform streaming yang menganalisis jutaan interaksi pemirsa setiap hari mungkin perlu terus menambah daya penyimpanan dan komputasinya untuk menangani permintaan. Layanan cloud dapat menawarkan alternatif yang lebih dapat diskalakan untuk solusi on-premises, tetapi mengelola volume dan kecepatan data yang tinggi mungkin masih sulit.
  • Privasi dan keamanan: Peraturan seperti GDPR dan HIPAA memerlukan langkah-langkah privasi dan keamanan data yang ketat, seperti kontrol akses dan enkripsi yang kuat untuk mencegah akses tidak sah ke data pasien. Mematuhi mandat ini bisa jadi sulit ketika kumpulan data sangat besar dan terus berkembang.
  • Kompleksitas integrasi: Menggabungkan berbagai jenis data dari berbagai sumber dapat menjadi hal yang sulit secara teknis. Misalnya, retail chain mungkin kesulitan untuk mengkonsolidasikan catatan penjualan terstruktur dengan ulasan pelanggan tidak terstruktur dan data pemasok semi-terstruktur untuk pandangan komprehensif tentang kinerja produk.
  • Tenaga kerja yang terampil: Pekerjaan big data membutuhkan keahlian khusus dalam ilmu data, teknik, dan analisis. Banyak organisasi menghadapi tantangan yang terus berlanjut dalam mencari tenaga profesional seperti analis data dan spesialis lainnya yang dapat mengelola dan menginterpretasikan kumpulan data yang besar. Sebagai contoh, lembaga keuangan mungkin kesulitan untuk mempekerjakan ilmuwan data yang terampil dalam machine learning dan pemodelan keuangan untuk menganalisis data transaksi dan memprediksi tren pasar.

Big data dalam machine learning dan kecerdasan buatan (AI)

72% CEO berkinerja terbaik setuju bahwa memiliki keunggulan kompetitif bergantung pada memiliki AI generatif yang paling canggih. AI mutakhir seperti itu membutuhkan, pertama dan terpenting, sejumlah besar data berkualitas tinggi.

Sistem AI dan model machine learning canggih, seperti model bahasa besar (LLM), mengandalkan proses yang disebut pembelajaran mendalam.

Pembelajaran mendalam menggunakan kumpulan data yang luas dan tidak berlabel untuk melatih model dalam melakukan berbagai tugas yang rumit seperti pengenalan gambar dan ucapan. Big data menyediakan volume (jumlah data yang besar), variasi (jenis data yang beragam), dan kebenaran (kualitas data) yang diperlukan untuk pembelajaran mendalam.

Dengan dasar ini, algoritma machine learning dapat mengidentifikasi pola, mengembangkan insight, dan memungkinkan pengambilan keputusan prediktif untuk mendorong inovasi, meningkatkan pengalaman pelanggan, dan mempertahankan keunggulan kompetitif.

Catatan kaki

Semua tautan berada di luar ibm.com

1  Big on data: Study shows why data-driven companies are more profitable than their peers, studi ulasan Harvard Business yang dilakukan untuk Google Cloud, 24 Maret 2023.

Solusi terkait

Solusi terkait

Alat dan solusi analitik

Untuk berkembang, perusahaan harus menggunakan data untuk membangun loyalitas pelanggan, mengotomatiskan proses bisnis, dan berinovasi dengan solusi yang didorong oleh AI.

Jelajahi solusi analitik
Layanan konsultasi data dan analitik

Buka nilai data perusahaan dengan IBM Consulting, membangun organisasi berbasis insight yang memberikan keuntungan bisnis.

Temukan layanan analitik
IBM Cognos Analytics

Memperkenalkan Cognos Analytics 12.0, wawasan yang didukung AI untuk pengambilan keputusan yang lebih baik.

Jelajahi Cognos Analytics
Ambil langkah selanjutnya

Untuk berkembang, perusahaan harus menggunakan data untuk membangun loyalitas pelanggan, mengotomatiskan proses bisnis, dan berinovasi dengan solusi yang didorong oleh AI.

Jelajahi solusi analitik Temukan layanan analitik