Komputasi yang dipercepat mengacu pada penggunaan perangkat keras dan perangkat lunak yang dirancang khusus untuk mempercepat tugas komputasi.
Komputasi yang dipercepat bergantung pada berbagai perangkat keras dan perangkat lunak (juga dikenal sebagai akselerator), termasuk unit pemrosesan grafis (GPU), sirkuit terintegrasi khusus aplikasi (ASIC), dan gate array yang dapat diprogram (FPGA).
Solusi komputasi yang dipercepat sangat diminati di banyak industri karena mereka dapat melakukan perhitungan lebih cepat dan lebih efisien daripada unit pemrosesan pusat (CPU) tradisional. Tidak seperti CPU, akselerator mengandalkan komputasi paralel, metode pemecahan masalah komputasi di mana tugas dipecah menjadi masalah yang lebih kecil dan diselesaikan secara bersamaan, bukan secara serial.
Karena kecepatan pemrosesan datanya, komputasi yang dipercepat telah menjadi penting bagi kemajuan banyak teknologi mutakhir dan aplikasi, termasuk kecerdasan buatan (AI), AI generatif, machine learning (ML), dan komputasi kinerja tinggi (HPC). Saat ini, ini adalah komponen kunci dari strategi banyak perusahaan teknologi paling sukses di dunia, termasuk Google, Amazon Web Services (AWS), dan Microsoft.
Unit pemrosesan pusat atau CPU, terdiri dari berbagai sirkuit elektronik yang menjalankan sistem operasi komputer (OS) dan aplikasi. Selama bertahun-tahun, CPU berfungsi sebagai otak komputer, mengubah input data menjadi output informasi. Namun, ketika aplikasi menjadi lebih canggih, mereka perlu memproses data lebih cepat dan lebih efisien daripada yang dapat dikelola oleh CPU. Masukkan akselerator dan teknologi komputasi yang dipercepat dengan kemampuan pemrosesan paralel, latensi rendah, dan throughput tinggi. Sejak tahun 1980-an, ketika mereka pertama kali menjadi terkenal, banyak kemajuan teknologi terbesar dalam ilmu komputer bergantung pada akselerator.
Dari video game baru yang paling menarik dan pengalaman virtual reality (VR) yang imersif hingga ChatGPT, pelatihan model AI dan analisis big data, akselerator adalah bagian penting dari dunia kita yang berkembang pesat dan sangat terhubung. Banyak perusahaan modern mengandalkan akselerator untuk memberi daya pada aplikasi dan arsitektur infrastruktur mereka yang paling berharga, termasuk komputasi cloud, pusat data, komputasi edge, dan model bahasa besar (LLM). Sebagai contoh, pemimpin bisnis dan pengembang yang ingin menjelajahi AI generatif berinvestasi dalam akselerator untuk membantu mengoptimalkan pusat data mereka dan memproses lebih banyak informasi lebih cepat1.
Akselerator digunakan di berbagai aplikasi bisnis untuk mempercepat pemrosesan data—terutama saat jangkauan 5G meluas—meningkatkan peluang Internet of Things (IoT) dan komputasi edge. Aplikasi IoT bergantung pada akselerator untuk memproses data dari perangkat pintar seperti lemari es, sensor arus lalu lintas, dan lainnya. Komputasi edge dapat memberikan insight yang lebih dalam, waktu respons yang lebih cepat, dan pengalaman pelanggan yang lebih baik, tetapi hanya dengan kecepatan pemrosesan yang ditawarkan akselerator.
Ketika berbicara tentang AI, banyak aplikasinya yang paling canggih, seperti pemrosesan bahasa alami (NLP), visi komputer, dan pengenalan suara, mengandalkan kekuatan komputasi yang dipercepat untuk berfungsi. Sebagai contoh, neural network yang mendukung banyak aplikasi AI mutakhir membutuhkan akselerator AI untuk mengklasifikasikan dan mengklaster data dengan kecepatan tinggi.
Terakhir, karena semakin banyak bisnis yang mencari cara untuk bertransformasi secara digital dan mempercepat inovasi, solusi komputasi yang dipercepat menawarkan total biaya kepemilikan yang relatif rendah. Kemampuan akselerator untuk memproses data dalam jumlah besar dengan cepat dan akurat berarti bahwa mereka dapat digunakan di banyak aplikasi yang berbeda dengan potensi untuk menciptakan nilai bisnis, termasuk chatbot AI, analisis data keuangan, komputasi cloud, dan banyak lagi.
Komputasi yang dipercepat menggunakan kombinasi perangkat keras, perangkat lunak, dan teknologi untuk membantu perusahaan modern memberdayakan aplikasi tercanggih mereka. Komponen perangkat keras yang penting untuk akselerator termasuk GPU, ASIC, dan FPGA. Perangkat lunak dan antarmuka pemrograman aplikasi (API) sama pentingnya, dengan CUDA dan OpenCL memainkan peran penting.
Terakhir, solusi jaringan, seperti PCI express (PCIe) dan NV link, membantu unit pemrosesan berkomunikasi dengan memori dan perangkat penyimpanan tempat data disimpan. Berikut ini adalah pandangan yang lebih dekat tentang bagaimana akselerator perangkat keras, akselerator perangkat lunak, dan solusi jaringan bekerja bersama untuk memungkinkan komputasi yang dipercepat.
Akselerator perangkat keras modern dapat memproses data secara jauh lebih cepat daripada CPU tradisional karena kemampuan pemrosesan paralelnya. Tanpa mereka, banyak aplikasi terpenting komputasi yang dipercepat tidak akan mungkin.
GPU
GPU atau unit pemrosesan grafik, adalah akselerator perangkat keras yang dirancang untuk mempercepat grafik komputer dan pemrosesan gambar pada berbagai perangkat, termasuk kartu video, papan sistem, mobile, dan komputer pribadi (PC). Akselerator GPU secara signifikan mengurangi jumlah waktu yang dibutuhkan komputer untuk menjalankan banyak program. Komputasi akselerasi GPU digunakan dalam berbagai aplikasi komputasi yang dipercepat termasuk AI dan blockchain.
ASIC
ASIC atau sirkuit terpadu khusus aplikasi, adalah akselerator perangkat keras yang dibangun dengan tujuan atau fungsi tertentu—seperti pembelajaran mendalam, dalam kasus akselerator ASIC WSE-3, dianggap sebagai salah satu akselerator AI tercepat di dunia. Tidak seperti beberapa akselerator perangkat keras lainnya, ASIC tidak dapat diprogram ulang. Namun, karena dibuat dengan tujuan tunggal, akselerator ini biasanya mengungguli akselerator yang dibuat untuk tugas-tugas komputasi yang lebih umum. Contoh lain dari akselerator ASIC adalah Tensor Processing Unit (TPU) Google, yang dikembangkan untuk ML neural network pada perangkat lunak TensorFlow milik Google sendiri.
FPGA
Field-programmable gate array atau FPGA adalah akselerator AI yang sangat dapat disesuaikan yang bergantung pada pengetahuan khusus untuk diprogram ulang untuk tujuan tertentu. Tidak seperti akselerator perangkat keras lainnya, FPGA memiliki desain unik yang sesuai dengan fungsi tertentu, yang sering kali berkaitan dengan pemrosesan data real-time. FPGA dapat diprogram ulang pada tingkat perangkat keras, memungkinkan tingkat penyesuaian yang jauh lebih tinggi. Solusi ini sering digunakan dalam kedirgantaraan, aplikasi IoT, dan solusi jaringan nirkabel.
API dan perangkat lunak memegang peran penting dalam membuat fungsi akselerator, berinteraksi antara perangkat keras dan jaringan yang diperlukan untuk menjalankan aplikasi komputasi yang dipercepat.
API
API atau antarmuka pemrograman aplikasi, adalah seperangkat aturan yang memungkinkan aplikasi berkomunikasi dan bertukar data. API sangat penting untuk komputasi yang dipercepat, membantu mengintegrasikan data, layanan, dan fungsionalitas antar aplikasi. Mereka menyederhanakan dan mempercepat pengembangan aplikasi dan perangkat lunak dengan memungkinkan pengembang untuk mengintegrasikan data, layanan, dan kemampuan dari aplikasi lain dan memungkinkannya untuk dibagikan di seluruh organisasi. API membantu mengoptimalkan aliran data antara akselerator perangkat keras dan perangkat lunak dan memberi pengembang akses ke pustaka perangkat lunak yang penting untuk pengembangan aplikasi dan perangkat lunak.
CUDA
Compute Unified Device Architecture (CUDA), yang dibuat oleh NVIDIA pada tahun 2007, adalah perangkat lunak yang memberikan akses langsung kepada para pengembang ke kemampuan komputasi paralel GPU NVIDIA. CUDA memberdayakan pembuat kode untuk menggunakan teknologi GPU untuk berbagai fungsi yang jauh lebih luas daripada yang mungkin sebelumnya. Sejak itu, mengembangkan hal yang dimungkinkan oleh CUDA, akselerator perangkat keras GPU telah memperoleh lebih banyak kemampuan—mungkin yang paling signifikan penelusuran sinar, generasi gambar komputer dengan melacak arah cahaya dari kamera dan inti tensor yang memungkinkan DL.
OpenCL
OpenCL adalah platform sumber terbuka yang dirancang untuk komputasi paralel dan mendukung berbagai jenis akselerator perangkat keras, termasuk GPU dan FPGA. Kompatibilitasnya yang tinggi menjadikannya alat yang ideal bagi para pengembang yang perlu menggunakan berbagai jenis komponen dalam beban kerja komputasi yang dipercepat. Contoh penggunaan OpenCL termasuk game, pemodelan 3D, dan produksi multimedia.
Teknologi jaringan sangat penting untuk komputasi yang dipercepat, memungkinkan komunikasi yang cepat dan efektif antara banyak unit pemrosesan yang berbeda dan memori dan perangkat penyimpanan tempat data disimpan. Berikut adalah beberapa jenis jaringan yang diandalkan oleh komputasi yang dipercepat.
Ethernet
Ethernet adalah sejenis teknologi yang banyak digunakan untuk menyediakan transfer data yang cepat dan fleksibel antar server di pusat data (atau hanya antara komputer yang berada di ruang fisik yang sama). Meskipun banyak dipakai dan terjangkau, jaringan ini tidak secepat beberapa jenis jaringan lainnya, seperti NVLink atau InfiniBand.
PCI Express (PCIe)
PCIe adalah bus ekspansi komputer berkecepatan tinggi yang menghubungkan dua perangkat dengan sumber memori eksternal. Akselerator menggunakan PCIe untuk menghubungkan GPU atau jenis akselerator perangkat keras lainnya ke sistem komputasi pusat.
NVLink
NVLink adalah teknologi Interconnect eksklusif NVIDIA dan dapat memberikan bandwidth yang jauh lebih tinggi daripada PCIe. Itu dirancang untuk memungkinkan proses berbagi data yang sangat efisien antara GPU dan perangkat lain.
InfiniBand
InfiniBand adalah spesifikasi komunikasi yang mendefinisikan arsitektur kain sakelar pada server yang saling berhubungan, penyimpanan atau perangkat lain di pusat data. Dibangun oleh InfiniBand Trade Association, teknologi ini terkenal karena kinerja dan latensi rendahnya, yang membuatnya ideal untuk beban kerja berkinerja tinggi.
Computer Express Link (CXL)
CXL adalah standar interkoneksi terbuka yang membantu mencapai latensi rendah dan meningkatkan bandwidth antara CPU dan akselerator dengan menggabungkan beberapa antarmuka ke dalam satu koneksi PCIe.
Dengan penyebaran teknologi AI dan perluasan jaringan 5G yang memungkinkan transfer data cepat, contoh penggunaan komputasi yang dipercepat meningkat setiap hari. Berikut adalah beberapa yang paling umum.
Kecerdasan buatan (AI) dan banyak aplikasi bisnisnya, tidak akan mungkin terjadi tanpa akselerator seperti GPU dan ASIC. Perangkat komputasi yang dipercepat ini memungkinkan komputer melakukan komputasi yang sangat kompleks dengan lebih cepat dan lebih efisien daripada CPU tradisional. Akselerator seperti superkomputer AI cloud-native IBM, Vela, memberdayakan pada banyak aplikasi AI terkemuka yang bergantung pada kemampuannya untuk melatih model AI pada kumpulan data yang semakin besar.
Baik machine learning (ML) dan pembelajaran mendalam (DL), bidang AI yang berkaitan dengan penggunaan data dan algorita untuk meniru cara manusia belajar dan mengambil keputusan, bergantung pada kemampuan pemrosesan data akselerator. Komputasi yang dipercepat memberdayakan pelatihan model pembelajaran mendalam untuk membuat kesimpulan dari data dengan cara yang mirip dengan otak manusia.
Blockchain, buku besar populer yang digunakan untuk mencatat transaksi dan melacak aset dalam jaringan bisnis, sangat bergantung pada komputasi yang dipercepat. Langkah penting yang disebut Proof of Work (PoW), ketika sebuah transaksi divalidasi dan ditambahkan ke blockchain, bergantung pada akselerator. Dalam mata uang kripto, misalnya, PoW berarti siapa pun yang memiliki mesin yang sesuai dapat menambang mata uang kripto, seperti Bitcoin.
Akselerator menangani kumpulan data besar yang dihasilkan oleh aplikasi Internet of Things (IoT) jauh lebih efisien daripada CPU dengan kemampuan pemrosesan berurutan. IoT bergantung pada perangkat yang terhubung ke internet yang terus-menerus mengumpulkan data untuk diproses. Akselerator perangkat keras seperti GPU membantu memproses data dengan cepat untuk aplikasi IoT seperti mobil otonom dan sistem yang memantau lalu lintas dan cuaca.
Komputasi edge, kerangka kerja komputasi terdistribusi yang membawa aplikasi perusahaan lebih dekat ke sumber data, sangat bergantung pada akselerator untuk beroperasi. Ekspansi jangkauan konektivitas 5G telah menyebabkan kumpulan data tumbuh secara eksponensial. Komputasi yang dipercepat, dengan kemampuan pemrosesan paralelnya, membantu bisnis memanfaatkan semua kemungkinan komputasi tepi, seperti waktu untuk insight yang lebih pendek, waktu respons yang lebih baik, dan peningkatan bandwidth.
IBM Spectrum LSF Suites adalah platform manajemen beban kerja dan penjadwal pekerjaan untuk komputasi kinerja tinggi terdistribusi (HPC).
Solusi HPC hybrid cloud dari IBM membantu mengatasi tantangan-tantangan berskala besar dengan kebutuhan komputasi intensif, dan mempercepat waktu untuk mendapatkan insight.
Temukan solusi infrastruktur cloud yang tepat untuk kebutuhan bisnis Anda dan tingkatkan sumber daya sesuai permintaan.
1. GPUs Force CIOs to Rethink the Datacenter, Information Week, April 23, 2024.
2. Gigantic AI CPU has almost one million cores, Tech Radar, March 16, 2024.