8 menit
Akselerator AI adalah perangkat keras apa pun—termasuk unit pemrosesan grafis (GPU)—yang digunakan untuk mempercepat model machine learning (ML), pembelajaran mendalam (DL), pemrosesan bahasa alami, dan operasi kecerdasan buatan (AI) lainnya.
Namun, istilah akselerator AI semakin banyak digunakan untuk menggambarkan chip AI yang lebih khusus , seperti unit pemrosesan saraf (NPU) atau unit pemrosesan tensor (TPU). GPU serba guna—yang awalnya dirancang untuk merender gambar dan grafik—sangat efektif sebagai akselerator AI. Namun, perangkat keras AI khusus lainnya dapat menawarkan daya komputasi yang sama atau lebih tinggi dengan efisiensi energi lebih baik, hasil yang lebih optimal, dan pengoptimalan tambahan untuk beban kerja AI.
Unit pemrosesan pusat standar (CPU) bekerja dengan kerangka kerja linier, menanggapi permintaan satu per satu, dan sering kesulitan memenuhi tuntutan pemrosesan data berkinerja tinggi. GPU dirancang secara berbeda dan unggul dalam permintaan tersebut.
GPU yang memiliki banyak inti logika, memecah masalah kompleks menjadi bagian-bagian kecil yang dapat diselesaikan secara bersamaan, sebuah metode yang dikenal sebagai pemrosesan paralel. CUDA API, yang awalnya dikembangkan oleh Nvidia pada tahun 2006, membuka potensi besar dari kekuatan pemrosesan paralel GPU. Hal ini memungkinkan para programmer untuk menggunakan GPU Nvidia untuk pemrosesan tujuan umum dalam ribuan contoh penggunaan, seperti pengoptimalan pusat data, robotika, manufaktur ponsel pintar, penambangan mata uang kripto, dan banyak lagi.
Kemampuan pemrosesan paralel GPU yang mengesankan juga terbukti sangat berguna untuk tugas-tugas AI seperti melatih model bahasa besar (LLM) atau neural networks. Namun, dengan meningkatnya permintaan muncul peningkatan konsumsi daya. Selain itu, GPU dengan kinerja tinggi terkenal haus daya dan mahal.
GPU sangat cocok untuk aplikasi AI seperti memproses kumpulan data besar, tetapi tidak dirancang khusus untuk digunakan dalam model AI. Sebagai prosesor grafis, GPU biasanya mengalokasikan sejumlah inti logika khusus untuk menangani tugas-tugas yang berhubungan dengan grafis. Tugas-tugas ini meliputi penyandian dan pengodean video, perhitungan nilai warna, serta berbagai proses rendering penting untuk aktivitas seperti penyuntingan video, pemodelan 3D, dan permainan. Chip akselerator AI dirancang khusus untuk menangani tugas-tugas yang diperlukan dalam AI dengan lebih efisien.
Secara umum, GPU harus mampu memproses jumlah data yang sangat besar (meskipun tidak masif) dengan sangat cepat agar dapat merender grafik kompleks secara lancar dan real-time. GPU memprioritaskan operasi dengan latensi rendah untuk memastikan kualitas gambar yang tinggi, konstan, dan konsisten.
Meskipun kecepatan penting dalam model AI, kumpulan data AI biasanya jauh lebih besar dibandingkan permintaan rata-rata GPU. Tidak seperti GPU, akselerator AI dirancang untuk mengoptimalkan bandwidth dan biasanya juga menawarkan efisiensi energi yang lebih tinggi.
Meskipun GPU sering digunakan sebagai akselerator AI, GPU mungkin bukan pilihan terbaik dibandingkan akselerator AI yang lebih khusus. Perbedaan utama antara GPU serba guna dan chip AI khusus terletak pada spesialisasi, efisiensi, aksesibilitas, dan kegunaannya.
Untuk aplikasi AI, GPU bisa menjadi solusi serbaguna yang baik, seperti truk pickup yang menawarkan keseimbangan antara kecepatan mobil sport dan kekuatan kendaraan roda 18. Kendaraan roda 18 lebih lambat daripada mobil sport, tetapi mampu mengangkut lebih banyak kargo. Sebuah truk pickup dapat mengangkut beberapa kargo dan lebih cepat dari kendaraan roda 18, tetapi lebih lambat dari mobil sport.
GPU ini mirip dengan truk pikap-tetapi tergantung pada prioritas aplikasi AI, chip AI yang lebih khusus, seperti kendaraan yang lebih khusus, mungkin lebih disukai.
Unit pemrosesan grafis, yang kadang disebut GPU, diciptakan pada tahun 1990-an untuk mengurangi beban pemrosesan pada CPU, seiring meningkatnya penggunaan sistem operasi grafis dan permainan video yang lebih banyak menggunakan komputasi visual daripada berbasis teks.
Sejak penemuan komputer modern pada awal 1950-an, CPU secara historis bertanggung jawab atas tugas-tugas komputasi yang paling penting, termasuk semua pemrosesan yang diperlukan program, logika dan kontrol input/output (I/O).
Pada tahun 1990-an, video game dan desain berbantuan komputer (CAD) membutuhkan cara yang lebih efisien untuk mengubah data menjadi gambar. Tantangan ini mendorong para insinyur merancang GPU pertama dengan arsitektur chip unik yang mampu melakukan pemrosesan paralel.
Sejak tahun 2007, ketika Nvidia memperkenalkan platform pemrograman GPU CUDA, desain GPU telah berkembang pesat dengan berbagai aplikasi di berbagai industri, jauh melampaui pemrosesan grafis (meskipun rendering grafis masih menjadi aplikasi paling umum untuk sebagian besar GPU).
Meskipun ada ratusan jenis GPU yang memiliki kinerja dan efisiensi yang beragam, namun sebagian besar masuk ke dalam salah satu dari tiga categories:
Akselerator AI adalah perangkat keras yang digunakan untuk mempercepat aplikasi kecerdasan buatan, namun istilah ini paling sering merujuk pada chip AI khusus yang dioptimalkan untuk tugas-tugas tertentu dalam model AI.
Akselerator AI, meskipun dianggap perangkat keras yang sangat khusus, dibangun dan digunakan oleh perusahaan komputasi lama seperti IBM, Amazon Web Services (AWS), dan Microsoft, serta startup seperti Cerebras. Saat AI matang dan semakin populer, akselerator AI dan toolkit yang menyertainya menjadi lebih umum.
Sebelum penemuan akselerator AI khusus pertama, GPU tujuan umum (dan lanjutkan) sering digunakan dalam aplikasi AI, khususnya untuk kekuatan pemrosesan paralelnya yang canggih. Namun, seiring dengan kemajuan penelitian AI selama bertahun-tahun, para insinyur telah mencari solusi akselerator AI yang menawarkan peningkatan efisiensi daya dan pengoptimalan AI khusus.
Akselerator AI bervariasi dalam hal kinerja dan spesialisasi, dengan beberapa teknologi eksklusif yang hanya tersedia untuk produsen tertentu. Beberapa jenis akselerator AI yang paling menonjol meliputi:
Sementara GPU siap pakai memang menawarkan keuntungan tertentu (misalnya, ketersediaan, aksesibilitas) akselerator AI yang lebih khusus biasanya mengungguli teknologi lama dalam tiga bidang utama: kecepatan, efisiensi, dan desain.
Akselerator AI modern, termasuk GPU, jauh lebih cepat daripada CPU dalam memproses data berskala besar dengan latensi rendah. Kecepatan sangat penting untuk aplikasi kritis seperti sistem kendaraan otonom. GPU lebih cepat daripada CPU, tetapi ASIC yang dirancang khusus untuk aplikasi seperti visi komputer pada mobil yang mengemudi sendiri bahkan lebih cepat lagi.
Akselerator AI yang dirancang khusus untuk tugas tertentu bisa 100 hingga 1.000 kali lebih hemat energi dibandingkan GPU yang membutuhkan daya besar. Peningkatan efisiensi dapat secara drastis mengurangi biaya operasional dan, yang lebih penting, mengurangi dampak lingkungan secara signifikan.
Akselerator AI menggunakan arsitektur chip yang disebut desain heterogen, yang memungkinkan beberapa prosesor menangani tugas berbeda secara bersamaan, sehingga meningkatkan kinerja komputasi melalui pemrosesan paralel yang canggih.
Karena GPU dianggap sebagai akselerator AI sendiri, contoh penggunaannya sering tumpang tindih dengan perangkat keras AI yang lebih terspesialisasi. Pada waktunya, kita mungkin akan melihat GPU mengambil peranan belakang dalam aplikasi AI.
GPU serbaguna masih banyak digunakan baik di AI maupun jenis aplikasi lainnya, dan ini pasti akan Lanjutkan. GPU digunakan untuk berbagai aplikasi yang membutuhkan paralelisme lanjutan, termasuk yang berikut:
Seiring kematangan teknologi AI, perangkat keras khusus menjadi semakin umum digunakan. Akselerator AI ASIC menggabungkan kekuatan pemrosesan paralel GPU dengan menghilangkan fitur yang tidak diperlukan, dan digunakan dalam berbagai aplikasi yang terus berkembang, termasuk: