Akselerator kecerdasan buatan (AI), juga dikenal sebagai chip AI, prosesor pembelajaran mendalam, atau unit pemrosesan neural (NPU), adalah akselerator perangkat keras yang dibuat untuk mempercepat jaringan neural AI, pembelajaran mendalam, dan machine learning.
Seiring berkembangnya teknologi AI, akselerator AI sangat penting untuk memproses data dalam jumlah besar yang diperlukan untuk menjalankan aplikasi AI. Saat ini, contoh penggunaan akselerator AI mencakup smartphone, PC, robotika, kendaraan otonom, Internet of Things (IoT), komputasi edge, dan banyak lagi.
Selama beberapa dekade, sistem komputer bergantung pada akselerator (atau koprosesor) untuk berbagai tugas khusus. Contoh umum dari koprosesor termasuk unit pemrosesan grafis (GPU), kartu suara dan kartu video.
Tetapi dengan pertumbuhan aplikasi AI selama dekade terakhir, unit pemrosesan pusat tradisional (CPU) dan bahkan beberapa GPU tidak dapat memproses sejumlah besar data yang diperlukan untuk menjalankan aplikasi AI. Masuki akselerator AI, dengan kemampuan pemrosesan paralel khusus yang memungkinkan mereka melakukan miliaran perhitungan sekaligus.
Berlangganan Buletin Think
Seiring dengan berkembangnya industri AI ke dalam aplikasi dan bidang baru, akselerator AI sangat penting untuk mempercepat pemrosesan data yang diperlukan untuk membuat aplikasi AI dalam skala besar.
Tanpa akselerator AI seperti GPU, field programmable gate arrays (FPGA), dan sirkuit terintegrasi khusus aplikasi (ASIC) untuk mempercepat pembelajaran mendalam, terobosan dalam AI seperti ChatGPT akan memakan waktu lebih lama dan lebih mahal. Akselerator AI digunakan secara luas oleh beberapa perusahaan terbesar di dunia, termasuk Apple, Google, IBM, Intel, dan Microsoft.
Dengan kecepatan dan skalabilitas yang tinggi dalam industri teknologi AI yang bergerak cepat, akselerator AI menjadi sangat diperlukan dalam membantu perusahaan berinovasi dalam skala besar dan membawa aplikasi AI baru ke pasar lebih cepat. Akselerator AI lebih unggul dari rekan-rekan lama mereka dalam tiga cara penting: Kecepatan, efisiensi, dan desain.
Kecepatan
Akselerator AI jauh lebih cepat daripada CPU tradisional karena latensi yang jauh lebih rendah, ukuran penundaan dalam suatu sistem. Latensi rendah sangat penting dalam pengembangan aplikasi AI di bidang medis dan kendaraan otonom di mana penundaan dalam hitungan detik-bahkan milidetik-berbahaya.
Efisiensi
Akselerator AI dapat mencapai seratus hingga seribu kali lebih efisien daripada sistem komputasi standar lainnya. Baik chip akselerator AI besar yang digunakan di pusat data dan yang lebih kecil yang biasanya digunakan di perangkat edge menarik lebih sedikit daya dan menghilangkan jumlah panas yang lebih rendah daripada rekan-rekan lama mereka.
Desain
Akselerator AI memiliki apa yang dikenal sebagai arsitektur heterogen, yang memungkinkan beberapa prosesor untuk mendukung tugas-tugas yang terpisah, sebuah kemampuan yang meningkatkan kinerja komputasi ke tingkat yang dibutuhkan oleh aplikasi AI.
Akselerator AI sangat penting untuk aplikasi teknologi AI, namun, ada tantangan yang dihadapi industri yang perlu segera diselesaikan atau akan menghambat inovasi.
Sebagian besar akselerator AI dibuat secara eksklusif di Taiwan
60% semikonduktor dunia dan 90% chip canggihnya (termasuk akselerator AI) diproduksi di pulau Taiwan. Selain itu, perusahaan perangkat keras dan perangkat lunak AI terbesar di dunia, Nvidia, hampir secara eksklusif bergantung pada satu perusahaan - Taiwan Semiconductor Manufacturing Corporation (TSMC) - untuk akselerator AI-nya.
Model AI berkembang lebih cepat daripada desain akselerator AI
Model AI yang paling kuat saat ini membutuhkan lebih banyak daya komputasi daripada yang dapat ditangani oleh banyak akselerator AI, dan laju inovasi dalam desain chip tidak sejalan dengan inovasi yang terjadi dalam model AI.
Perusahaan menjajaki berbagai bidang seperti komputasi dalam memori dan kinerja serta fabrikasi yang ditingkatkan dengan algoritme AI untuk meningkatkan efisiensi, tetapi mereka tidak bergerak secepat peningkatan permintaan komputasi dari aplikasi yang didukung AI.
Akselerator AI membutuhkan lebih banyak daya daripada yang memungkinkan ukurannya
Akselerator AI berukuran kecil, sebagian besar diukur dalam satuan milimeter dan yang terbesar di dunia hanya seukuran iPad, sehingga sulit untuk mengarahkan jumlah energi yang dibutuhkan untuk menyalakannya ke ruang sekecil itu. Hal ini menjadi semakin sulit karena tuntutan komputasi dari beban kerja AI telah meningkat dalam beberapa tahun terakhir. Kemajuan perlu segera dilakukan dalam arsitektur jaringan pengiriman daya (PDN) di belakang akselerator AI atau kinerjanya akan mulai terpengaruh.
Karena desainnya yang unik dan perangkat keras khusus, akselerator AI meningkatkan kinerja pemrosesan AI secara signifikan bila dibandingkan dengan pendahulunya. Fitur yang dibuat khusus memungkinkan pemecahan algoritma AI yang kompleks pada tingkat yang jauh melebihi chip tujuan umum.
Akselerator AI biasanya terbuat dari bahan semikonduktor, seperti silikon, dan transistor yang terhubung ke sirkuit elektronik. Arus listrik yang mengalir melalui bahan itu dihidupkan dan dimatikan, menciptakan sinyal yang kemudian dibaca oleh perangkat digital. Pada akselerator tingkat lanjut, sinyal dinyalakan dan dimatikan miliaran kali per detik, sehingga memungkinkan sirkuit menyelesaikan komputasi yang rumit menggunakan kode biner.
Beberapa akselerator AI dirancang untuk tujuan tertentu sementara yang lain memiliki fungsionalitas yang lebih umum. Misalnya, NPU adalah akselerator AI yang dibuat khusus untuk pembelajaran mendalam, sementara GPU adalah akselerator AI yang dirancang untuk pemrosesan video dan gambar.
Bertugas terutama untuk menyelesaikan algoritma tingkat lanjut, kinerja akselerator AI sangat penting untuk berbagai operasi yang berhubungan dengan AI, seperti machine learning (ML), pembelajaran mendalam, dan masalah jaringan neural mendalam.
Mereka dapat memecahkan banyak algoritma sekaligus — dengan cepat dan akurat — karena cara unik mereka menerapkan sumber daya komputasi, terutama melalui pemrosesan paralel, arsitektur memori unik mereka dan fitur yang dikenal sebagai presisi berkurang.
Akselerator AI tercanggih saat ini dirancang untuk menangani masalah besar dan kompleks dengan membaginya menjadi masalah yang lebih kecil dan menyelesaikannya pada saat yang sama, sehingga meningkatkan kecepatannya secara eksponensial.
Pemrosesan paralel
Tidak ada fitur lain yang meningkatkan kinerja akselerator AI seperti kemampuannya untuk melakukan banyak komputasi sekaligus, tugas yang dikenal sebagai pemrosesan paralel. Tidak seperti chip lainnya, akselerator AI dapat menyelesaikan tugas dalam hitungan menit, detik, bahkan milidetik, yang sebelumnya membutuhkan waktu berjam-jam bahkan berhari-hari.
Kemampuan ini membuat mereka sangat diperlukan untuk teknologi AI yang mengandalkan pemrosesan data real time, seperti komputasi edge. Karena banyaknya algoritma yang kompleks dalam ML dan proses pembelajaran mendalam, akselerator AI sangat penting untuk kemajuan teknologi dan penerapannya.
Presisi berkurang untuk pelatihan AI
Untuk menghemat daya, akselerator AI dapat menggunakan fitur yang dikenal sebagai aritmatika presisi yang dikurangi. Jaringan neural masih sangat fungsional menggunakan angka titik apung 16-bit atau bahkan 8-bit, bukan 32 bit yang digunakan chip tujuan umum. Ini berarti mereka dapat mencapai kecepatan pemrosesan yang lebih cepat dengan pengeluaran energi yang lebih rendah tanpa mengorbankan akurasi.
Hierarki memori
Cara data dipindahkan dari satu tempat ke tempat lain dalam akselerator AI sangat penting untuk optimalisasi beban kerja AI. Akselerator AI menggunakan arsitektur memori yang berbeda dari chip tujuan umum, sehingga memungkinkan mereka mencapai latensi yang lebih rendah dan throughput yang lebih baik. Fitur desain khusus ini, termasuk cache on-chip dan memori bandwidth tinggi, sangat penting untuk mempercepat pemrosesan kumpulan data besar yang diperlukan untuk beban kerja AI berkinerja tinggi.
Akselerator AI dibagi menjadi dua arsitektur berdasarkan fungsinya: Akselerator AI untuk pusat data dan akselerator AI untuk kerangka kerja komputasi edge. Akselerator AI pusat data memerlukan arsitektur yang sangat dapat diskalakan dan chip besar, seperti Wafer-Scale Engine (WSE), yang dibangun oleh Cerebras untuk sistem pembelajaran mendalam, sementara akselerator AI yang dibangun untuk ekosistem komputasi edge lebih berfokus pada efisiensi energi dan kemampuan untuk memberikan hasil hampir real-time.
Integrasi skala wafer
Integrasi skala wafer, atau WSI, adalah proses untuk membangun jaringan chip AI yang sangat besar ke dalam satu chip 'super' untuk mengurangi biaya dan mempercepat kinerja model pembelajaran mendalam. Integrasi skala wafer yang paling populer adalah jaringan chip WSE-3 yang diproduksi oleh Cerebras dan dibuat dengan proses 5 nm TSMC, yang saat ini merupakan akselerator AI tercepat di dunia.
NPU
NPU, atau unit pemrosesan neural, adalah akselerator AI untuk pembelajaran mendalam dan jaringan neural serta persyaratan pemrosesan data yang unik untuk beban kerja ini. NPU dapat memproses data dalam jumlah besar lebih cepat daripada chip lain. Mereka dapat melakukan berbagai tugas AI yang terkait dengan machine learning, seperti pengenalan gambar dan jaringan neural di balik aplikasi AI dan ML populer seperti ChatGPT.
GPU
GPU—sirkuit elektronik yang dibuat untuk meningkatkan kinerja grafis komputer dan pemrosesan gambar—digunakan di berbagai perangkat termasuk kartu video, motherboard, dan ponsel. Namun, karena kemampuan pemrosesan paralelnya, mereka juga semakin banyak digunakan dalam pelatihan model AI. Salah satu metode populer adalah menghubungkan banyak GPU ke satu sistem AI untuk meningkatkan kekuatan pemrosesan sistem tersebut.
Field programmable gate arrays (FPGAs)
FPGA adalah akselerator AI yang sangat dapat disesuaikan yang bergantung pada pengetahuan khusus untuk diprogram ulang untuk tujuan tertentu. Tidak seperti akselerator AI lainnya, FPGA memiliki desain unik yang sesuai dengan fungsi tertentu, seringkali berkaitan dengan pemrosesan data secara real time. FPGA dapat diprogram ulang pada tingkat perangkat keras, memungkinkan tingkat penyesuaian yang jauh lebih tinggi. Aplikasi FPGA umum meliputi kedirgantaraan, Internet of Things (IoT) dan jaringan nirkabel.
Sirkuit terpadu khusus aplikasi (ASIC)
ASIC adalah akselerator AI yang telah dirancang dengan tujuan atau beban kerja tertentu, seperti pembelajaran mendalam dalam kasus akselerator WSE-3 ASIC yang diproduksi oleh Cerebras. Tidak seperti FPGA, ASIC tidak dapat diprogram ulang, tetapi karena dibuat dengan tujuan tunggal, ASIC biasanya mengungguli akselerator lain yang lebih umum. Salah satu contohnya adalah Tensor Processing Unit (TPU) Google, yang dikembangkan untuk jaringan neural machine learning menggunakan perangkat lunak TensorFlow milik Google sendiri.
Mulai dari ponsel cerdas dan PC hingga teknologi AI yang canggih seperti robotika dan satelit, akselerator AI memainkan peran penting dalam pengembangan aplikasi AI baru. Berikut adalah beberapa contoh bagaimana akselerator AI digunakan:
Akselerator AI dapat menangkap dan memproses data dalam waktu yang hampir real-time, sehingga sangat penting bagi pengembangan mobil tanpa pengemudi, drone, dan kendaraan otonom lainnya. Kemampuan pemrosesan paralel mereka tidak tertandingi, memungkinkan mereka untuk memproses dan menginterpretasikan data dari kamera dan sensor, serta memprosesnya sehingga kendaraan dapat bereaksi terhadap lingkungan sekitar. Misalnya, ketika mobil tanpa pengemudi tiba di lampu lalu lintas, akselerator AI mempercepat pemrosesan data dari sensornya yang memungkinkannya membaca sinyal lalu lintas dan posisi mobil lain di persimpangan.
Komputasi edge adalah proses yang membawa aplikasi dan daya komputasi lebih dekat ke sumber data seperti perangkat IoT, sehingga data dapat diproses dengan atau tanpa koneksi internet. Edge AI memungkinkan kemampuan AI dan akselerator AI untuk tugas ML untuk melakukan di edge, daripada memindahkan data ke pusat data untuk diproses. Hal ini mengurangi latensi dan efisiensi energi dalam banyak aplikasi AI.
Model bahasa besar (LLM) bergantung pada akselerator AI untuk membantu mereka mengembangkan kemampuan uniknya dalam memahami dan menghasilkan bahasa alami. Pemrosesan paralel akselerator AI membantu mempercepat proses dalam jaringan neural, mengoptimalkan kinerja aplikasi AI mutakhir seperti AI generatif dan chatbot.
Akselerator AI sangat penting untuk pengembangan industri robotika karena kemampuan ML dan visi komputer mereka. Seiring dengan pengembangan robotika yang disempurnakan dengan AI untuk berbagai tugas-mulai dari pendamping pribadi hingga alat bedah-AI akselerator akan terus memainkan peran penting dalam mengembangkan kemampuannya untuk mendeteksi dan bereaksi terhadap lingkungan dengan kecepatan dan keakuratan yang sama seperti manusia.
Temukan insight dan dapatkan hasil yang dapat ditindaklanjuti dan tepercaya tanpa memerlukan pemindahan data. Terapkan AI dan machine learning ke data perusahaan Anda yang paling berharga di IBM® Z menggunakan kerangka kerja dan alat sumber terbuka.
IBM watsonx.ai AI studio adalah bagian dari platform data dan AI IBM watsonx, menyatukan kemampuan AI generatif (gen AI) baru yang didukung oleh model dasar dan machine learning (ML) tradisional ke dalam studio yang kuat yang mencakup siklus hidup AI.
Infrastruktur AI IBM aman, dapat diskalakan, terbuka, tanpa ganti rugi, dan dirancang untuk mendukung beban kerja AI yang sangat dinamis dan membutuhkan kinerja tinggi, sambil menawarkan operasi AI berkelanjutan yang dapat menurunkan biaya, risiko, dan konsumsi energi.
Pelajari lebih lanjut tentang chip kecerdasan buatan (AI), mikrochip komputer yang dirancang khusus yang digunakan dalam pengembangan sistem AI.
Ketahui bagaimana kecerdasan buatan, atau AI, memungkinkan komputer dan mesin mensimulasikan kecerdasan manusia dan kemampuan pemecahan masalah.
Lihat bagaimana superkomputer, suatu bentuk komputasi berkinerja tinggi, menggunakan komputer yang kuat untuk mengurangi waktu keseluruhan untuk mendapatkan solusi.
Lihat bagaimana AI generatif, terkadang disebut gen AI, menciptakan konten orisinal-seperti teks, gambar, video, audio, atau kode perangkat lunak-sebagai respons terhadap perintah atau permintaan pengguna.
Pelajari lebih lanjut tentang perangkat lunak sumber terbuka, perangkat lunak yang dikembangkan dan dipelihara melalui kolaborasi terbuka dan tersedia bagi siapa saja untuk digunakan, secara gratis.
Pelajari lebih lanjut tentang pemrosesan bahasa alami (NLP), subbidang ilmu komputer dan kecerdasan buatan (AI) yang menggunakan machine learning untuk memungkinkan komputer memahami dan berkomunikasi dengan bahasa manusia.