Perangkat keras AI mengacu pada komponen yang dirancang untuk sistem kecerdasan buatan (AI) atau diadaptasi dari komputasi kinerja tinggi (HPC) untuk mengelola tuntutan pelatihan dan menerapkan model AI yang intensif.
Sistem AI, seperti model bahasa besar (LLM) atau neural network, memerlukan perangkat keras dengan bandwidth tinggi untuk memproses jenis kumpulan data besar yang digunakan oleh machine learning (ML), pembelajaran mendalam (DL), dan jenis algoritma AI lainnya untuk mereplikasi cara manusia berpikir, belajar, dan memecahkan masalah.
Sementara perangkat keras untuk keperluan umum, seperti unit pemrosesan pusat (central processing unit atau CPU) umum, dapat melakukan sebagian besar tugas komputasi, infrastruktur AI membutuhkan daya komputasi yang jauh lebih besar. Untuk beban kerja AI yang berat, seperti yang terkait dengan pengembangan dan pelatihan AI, perangkat keras AI seperti akselerator AI dan chip AI menawarkan pengoptimalan tertentu yang lebih cocok untuk skalabilitas dan pengoptimalan ekosistem.
Karena industri terus berkembang pesat, terobosan AI menjadi berita utama hampir setiap hari. Seiring kita memasuki era AI, perangkat keras AI membentuk komponen infrastruktur penting yang mendukung aplikasi AI yang mengesankan ini.
Pengenalan wajah, misalnya, sebuah aplikasi AI yang sudah biasa kita gunakan, sangat bergantung pada perangkat keras AI untuk dapat bekerja. Itu harus memproses gambar Anda secara lokal, memeriksanya terhadap gambar yang disetujui, dan mengenali serta mengidentifikasi variasi normal apa pun untuk membuka kunci tablet atau ponsel Anda. Tanpa perangkat keras AI, teknologi seperti ID wajah atau asisten pintar akan kurang praktis dan lebih mahal.
Berikut ini adalah beberapa manfaat utama perangkat keras AI:
Perangkat keras AI dioptimalkan untuk menjalankan beban kerja AI yang kompleks dan menggunakan banyak sumber daya dengan kecepatan tinggi. Meski chip AI yang berbeda mengambil pendekatan yang berbeda untuk meningkatkan kecepatan, mereka semua umumnya mendapat manfaat dari komputasi paralel, sebuah proses yang membagi tugas besar dan multibagian menjadi langkah-langkah yang lebih kecil dan lebih sederhana.
Sementara CPU tujuan umum menggunakan pemrosesan berurutan untuk menyelesaikan tugas secara berurutan, satu langkah demi satu langkah, chip AI menggunakan pemrosesan paralel, melalui arsitektur perangkat keras khusus untuk melakukan ribuan, bahkan miliaran, perhitungan secara bersamaan. Dengan membagi beban kerja AI yang kompleks menjadi beberapa bagian yang lebih kecil yang dapat dilakukan secara paralel, perangkat keras AI dapat meningkatkan kecepatan pemrosesan secara eksponensial.
Jika tidak dirancang khusus untuk beroperasi dalam sistem AI yang spesifik, sebagian besar perangkat keras AI setidaknya dibuat khusus untuk jenis operasi intensif yang umum terjadi pada aplikasi AI.
Jenis perangkat keras AI tertentu dapat diprogram ulang pada tingkat perangkat keras. Kemampuan ini berarti bahwa mereka dapat dengan mudah diubah, diuji, dan dikalibrasi ulang untuk contoh penggunaan yang sangat khusus. Lainnya direkayasa khusus untuk aplikasi AI yang kurang umum. Meskipun beberapa perangkat keras AI awalnya dibangun untuk tujuan lain, perangkat keras ini dibangun untuk memenuhi tolok ukur kinerja tinggi untuk tugas-tugas AI yang menantang yang tidak dapat diselesaikan oleh perangkat keras tujuan umum.
Secara historis, teknologi AI terkenal sangat boros energi. Hal yang sama berlaku untuk berbagai jenis perangkat keras AI yang dikembangkan atau digunakan kembali untuk operasi AI. Namun, seiring berjalannya waktu, perangkat keras AI semakin hemat energi, dan sudah jauh lebih efisien daripada perangkat keras tradisional, yang secara alami kurang cocok untuk menyelesaikan beban kerja AI yang berat.
Perangkat keras AI modern dan generasi berikutnya, dengan fitur-fitur seperti aritmatika presisi rendah, memungkinkan perangkat keras AI menyelesaikan beban kerja dengan transistor yang lebih sedikit dan karenanya mengonsumsi lebih sedikit energi. Peningkatan ini tidak hanya lebih baik untuk lingkungan, tetapi juga berdampak positif pada keuntungan.
Meskipun kesalahan sesekali yang disebut halusinasi AI adalah hal yang lumrah di antara beberapa jenis model AI, dalam aplikasi yang mengutamakan akurasi, AI membantu mencegah output yang tidak akurat. Untuk aplikasi penting seperti kedokteran, perangkat keras AI modern sangat penting untuk mengurangi halusinasi dan memastikan hasil seakurat mungkin.
Jenis perangkat keras AI yang paling umum adalah chip AI, prosesor microchip semikonduktor canggih yang berfungsi seperti CPU khusus. Produsen besar seperti Nvidia, Intel, dan AMD, serta perusahaan rintisan seperti Cerebras Systems, mendesain sirkuit terpadu ini dengan fitur berbagai jenis arsitektur chip. Tujuannya adalah membuatnya lebih cocok dengan berbagai jenis solusi AI, meningkatkan efisiensi energi, dan mengurangi hambatan.
Meskipun perangkat keras AI juga mencakup jenis perangkat keras generasi berikutnya lainnya, seperti interkoneksilatensi rendah untuk memberikan hasil komputasi real-time, dua kategori utama perangkat keras AI adalah prosesor dan memori.
Prosesor dengan kinerja tinggi seperti unit pemrosesan grafis (GPU), unit pemrosesan tensor (TPU), unit pemrosesan neural (NPU), sirkuit terpadu aplikasi khusus (ASIC), dan array gerbang terprogram lapangan (FPGA) adalah jenis perangkat keras AI yang paling umum. Prosesor, seperti chip AI, menyediakan daya komputasi untuk menangani beban kerja AI yang kompleks. Meskipun prosesor canggih ini sering kali menuntut konsumsi daya yang tinggi, kemajuan berkelanjutan dalam perangkat keras AI berupaya meningkatkan efisiensi energi pada setiap siklus baru.
Memori memainkan peran penting dalam infrastruktur sebagian besar komputer, termasuk mesin yang mendukung AI. Arsitektur dan perangkat penyimpanan memori memastikan bahwa sistem AI memiliki akses cepat ke data dan instruksi yang diperlukan untuk menyelesaikan tugas AI. Kapasitas memori dan kecepatan sistem secara langsung memengaruhi kemampuan kinerja. Memori yang tidak mencukupi dapat menciptakan hambatan yang memperlambat atau menghambat semua operasi sistem, bukan hanya beban kerja AI.
Namun, tidak semua memori dibuat sama dan sementara semua jenis memori memiliki tempatnya, beberapa lebih baik dioptimalkan untuk aplikasi AI spesifik dan umum daripada yang lain. Dalam sistem AI, berbagai jenis memori sering kali digunakan bersama untuk berbagai bagian proses AI, dengan persyaratan khusus yang bergantung pada proyek unik atau tuntutan operasional.
Contoh penggunaan perangkat keras AI sama besar dan luasnya dengan AI itu sendiri. Seperti halnya teknologi AI telah meminjam perangkat keras dari pemrosesan grafis kelas atas dan komputasi berkinerja tinggi, teknologi ini sekarang menggunakan perangkat keras AI untuk meningkatkan operasinya sendiri. Dari pusat data hingga drive-thru makanan cepat saji, perangkat keras AI berguna untuk setiap aplikasi teknologi AI.
Bahkan, Anda mungkin menggunakan perangkat keras AI untuk membaca artikel ini. Chip AI makin banyak digunakan di laptop dan perangkat mobile dari produsen seperti Apple dan Google, digunakan untuk meningkatkan kinerja untuk tugas AI mobile seperti pengenalan suara dan pengeditan foto. Perangkat keras AI tumbuh kuat dan cukup ringkas untuk menangani banyak tugas ini secara lokal, mengurangi bandwidth, dan meningkatkan pengalaman pengguna.
Di tempat lain, perangkat keras AI menjadi komponen berharga dalam infrastruktur komputasi cloud. GPU dan TPU tingkat Enterprise yang mendukung AI bisa sangat mahal, tetapi penyedia seperti IBM, Oracle, dan Microsoft menawarkan akses yang dapat disewa ke prosesor yang kuat ini melalui layanan cloud mereka sebagai alternatif yang hemat biaya.
Beberapa aplikasi tambahan untuk perangkat keras AI meliputi yang berikut ini.
Perangkat keras AI adalah komponen penting dalam pengembangan mobil swakemudi dan kendaraan otonom. Kendaraan ini menggunakan chip AI untuk memproses dan menginterpretasikan data dalam jumlah besar dari kamera dan sensor, sehingga memungkinkan reaksi waktu nyata yang membantu mencegah kecelakaan dan memastikan keselamatan penumpang dan pejalan kaki.
Perangkat keras AI menawarkan jenis paralelisme yang diperlukan untuk hal-hal seperti visi komputer, yang membantu komputer "melihat" dan menafsirkan warna lampu berhenti atau lalu lintas di persimpangan.
Komputasi edge adalah kerangka kerja komputasi yang berkembang pesat yang menggerakkan aplikasi perusahaan dan kelebihan daya komputasi lebih dekat ke sumber data seperti perangkat Internet of Things (IoT) dan server edge lokal. Karena infrastruktur digital kita kian bergantung pada komputasi cloud, komputasi edge menawarkan kecepatan bandwidth yang lebih baik dan keamanan yang lebih kuat bagi mereka yang peduli dengan peningkatan privasi.
Demikian pula, edge AI berusaha untuk mendekatkan operasi AI dengan pengguna. Perangkat keras AI menjadi komponen yang berguna dalam infrastruktur edge, memanfaatkan mesin dan algoritma pembelajaran mendalam untuk memproses data dengan lebih baik di sumbernya, mengurangi latensi dan mengurangi konsumsi energi.
Meskipun teknologi AI telah dikembangkan selama beberapa dekade, baru-baru ini teknologi ini benar-benar menjadi sorotan, sebagian karena terobosan teknologi gen AI seperti ChatGPT dan Midjourney. Alat seperti ini menggunakan model bahasa besar dan pemrosesan bahasa alami untuk menafsirkan ucapan alami dan menghasilkan konten baru berdasarkan input pengguna.
Gunakan kerangka kerja dan alat sumber terbuka untuk menerapkan AI dan machine learning pada data perusahaan yang paling berharga di mainframe IBM zSistem.
IBM menyediakan solusi infrastruktur AI untuk mempercepat dampak di seluruh perusahaan Anda dengan strategi hybrid sesuai peruntukan.
Buka nilai data perusahaan dengan IBM Consulting, membangun organisasi berbasis insight yang memberikan keuntungan bisnis.