Unit pemrosesan saraf (NPU) dan unit pemrosesan grafis (GPU) keduanya melengkapi unit pemrosesan pusat (CPU) utama sistem, dan perbedaan mendasar antara keduanya bermuara pada arsitektur chip dan kemampuan pemrosesan.
GPU berisi ribuan inti untuk mencapai tugas komputasi yang cepat dan tepat yang diperlukan untuk rendering grafis. NPU memprioritaskan aliran data dan hierarki memori untuk memproses beban kerja AI yang lebih baik secara real-time.
Kedua jenis prosesor mikro ini unggul dalam jenis pemrosesan paralel yang digunakan dalam AI, tetapi NPU dibuat khusus untuk tugas machine learning (ML) dan kecerdasan buatan.
Unit pemrosesan neural (NPU) sedang naik daun, tetapi mengapa teknologi yang sudah berusia hampir satu dekade ini tiba-tiba mencuri perhatian? Jawabannya berkaitan dengan kemajuan terbaru dalam AI generatif (kecerdasan buatan) yang menghidupkan kembali minat publik pada aplikasi AI, dan dengan sendirinya, chip akselerator AI seperti NPU dan GPU.
Buletin industri
Tetap terinformasi tentang tren industri yang paling penting—dan menarik—tentang AI, otomatisasi, data, dan di luarnya dengan buletin Think. Lihat Pernyataan Privasi IBM®.
Langganan Anda akan disediakan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM® kami untuk informasi lebih lanjut.
Arsitektur NPU sangat berbeda dengan CPU atau GPU. Dirancang untuk mengeksekusi instruksi secara berurutan, CPU memiliki inti pemrosesan yang lebih sedikit daripada GPU, yang memiliki fitur lebih banyak inti dan dirancang untuk operasi yang menuntut yang membutuhkan pemrosesan paralel tingkat tinggi.
Ketika CPU berjuang dengan tugas pemrosesan paralel dan GPU unggul dalam hal konsumsi energi yang tinggi, arsitektur NPU berkembang pesat dengan meniru cara otak manusia memproses data. Tidak hanya menambahkan inti tambahan, NPU mencapai paralelisme tinggi dengan konsumsi energi yang lebih sedikit melalui sejumlah fitur dan teknik unik:
Saat membandingkan NPU dan GPU, berguna untuk menilai kinerja di seluruh fitur utama.
Memasukkan NPU ke dalam sistem terintegrasi menawarkan sejumlah keunggulan yang menonjol dibandingkan prosesor tradisional dalam hal kecepatan, efisiensi, dan kenyamanan. Manfaatnya mencakup yang berikut:
Sebagai prosesor bersama, NPU telah digunakan selama beberapa tahun, biasanya diintegrasikan dengan GPU untuk mendukung dalam tugas-tugas tertentu yang berulang. NPU terus menjadi prosesor berharga dalam teknologi tingkat konsumen (seperti AI Copilot dari Microsoft Windows) dan berbagai perangkat Internet of Things (IoT) (seperti pengeras suara pintar yang menggunakan NPU untuk memproses pengenalan suara).
Namun, perkembangan terbaru dalam teknologi AI semakin menyoroti jenis prosesor ini karena model AI yang lebih canggih menggiring alat AI tingkat konsumen ke dalam percakapan populer. Dirancang khusus untuk tugas AI yang menuntut, seperti pemrosesan bahasa alami, seiring dengan meningkatnya minat pada AI tingkat konsumen, begitu pula minat pada NPU.
Contoh penggunaan utama untuk NPU meliputi hal berikut:
Mendahului NPU, GPU telah lama disukai untuk tugas komputasi yang membutuhkan pemrosesan paralel intensif kinerja. Awalnya dirancang untuk menangani grafik kompleks untuk video game dan perangkat lunak gambar/video, GPU terus digunakan dalam game PC dan konsol, serta virtual dan augmented reality, komputasi kinerja tinggi (HPC), rendering 3D, pusat data, dan aplikasi lainnya.
Berikut adalah gambaran lebih dekat tentang beberapa aplikasi modern yang paling penting dari teknologi GPU:
NPU paling baik digunakan dalam sistem terintegrasi yang mengoptimalkan operasi untuk mengalokasikan jenis sumber daya tertentu ke jenis prosesor tertentu. Dirancang untuk komputasi linier yang tepat, CPU paling baik dialokasikan untuk proses tujuan umum seperti manajemen sistem dan sumber daya, sementara GPU dikhususkan untuk beban kerja intens yang memanfaatkan komputasi paralel.
Ketika aplikasi kecerdasan buatan menjadi lebih umum, NPU yang lebih khusus sebaiknya diterapkan sebagai pelengkap CPU dan GPU untuk menangani tugas-tugas khusus AI dan ML dengan latensi rendah dan pemrosesan paralel yang sangat hemat energi.
Gunakan kerangka kerja dan alat sumber terbuka untuk menerapkan AI dan machine learning pada data perusahaan yang paling berharga di mainframe IBM zSistem.
IBM menyediakan solusi infrastruktur AI untuk mempercepat dampak di seluruh perusahaan Anda dengan strategi hybrid sesuai peruntukan.
Buka nilai data perusahaan dengan IBM Consulting, membangun organisasi berbasis insight yang memberikan keuntungan bisnis.