Unit pemrosesan grafis (GPU) adalah sirkuit elektronik yang dirancang untuk mempercepat pemrosesan gambar dan grafis komputer pada berbagai perangkat. Perangkat ini termasuk kartu video, papan sistem, ponsel, dan komputer pribadi (PC).
Dengan melakukan kalkulasi matematis secara cepat, GPU mengurangi waktu yang dibutuhkan komputer untuk menjalankan banyak program. Hal ini menjadikannya sebagai pendukung penting dari teknologi yang sedang berkembang dan teknologi masa depan seperti machine learning (ML), kecerdasan buatan (AI) da blockchain.
Sebelum penemuan GPU pada 1990-an, pengontrol grafis di PC dan pengontrol video game mengandalkan unit pemrosesan pusat komputer (CPU) untuk menjalankan tugas. Sejak awal 1950-an, CPU telah menjadi prosesor yang paling penting dalam komputer, menjalankan semua instruksi yang diperlukan untuk menjalankan program, seperti logika, pengendalian dan input/output (I/O).
Namun demikian, dengan munculnya game pribadi dan desain dengan bantuan komputer (CAD) pada tahun 1990-an, industri ini memerlukan cara yang lebih cepat dan lebih efisien untuk memadukan piksel secara cepat.
Pada tahun 2007, Nvidia membangun CUDA™ (Compute Unified Device Architecture), sebuah platform perangkat lunak dan antarmuka pemrograman aplikasi (API) yang memberikan akses langsung ke kemampuan komputasi paralel GPU kepada para pengembang, sehingga mereka dapat menggunakan teknologi GPU untuk fungsi yang lebih luas daripada sebelumnya.
Pada tahun 2010-an, teknologi GPU mendapatkan kemampuan yang lebih besar lagi, mungkin yang paling signifikan adalah ray tracing (pembuatan gambar komputer dengan menelusuri arah cahaya dari kamera) dan tensor core (yang didesain untuk memungkinkan pembelajaran mendalam).
Karena kemajuan tersebut, GPU telah memainkan peran penting dalam akselerasi AI dan prosesor pembelajaran mesin, membantu mempercepat pengembangan aplikasi AI dan ML. Hari ini, selain memperkuat konsol permainan dan perangkat lunak pengeditan, GPU memanfaatkan fungsi perhitungan canggih yang vital bagi banyak perusahaan.
GPU memiliki memori akses cepat (RAM) tersendiri, sebuah memori elektronik yang digunakan untuk menyimpan kode dan data yang dapat diakses dan diubah oleh chip sesuai kebutuhan. GPU tingkat lanjut biasanya memiliki RAM yang telah dibangun untuk menampung volume data besar yang diperlukan untuk tugas-tugas intensif komputasi seperti pengeditan grafis, permainan atau contoh penggunaan AI/ML.
Dua jenis memori GPU yang populer adalah Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6) dan GDDR6X, generasi yang lebih baru. GDDR6X memakai 15% lebih sedikit daya per bit yang ditransfer daripada GDDR6, tetapi konsumsi daya keseluruhannya lebih tinggi karena lebih cepat. iGPU dapat diintegrasikan ke dalam CPU komputer atau dimasukkan ke dalam slot di sampingnya dan terhubung melalui port PCI express.
CPU dan GPU memiliki desain yang mirip, termasuk jumlah inti dan transistor yang sama untuk tugas pemrosesan, tetapi CPU lebih universal dalam fungsinya daripada GPU. GPU cenderung bertumpu pada tugas komputasi tunggal dan spesifik, seperti pemrosesan grafis atau machine learning.
CPU adalah jantung dan otak dari sistem komputer atau perangkat. Mereka menerima instruksi umum atau permintaan mengenai tugas dari program atau aplikasi perangkat lunak. Dan GPU memiliki tugas yang lebih spesifik, biasanya melibatkan pemrosesan gambar dan video beresolusi tinggi dengan cepat. GPU terus-menerus melakukan perhitungan matematis kompleks yang diperlukan untuk merender grafik atau fungsi intensif komputasi lainnya untuk menyelesaikan tugas mereka.
Salah satu perbedaan terbesar adalah bahwa CPU cenderung menggunakan lebih sedikit inti dan melakukan tugasnya dalam urutan linier. Namun, GPU memiliki ratusan-bahkan ribuan-inti, memungkinkan pemrosesan paralel yang mendorong kemampuan pemrosesan secepat kilat.
GPU pertama dibangun untuk mempercepat rendering grafis 3D, membuat adegan film dan video game tampak lebih realistis dan menarik. Chip GPU pertama, GeForce dari Nvidia, dirilis pada tahun 1999 dan segera diikuti oleh periode pertumbuhan pesat yang membuat kemampuan GPU memperluas ke area lain karena kemampuan pemrosesan paralel cepat.
Pemrosesan paralel, atau komputasi paralel, adalah jenis komputasi yang mengandalkan dua atau lebih prosesor untuk menyelesaikan subset yang berbeda dari keseluruhan tugas komputasi.
Sebelum adanya GPU, komputer generasi lama hanya dapat menjalankan satu program dalam satu waktu, seringkali membutuhkan waktu berjam-jam untuk menyelesaikan satu tugas. Fungsi pemrosesan paralel GPU melakukan banyak perhitungan atau tugas secara bersamaan, membuatnya lebih cepat dan lebih efisien daripada CPU di komputer lama.
Ada tiga jenis GPU:
GPU diskrit, atau dGPU, adalah prosesor grafis yang terpisah dari CPU perangkat, di mana informasi diambil dan diproses, memungkinkan komputer untuk berfungsi. GPU diskrit biasanya digunakan dalam aplikasi tingkat lanjut dengan persyaratan khusus, seperti pengeditan, pembuatan konten, atau gaming kelas atas. Itu adalah chip khusus dengan konektor ke papan sirkuit terpisah dan dipasang pada CPU menggunakan slot ekspres.
Salah satu GPU diskrit yang paling banyak digunakan adalah merek Intel Arc, yang dibuat untuk industri game PC.
GPU terintegrasi, atau iGPU, terpasang di dalam infrastruktur komputer atau perangkat dan biasanya ditempatkan di sebelah CPU. Dirancang pada tahun 2010-an oleh Intel, GPU terintegrasi menjadi lebih populer karena produsen seperti MSI, ASUS dan Nvidia menyadari kekuatan menggabungkan GPU dengan CPU daripada mengharuskan pengguna untuk menambahkan GPU melalui slot PCI Express sendiri. Mereka masih populer diantara pengguna laptop, gamer, dan orang lain yang menjalankan program komputasi intensif di PC mereka.
GPU virtual, atau vGPU, memiliki kemampuan yang sama dengan GPU diskrit atau terintegrasi tetapi tanpa perangkat keras. Itu adalah versi GPU berbasis perangkat lunak yang dibuat untuk instance cloud dan dapat digunakan untuk menjalankan beban kerja yang sama. Karena tidak memiliki perangkat keras, GPU virtual lebih sederhana dan lebih murah untuk dirawat daripada yang berbentuk fisik.
GPU cloud mengacu pada mengakses GPU virtual oleh penyedia layanan cloud (CSP). Dalam beberapa tahun terakhir, pasar untuk layanan GPU berbasis cloud telah berkembang, didorong oleh akselerasi komputasi cloud dan meningkatnya adopsi aplikasi berbasis AI/ML. Dalam laporan Fortune Business Insights, pasar GPU as a service (GPUaaS), yang bernilai USD 3,23 miliar pada tahun 2023, diproyeksikan tumbuh dari USD 4,31 miliar pada tahun 2024 menjadi USD 49,84 miliar pada tahun 2032. 1
Banyak CSP, termasuk Google Cloud Platform, Amazon Web Services (AWS), Microsoft dan IBM Cloud®, menawarkan akses sesuai permintaan ke layanan GPU yang dapat diskalakan untuk kinerja beban kerja yang dioptimalkan. CSP menyediakan sumber daya GPU tervirtualisasi bayar sesuai penggunaan di pusat data mereka. Mereka sering menggunakan perangkat keras GPU dari produsen GPU terkemuka seperti Nvidia, AMD, dan Intel untuk mendukung infrastruktur berbasis cloud mereka.
Penawaran GPU berbasis cloud biasanya dilengkapi dengan prakonfigurasi dan dapat diterapkan dengan mudah. Fitur-fitur ini membantu organisasi menghindari biaya di muka dan pemeliharaan terkait dengan GPU fisik. Selain itu, ketika perusahaan ingin mengintegrasikan beban kerja AI generatif untuk melakukan tugas-tugas komputasi lanjutan (misalnya, pembuatan konten, pembuatan gambar), skalabilitas dan efektivitas biaya yang disediakan oleh GPU berbasis cloud telah menjadi penting untuk bisnis perusahaan.
Tolok ukur GPU menyediakan proses untuk mengevaluasi kinerja GPU dalam berbagai kondisi. Alat perangkat lunak khusus ini memungkinkan pengguna (misalnya, pemain game, seniman 3D, pengembang sistem) untuk memperoleh insight tentang GPU mereka dan mengatasi masalah kinerja seperti kemacetan, latensi dan kompatibilitas dengan perangkat lunak dan perangkat keras lainnya.
Ada dua jenis utama tolok ukur GPU: tolok ukur sintetis dan dunia nyata. Tolok ukur sintetis menguji kinerja mentah GPU dalam lingkungan standar. Tolok ukur dunia nyata menguji kinerja GPU dalam aplikasi tertentu.
Alat tolok ukur GPU melihat metrik kinerja seperti kecepatan, kecepatan bingkai, dan bandwidth memori. Mereka juga memperhatikan efisiensi termal dan penggunaan daya untuk membantu pengguna mencapai kinerja optimal berdasarkan kebutuhan spesifik. Beberapa platform tolok ukur GPU juga menggabungkan tes yang mengukur seberapa baik solid-state drive (SSD) berinteraksi dengan GPU.
Seiring perkembangan GPU, peningkatan teknis membuatnya menjadi lebih dapat diprogram, dan lebih banyak kemampuan yang ditemukan. Secara khusus, kemampuannya untuk membagi tugas di lebih dari satu prosesor, pemrosesan paralel, telah membuatnya sangat diperlukan di berbagai aplikasi, seperti game PC, komputasi kinerja tinggi (HPC), workstation rendering 3D, komputasi pusat data, dan banyak lainnya.
Berikut adalah pandangan lebih dekat pada beberapa aplikasi teknologi GPU yang paling penting dan modern, termasuk:
AI dan banyak aplikasinya bisa dibilang tidak dapat berfungsi tanpa komputasi GPU. Kemampuan GPU untuk menyelesaikan masalah yang sangat teknis dengan lebih cepat dan efisien dibandingkan CPU tradisional membuatnya menjadi alat yang dibutuhkan. GPU adalah komponen penting dari banyak superkomputer, terutama untuk superkomputer AI.
GPU mendukung banyak aplikasi AI terkemuka, seperti superkomputer AI cloud-native IBM Vela, yang memerlukan kecepatan tinggi untuk melatih kumpulan data yang semakin besar. Model AI dilatih dan dijalankan pada GPU pusat data, yang biasanya dioperasikan oleh perusahaan yang melakukan penelitian ilmiah atau tugas komputasi intensif lainnya.
Machine learning, atau ML, mengacu pada disiplin khusus AI yang berkaitan dengan penggunaan data dan algoritma untuk meniru cara manusia belajar. Pembelajaran mendalam, atau DL, adalah bagian dari ML yang menggunakan neural networks untuk mensimulasikan proses pengambilan keputusan otak manusia. Teknologi GPU sangat penting untuk kedua bidang kemajuan teknologi.
Terkait ML dan DL, GPU memperkuat kemampuan model untuk memilah kumpulan data besar dan membuat analogi dengan cara yang mirip dengan manusia. GPU secara khusus meningkatkan area memori dan optimasi karena dapat melakukan banyak perhitungan sekaligus. Selain itu, GPU yang digunakan dalam ML dan DL menggunakan sumber daya yang lebih sedikit dibandingkan CPU tanpa penurunan daya atau akurasi.
Blockchain, buku besar yang digunakan untuk mencatat transaksi dan melacak aset dalam jaringan bisnis, sangat bergantung pada teknologi GPU, terutama ketika datang ke langkah yang disebut “proof of work” (bukti kerja). Di banyak blockchain yang banyak digunakan, seperti mata uang kripto, langkah bukti kerja sangat penting untuk validasi transaksi, memungkinkannya ditambahkan ke blockchain.
Industri game pertama kali memanfaatkan kekuatan GPU pada tahun 1990-an untuk meningkatkan pengalaman bermain game secara keseluruhan dengan kecepatan dan akurasi grafis yang lebih tinggi. Hari ini, gaming pribadi sangat membutuhkan komputasi yang tinggi karena skenario hyperreal, interaksi real-time dan dunia permainan imersif yang luas.
Tren dalam game seperti virtual reality (VR), kecepatan refresh yang lebih tinggi dan layar beresolusi lebih tinggi semua bergantung pada GPU untuk memberikan grafis dengan cepat dalam lingkungan komputasi yang lebih menuntut. GPU untuk gaming termasuk AMD Radeon, Intel Arc, dan Nvidia GeForce RTX.
Secara tradisional, waktu render yang lama telah menjadi pemblokir yang signifikan, baik pada aplikasi perangkat lunak penyuntingan konsumen maupun profesional. Sejak penemuannya, GPU terus mengurangi waktu pemrosesan dan sumber daya komputasi dalam produk pengeditan video seperti Final Cut Pro dan Adobe Premiere.
Saat ini, GPU yang dilengkapi dengan pemrosesan paralel dan AI terintegrasi dapat mempercepat kemampuan pengeditan secara dramatis bagi segala sesuatu, mulai dari perangkat pengeditan profesional hingga aplikasi ponsel.
Peningkatan dalam pemrosesan, kinerja, dan kualitas grafis telah membuat GPU menjadi sangat penting untuk mengubah industri. Saat ini, pembuat konten yang memiliki kartu grafis berkinerja terbaik dan internet berkecepatan tinggi dapat menghasilkan konten yang realistis, meningkatkanya dengan AI dan machine learning, mengedit, dan melakukan streaming ke audiens langsung lebih cepat dari sebelumnya, semua sebagian besar berkat kemajuan teknologi GPU.
Dalam sistem HPC , GPU menggunakan kemampuan pemrosesan paralel untuk mempercepat tugas-tugas yang intensif secara komputasi, seperti perhitungan matematika yang rumit dan analisis data besar di berbagai bidang seperti penemuan obat, produksi energi, dan astrofisika.
GPU banyak dicari di berbagai industri untuk meningkatkan pengalaman dan kemampuan pelatihan aplikasi profesional yang kompleks, seperti penjelajahan produk, gambar CAD, dan pencitraan medis atau seismik/geofisika. GPU sangat penting dalam visualisasi tingkat lanjut (seperti pelatihan profesional petugas pemadam kebakaran, astronot, guru sekolah) dengan animasi 3D, AI dan ML, rendering tingkat lanjut, dan pengalaman virtual reality (VR) dan augmented reality (AR).
Selain itu, para insinyur dan ilmuwan iklim menggunakan aplikasi simulasi yang didukung oleh GPU untuk memprediksi kondisi cuaca, dinamika fluid, astrofisika, dan bagaimana kendaraan berperilaku dalam kondisi tertentu. Nvidia RTX adalah salah satu GPU terkuat yang tersedia untuk visualisasi ilmiah dan eksplorasi energi.
Dengan berkembangnya aplikasi AI dan gen AI, penting untuk mengenali dua perangkat pemrosesan khusus lainnya dan bagaimana perbandingannya dengan GPU. Bisnis perusahaan saat ini menggunakan ketiga jenis prosesor, CPU, GPU, dan FPGA, tergantung pada kebutuhan spesifik mereka.
Unit pemrosesan neural (NPU) adalah mikroprosesor komputer khusus yang dirancang untuk meniru fungsi pemrosesan otak manusia. Juga dikenal sebagai akselerator AI, chip AI, atau prosesor pembelajaran mendalam, NPU adalah akselerator perangkat keras yang dibangun untuk mempercepat jaringan neural, pembelajaran mendalam, dan machine learning AI.
NPU dan GPU keduanya meningkatkan CPU sistem, namun terdapat perbedaan mencolok. GPU terdiri dari ribuan inti untuk mencapai tugas komputasi yang cepat dan tepat yang diperlukan untuk rendering grafis dan gaming. NPU dirancang untuk mempercepat beban kerja AI dan gen AI, memprioritaskan aliran data dan hierarki memori secara real-time, dengan konsumsi daya dan latensi yang rendah.
GPU dengan kinerja tinggi sangat cocok untuk pembelajaran mendalam atau aplikasi AI karena mereka dapat menangani volume besar perhitungan dalam beberapa inti dengan sejumlah besar memori yang tersedia. Field programming gate array (FPGA) adalah jenis sirkuit terpadu serbaguna yang dapat diprogram ulang untuk fungsi yang berbeda. Dibandingkan dengan GPU, FPGA dapat memberikan fleksibilitas dan efisiensi biaya untuk memberikan kinerja yang lebih baik dalam aplikasi pembelajaran mendalam yang membutuhkan latensi rendah seperti pencitraan medis dan komputasi edge.
Semua tautan berada di luar IBM.
1 GPU as a Service Market Size, Share & Industry Analysis, Fortune Business Insights, Fortune Business Insights, 9 Desember 2024
IBM Cloud Virtual Server for VPC merupakan rangkaian server virtual Intel x86, IBM Z, dan IBM LinuxONE yang dibangun pada IBM Cloud Virtual Private Cloud.
Server khusus IBM Cloud menyediakan solusi hosting web yang dapat diskalakan dengan lalu lintas backhaul gratis tanpa batas dan opsi penyesuaian yang luas.
Dapatkan kemampuan baru dan dorong ketangkasan bisnis dengan layanan konsultasi cloud IBM. Temukan cara menciptakan solusi dengan berkreasi bersama, mempercepat transformasi digital, dan mengoptimalkan kinerja melalui strategi hybrid cloud dan kemitraan pakar.