Tren AI terbaru, dipersembahkan oleh para pakar
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Inferensi kecerdasan buatan (AI) adalah kemampuan model AI terlatih untuk mengenali pola dan menarik kesimpulan dari informasi yang belum pernah dilihat sebelumnya.
Inferensi AI sangat penting untuk kemajuan teknologi AI dan mendukung penerapannya yang paling menarik, seperti AI generatif, kemampuan yang mendukung aplikasi ChatGPT yang populer. Model AI mengandalkan inferensi AI untuk meniru cara orang berpikir, bernalar, dan menanggapi perintah.
Inferensi AI dimulai dengan melatih model AI pada kumpulan data besar dengan algoritma pengambilan keputusan. Model AI terdiri dari algoritma pengambilan keputusan yang dilatih menggunakan neural network—model bahasa besar (LLM) yang dibangun seperti otak manusia. Misalnya, model AI yang dirancang untuk fungsi pengenalan wajah mungkin dilatih menggunakan jutaan gambar wajah manusia. Akhirnya, model akan belajar mengidentifikasi secara akurat ciri-ciri seperti warna mata, bentuk hidung, dan warna rambut, dan kemudian dapat menggunakannya untuk mengenali seseorang dalam gambar.
Meskipun berkaitan erat, inferensi AI dan machine learning (ML) adalah dua langkah berbeda dalam siklus hidup model AI.
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Jika model AI tidak dilatih pada kumpulan data memadai yang sesuai dengan penerapannya, model tersebut tidak akan efektif. Mengingat sifat teknologi ini yang sensitif dan ketatnya pengawasannya di media1, perusahaan perlu berhati-hati. Namun dengan penerapannya yang menjangkau berbagai industri dan menawarkan potensi transformasi digital dan inovasi yang dapat diskalakan, manfaatnya banyak sekali:
Meskipun manfaat dari inferensi AI sangat banyak, sebagai teknologi yang masih muda dan berkembang pesat, teknologi ini juga bukan tanpa tantangan. Berikut adalah beberapa masalah yang dihadapi industri yang harus dipertimbangkan oleh bisnis yang mempertimbangkan berinvestasi dalam AI:
Inferensi AI adalah proses kompleks yang melibatkan pelatihan model AI pada kumpulan data yang sesuai hingga model tersebut dapat menyimpulkan respons yang akurat. Ini adalah proses yang sangat intensif komputasi, membutuhkan perangkat keras dan perangkat lunak khusus. Sebelum melihat proses pelatihan model AI untuk inferensi AI, mari kita jelajahi beberapa perangkat keras khusus yang memungkinkannya terjadi:
Unit pemrosesan pusat (CPU) adalah komponen fungsional utama komputer. Dalam pelatihan dan inferensi AI, CPU menjalankan sistem operasi dan membantu mengelola sumber daya komputasi yang diperlukan untuk tujuan pelatihan.
Unit pemrosesan grafis (GPU), atau sirkuit elektronik yang dibangun untuk pemrosesan gambar dan grafis komputer berkinerja tinggi, digunakan di berbagai perangkat, termasuk kartu video, motherboard, dan ponsel. Namun, karena kemampuan pemrosesan paralelnya, GPU juga makin banyak digunakan dalam pelatihan model AI. Salah satu metode adalah menghubungkan banyak GPU ke sistem AI tunggal untuk meningkatkan daya pemrosesan sistem itu.
Field-programmable gate array (FPGA) adalah akselerator AI yang sangat dapat disesuaikan yang bergantung pada pengetahuan khusus untuk diprogram ulang untuk tujuan tertentu. Tidak seperti akselerator AI lainnya, FPGA memiliki desain unik yang sesuai dengan fungsi tertentu, sering kali berkaitan dengan pemrosesan data secara real-time, yang sangat penting untuk inferensi AI. FPGA dapat diprogram ulang pada tingkat perangkat keras, memungkinkan tingkat penyesuaian yang lebih tinggi.
ASIC adalah akselerator AI yang dirancang dengan tujuan atau beban kerja tertentu, seperti pembelajaran mendalam untuk kasus akselerator ASIC WSE-3 yang diproduksi oleh Cerebras. ASIC membantu ilmuwan data mempercepat kemampuan inferensi AI dan menurunkan biaya. Tidak seperti FPGA, ASIC tidak dapat diprogram ulang, tetapi karena dibuat dengan tujuan tunggal, ASIC biasanya mengungguli akselerator lain yang lebih umum. Salah satu contohnya adalah Tensor Processing Unit (TPU) Google, yang dikembangkan untuk neural network machine learning menggunakan TensorFlow milik Google sendiri.
Perusahaan yang tertarik untuk berinvestasi dalam aplikasi AI sebagai bagian dari perjalanan transformasi digital mereka harus mengedukasi diri mereka sendiri tentang manfaat dan tantangan inferensi AI. Bagi mereka yang telah menyelidiki berbagai aplikasinya secara menyeluruh dan siap untuk menggunakannya, berikut ini adalah lima langkah untuk membangun inferensi AI yang efektif:
Penyiapan data sangat penting untuk menciptakan model dan aplikasi AI yang efektif. Perusahaan dapat membuat kumpulan data untuk model AI untuk melatih penggunaan data dari dalam organisasi mereka atau dari luar. Untuk hasil yang optimal, perusahaan biasanya menggunakan kombinasi keduanya. Bagian penting lain dari menyusun data yang akan dilatih oleh AI Anda adalah pembersihan data—penghapusan entri duplikat dan penyelesaian masalah pemformatan yang ada.
Setelah kumpulan data disusun, langkah selanjutnya adalah pemilihan model AI yang tepat untuk aplikasi Anda. Model tersedia dalam rentang dari yang sederhana hingga kompleks, dengan model yang lebih kompleks mampu mengakomodasi lebih banyak input dan menyimpulkan pada tingkat yang lebih halus daripada model yang kurang kompleks. Pada langkah ini, penting untuk memperjelas kebutuhan Anda, karena melatih model yang lebih kompleks dapat membutuhkan lebih banyak waktu, uang, dan sumber daya lainnya daripada melatih model yang lebih sederhana.
Untuk mendapatkan hasil yang diinginkan dari aplikasi AI, bisnis biasanya harus melalui banyak putaran pelatihan AI yang intens. Saat model berlatih, keakuratan inferensi mereka akan makin tajam dan jumlah sumber daya komputasi yang diperlukan untuk mencapai inferensi tersebut, seperti daya komputasi dan latensi, akan makin berkurang. Saat makin matang, model akan bergeser ke fase baru di mana model dapat mulai membuat inferensi tentang data baru dari data yang dipelajarinya. Ini adalah langkah yang menarik karena Anda dapat melihat model Anda mulai beroperasi sesuai dengan desainnya.
Sebelum model Anda layak dioperasikan, penting bagi Anda untuk memeriksa dan memantau output-nya untuk mengetahui adanya ketidakakuratan, bias, atau masalah privasi data. Pascapemrosesan, demikian fase ini kadang-kadang disebut, adalah tempat Anda membuat proses langkah demi langkah untuk memastikan keakuratan model Anda. Fase pascapemrosesan adalah momen untuk membuat metodologi yang akan memastikan bahwa AI Anda memberi Anda jawaban yang Anda inginkan dan berfungsi seperti yang dimaksudkan.
Setelah pemantauan dan pascapemrosesan yang ketat, model AI Anda siap diterapkan untuk penggunaan bisnis. Langkah terakhir ini mencakup implementasi arsitektur dan sistem data yang akan memungkinkan model AI Anda berfungsi, serta pembuatan prosedur manajemen perubahan untuk mengedukasi para pemangku kepentingan tentang cara menggunakan aplikasi AI Anda dalam peran mereka sehari-hari.
Bergantung pada jenis aplikasi AI yang dibutuhkan perusahaan, ada berbagai jenis inferensi AI yang dapat mereka pilih. Jika bisnis ingin membangun model AI untuk digunakan dengan aplikasi Internet of Things (IoT), inferensi streaming (dengan kemampuan pengukurannya) kemungkinan merupakan pilihan yang paling tepat. Namun, jika model AI dirancang untuk berinteraksi dengan manusia, inferensi online (dengan kemampuan LLM) akan lebih cocok. Berikut adalah tiga jenis inferensi AI dan karakteristik yang membuatnya unik.
Inferensi dinamis, juga dikenal sebagai inferensi online, adalah jenis inferensi AI tercepat dan digunakan dalam aplikasi AI LLM paling populer, seperti ChatGPT milik OpenAI. Inferensi dinamis membuat output dan prediksi begitu diminta dan, setelah itu, membutuhkan latensi rendah dan akses cepat ke data agar berfungsi. Karakteristik lain dari inferensi dinamis adalah bahwa output dapat datang begitu cepat sehingga tidak ada waktu untuk meninjaunya sebelum mencapai pengguna akhir. Hal ini menyebabkan beberapa perusahaan menambahkan lapisan pemantauan antara output dan pengguna akhir untuk memastikan kontrol kualitas.
Inferensi batch menghasilkan prediksi AI secara offline dengan menggunakan sejumlah besar data. Dengan pendekatan inferensi batch, data yang telah dikumpulkan sebelumnya kemudian diterapkan pada algoritma ML. Meskipun tidak ideal untuk situasi di mana output diperlukan dalam beberapa detik atau kurang, inferensi batch sangat cocok untuk prediksi AI yang diperbarui secara teratur sepanjang hari atau selama seminggu, seperti dasbor penjualan atau pemasaran atau penilaian risiko.
Inferensi streaming menggunakan pipeline data, biasanya dipasok melalui pengukuran reguler dari sensor, dan memasukkannya ke dalam algoritma yang menggunakan data untuk terus melakukan perhitungan dan prediksi. Aplikasi IoT, seperti AI yang digunakan untuk memantau pembangkit listrik atau lalu lintas di kota melalui sensor yang terhubung ke internet, mengandalkan inferensi streaming untuk membuat keputusan.
Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.
Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.
Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.
1 “Why Companies Are Vastly Underprepared For The Risks Posed By AI”, Forbes, 15 Juni 2023
2 “Onshoring Semiconductor Production: National Security Versus Economic Efficiency”, Council on Foreign Relations, April 2024