Apa itu inferensi AI?

Penyusun

Mesh Flinders

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

Apa itu inferensi AI?

Inferensi kecerdasan buatan (AI) adalah kemampuan model AI terlatih untuk mengenali pola dan menarik kesimpulan dari informasi yang belum pernah dilihat sebelumnya.

Inferensi AI sangat penting untuk kemajuan teknologi AI dan mendukung penerapannya yang paling menarik, seperti AI generatif, kemampuan yang mendukung aplikasi ChatGPT yang populer. Model AI mengandalkan inferensi AI untuk meniru cara orang berpikir, bernalar, dan menanggapi perintah.

Inferensi AI dimulai dengan melatih model AI pada kumpulan data besar dengan algoritma pengambilan keputusan. Model AI terdiri dari algoritma pengambilan keputusan yang dilatih menggunakan neural networkmodel bahasa besar (LLM) yang dibangun seperti otak manusia. Misalnya, model AI yang dirancang untuk fungsi pengenalan wajah mungkin dilatih menggunakan jutaan gambar wajah manusia. Akhirnya, model akan belajar mengidentifikasi secara akurat ciri-ciri seperti warna mata, bentuk hidung, dan warna rambut, dan kemudian dapat menggunakannya untuk mengenali seseorang dalam gambar.

Perbedaan antara inferensi AI dan machine learning

Meskipun berkaitan erat, inferensi AI dan machine learning (ML) adalah dua langkah berbeda dalam siklus hidup model AI.

  • Machine learning adalah proses menggunakan data pelatihan dan algoritma, melalui proses pembelajaran diawasi, untuk memungkinkan AI meniru cara manusia belajar, secara bertahap meningkatkan akurasinya.

  • Inferensi AI adalah proses menerapkan apa yang dipelajari oleh model AI melalui ML untuk memutuskan, memprediksi, atau menyimpulkan dari data.

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

Manfaat inferensi AI

Jika model AI tidak dilatih pada kumpulan data memadai yang sesuai dengan penerapannya, model tersebut tidak akan efektif. Mengingat sifat teknologi ini yang sensitif dan ketatnya pengawasannya di media1, perusahaan perlu berhati-hati. Namun dengan penerapannya yang menjangkau berbagai industri dan menawarkan potensi transformasi digital dan inovasi yang dapat diskalakan, manfaatnya banyak sekali:

  • Hasil yang tepat dan akurat: Model AI menjadi makin tepat dan akurat seiring dengan kemajuan teknologi. Sebagai contoh, LLM terbaru dapat memilih kata, kalimat, dan tata bahasa dengan cara meniru nada penulis tertentu. Dalam bidang seni dan video, mereka dapat melakukan hal yang sama, memilih warna dan gaya untuk menyampaikan suasana hati, nada atau gaya artistik yang tepat.
  • Kontrol kualitas yang lebih baik: Salah satu perluasan AI yang terbaru dan berpotensi paling menarik adalah di bidang pemantauan dan inspeksi sistem. Model AI yang dilatih dengan kumpulan data yang berkisar dari kualitas air hingga pola cuaca digunakan untuk memantau kesehatan peralatan industri di lapangan.
  • Pembelajaran robotik: Robot dan robotika dengan kemampuan inferensi AI diterapkan untuk berbagai tugas untuk menambah nilai bisnis. Mungkin aplikasi pembelajaran robot yang paling populer adalah mobil swakemudi. Inferensi AI banyak digunakan oleh perusahaan mobil swakemudi seperti Tesla, Waymo, dan Cruz untuk mengajari neural networks mengenali dan mematuhi peraturan lalu lintas.
  • Pembelajaran tanpa arah: Inferensi AI melatih data tanpa diprogram, sehingga mengurangi input manusia dan sumber daya yang diperlukan untuk berjalan secara efektif. Sebagai contoh, model AI yang dilatih pada gambar-gambar lingkungan pertanian dapat digunakan untuk membantu petani mengidentifikasi dan mengurangi gulma dan tanaman yang tidak sehat.
  • Panduan dan pengambilan keputusan yang terinformasi: Salah satu aplikasi yang paling menarik dari inferensi AI adalah kemampuan AI untuk memahami nuansa dan kompleksitas serta memberikan saran berdasarkan kumpulan data yang dipelajarinya. Contohnya, model AI yang dilatih berdasarkan prinsip-prinsip keuangan dapat memberikan saran investasi yang baik dan mengidentifikasi aktivitas yang berpotensi penipuan. Demikian pula, AI dapat menghilangkan potensi kesalahan manusia dari prosedur berisiko seperti diagnosis penyakit atau mengemudikan pesawat terbang.
  • Kemampuan komputasi edge: Inferensi AI dan komputasi edge menghadirkan semua manfaat AI secara real-time, tanpa perlu memindahkan data ke pusat data untuk memprosesnya. Potensi inferensi AI di edge memiliki dampak yang luas, mulai dari manajemen dan pemantauan tingkat stok di gudang hingga reaksi kecepatan milidetik yang diperlukan untuk pengoperasian kendaraan otonom yang aman.
Akademi AI

Menjadi pakar AI

Raih pengetahuan demi memprioritaskan investasi AI yang mendorong pertumbuhan bisnis. Mulai dengan Akademi AI gratis kami hari ini dan pimpin masa depan AI di organisasi Anda.

Tantangan inferensi AI

Meskipun manfaat dari inferensi AI sangat banyak, sebagai teknologi yang masih muda dan berkembang pesat, teknologi ini juga bukan tanpa tantangan. Berikut adalah beberapa masalah yang dihadapi industri yang harus dipertimbangkan oleh bisnis yang mempertimbangkan berinvestasi dalam AI:

  • Kepatuhan: Tugas untuk mengatur aplikasi AI dan inferensi AI sangat sulit dan terus berubah. Salah satu contohnya adalah bidang kedaulatan data, konsep bahwa data tunduk pada hukum negara atau wilayah tempat data dihasilkan. Perusahaan global yang mengumpulkan, menyimpan, dan memproses data untuk tujuan AI di lebih dari satu wilayah mengalami kesulitan untuk tetap mematuhi hukum di berbagai wilayah sambil tetap berinovasi dengan cara yang menguntungkan bisnis mereka.
  • Kualitas: Dalam pelatihan model AI, kualitas data yang digunakan untuk melatih model sangat penting untuk keberhasilannya. Sama seperti manusia yang belajar dari guru yang buruk, model AI yang dilatih pada kumpulan data yang buruk akan berkinerja buruk. Kumpulan data perlu diberi label dengan jelas dan hiperrelevan dengan keterampilan yang coba dipelajari model AI. Tantangan utama AI (dan terutama keakuratan inferensi AI) adalah pemilihan model yang tepat untuk dilatih.
  • Kompleksitas: Sama seperti kualitas data, kompleksitas data juga dapat menyebabkan masalah pada model AI. Dengan menggunakan analogi siswa manusia lagi, makin sederhana hal yang dilatih AI, makin mudah untuk dipelajari. Model AI yang menangani masalah sederhana, seperti chatbot layanan pelanggan atau agen perjalanan virtual, relatif mudah dilatih dibandingkan dengan model yang dirancang untuk masalah yang lebih kompleks, seperti pencitraan medis atau nasihat keuangan.
  • Peningkatan keterampilan: Meskipun mendebarkan untuk membayangkan kemungkinan bidang yang baru dan berkembang pesat seperti AI, keahlian yang diperlukan untuk membuat aplikasi AI yang berfungsi dan kesimpulan AI yang akurat membutuhkan waktu dan sumber daya. Hingga pipeline talenta dapat mengejar laju inovasi, para pakar di bidang ini akan tetap diminati dan mahal untuk dipekerjakan.
  • Ketergantungan pada Taiwan: 60% semikonduktor dunia dan 90% chip canggihnya (termasuk akselerator AI yang diperlukan untuk inferensi AI) diproduksi di pulau Taiwan.2 Selain itu, perusahaan perangkat keras dan perangkat lunak AI terbesar di dunia, Nvidia, hampir secara eksklusif bergantung pada satu perusahaan, Taiwan Semiconductor Manufacturing Corporation (TSMC), untuk akselerator AI-nya. Bencana alam atau insiden tak terlihat lainnya dapat mengancam produksi dan distribusi chip yang diperlukan untuk mendukung inferensi AI dan berbagai aplikasinya.

Komponen penting untuk inferensi AI

Inferensi AI adalah proses kompleks yang melibatkan pelatihan model AI pada kumpulan data yang sesuai hingga model tersebut dapat menyimpulkan respons yang akurat. Ini adalah proses yang sangat intensif komputasi, membutuhkan perangkat keras dan perangkat lunak khusus. Sebelum melihat proses pelatihan model AI untuk inferensi AI, mari kita jelajahi beberapa perangkat keras khusus yang memungkinkannya terjadi:

Unit pemrosesan pusat

Unit pemrosesan pusat (CPU) adalah komponen fungsional utama komputer. Dalam pelatihan dan inferensi AI, CPU menjalankan sistem operasi dan membantu mengelola sumber daya komputasi yang diperlukan untuk tujuan pelatihan.

Unit pemrosesan grafis

Unit pemrosesan grafis (GPU), atau sirkuit elektronik yang dibangun untuk pemrosesan gambar dan grafis komputer berkinerja tinggi, digunakan di berbagai perangkat, termasuk kartu video, motherboard, dan ponsel. Namun, karena kemampuan pemrosesan paralelnya, GPU juga makin banyak digunakan dalam pelatihan model AI. Salah satu metode adalah menghubungkan banyak GPU ke sistem AI tunggal untuk meningkatkan daya pemrosesan sistem itu.

Field-programmable gate array

Field-programmable gate array (FPGA) adalah akselerator AI yang sangat dapat disesuaikan yang bergantung pada pengetahuan khusus untuk diprogram ulang untuk tujuan tertentu. Tidak seperti akselerator AI lainnya, FPGA memiliki desain unik yang sesuai dengan fungsi tertentu, sering kali berkaitan dengan pemrosesan data secara real-time, yang sangat penting untuk inferensi AI. FPGA dapat diprogram ulang pada tingkat perangkat keras, memungkinkan tingkat penyesuaian yang lebih tinggi.

Sirkuit terpadu khusus aplikasi (ASIC)

ASIC adalah akselerator AI yang dirancang dengan tujuan atau beban kerja tertentu, seperti pembelajaran mendalam untuk kasus akselerator ASIC WSE-3 yang diproduksi oleh Cerebras. ASIC membantu ilmuwan data mempercepat kemampuan inferensi AI dan menurunkan biaya. Tidak seperti FPGA, ASIC tidak dapat diprogram ulang, tetapi karena dibuat dengan tujuan tunggal, ASIC biasanya mengungguli akselerator lain yang lebih umum. Salah satu contohnya adalah Tensor Processing Unit (TPU) Google, yang dikembangkan untuk neural network machine learning menggunakan TensorFlow milik Google sendiri.

Cara kerja inferensi AI

Perusahaan yang tertarik untuk berinvestasi dalam aplikasi AI sebagai bagian dari perjalanan transformasi digital mereka harus mengedukasi diri mereka sendiri tentang manfaat dan tantangan inferensi AI. Bagi mereka yang telah menyelidiki berbagai aplikasinya secara menyeluruh dan siap untuk menggunakannya, berikut ini adalah lima langkah untuk membangun inferensi AI yang efektif:

Menyiapkan data

Penyiapan data sangat penting untuk menciptakan model dan aplikasi AI yang efektif. Perusahaan dapat membuat kumpulan data untuk model AI untuk melatih penggunaan data dari dalam organisasi mereka atau dari luar. Untuk hasil yang optimal, perusahaan biasanya menggunakan kombinasi keduanya. Bagian penting lain dari menyusun data yang akan dilatih oleh AI Anda adalah pembersihan data—penghapusan entri duplikat dan penyelesaian masalah pemformatan yang ada.

Pilih model pelatihan

Setelah kumpulan data disusun, langkah selanjutnya adalah pemilihan model AI yang tepat untuk aplikasi Anda. Model tersedia dalam rentang dari yang sederhana hingga kompleks, dengan model yang lebih kompleks mampu mengakomodasi lebih banyak input dan menyimpulkan pada tingkat yang lebih halus daripada model yang kurang kompleks. Pada langkah ini, penting untuk memperjelas kebutuhan Anda, karena melatih model yang lebih kompleks dapat membutuhkan lebih banyak waktu, uang, dan sumber daya lainnya daripada melatih model yang lebih sederhana.

Latih model Anda

Untuk mendapatkan hasil yang diinginkan dari aplikasi AI, bisnis biasanya harus melalui banyak putaran pelatihan AI yang intens. Saat model berlatih, keakuratan inferensi mereka akan makin tajam dan jumlah sumber daya komputasi yang diperlukan untuk mencapai inferensi tersebut, seperti daya komputasi dan latensi, akan makin berkurang. Saat makin matang, model akan bergeser ke fase baru di mana model dapat mulai membuat inferensi tentang data baru dari data yang dipelajarinya. Ini adalah langkah yang menarik karena Anda dapat melihat model Anda mulai beroperasi sesuai dengan desainnya.

Memantau output

Sebelum model Anda layak dioperasikan, penting bagi Anda untuk memeriksa dan memantau output-nya untuk mengetahui adanya ketidakakuratan, bias, atau masalah privasi data. Pascapemrosesan, demikian fase ini kadang-kadang disebut, adalah tempat Anda membuat proses langkah demi langkah untuk memastikan keakuratan model Anda. Fase pascapemrosesan adalah momen untuk membuat metodologi yang akan memastikan bahwa AI Anda memberi Anda jawaban yang Anda inginkan dan berfungsi seperti yang dimaksudkan.

Deployment

Setelah pemantauan dan pascapemrosesan yang ketat, model AI Anda siap diterapkan untuk penggunaan bisnis. Langkah terakhir ini mencakup implementasi arsitektur dan sistem data yang akan memungkinkan model AI Anda berfungsi, serta pembuatan prosedur manajemen perubahan untuk mengedukasi para pemangku kepentingan tentang cara menggunakan aplikasi AI Anda dalam peran mereka sehari-hari.

Jenis inferensi AI

Bergantung pada jenis aplikasi AI yang dibutuhkan perusahaan, ada berbagai jenis inferensi AI yang dapat mereka pilih. Jika bisnis ingin membangun model AI untuk digunakan dengan aplikasi Internet of Things (IoT), inferensi streaming (dengan kemampuan pengukurannya) kemungkinan merupakan pilihan yang paling tepat. Namun, jika model AI dirancang untuk berinteraksi dengan manusia, inferensi online (dengan kemampuan LLM) akan lebih cocok. Berikut adalah tiga jenis inferensi AI dan karakteristik yang membuatnya unik.

1. Inferensi dinamis

Inferensi dinamis, juga dikenal sebagai inferensi online, adalah jenis inferensi AI tercepat dan digunakan dalam aplikasi AI LLM paling populer, seperti ChatGPT milik OpenAI. Inferensi dinamis membuat output dan prediksi begitu diminta dan, setelah itu, membutuhkan latensi rendah dan akses cepat ke data agar berfungsi. Karakteristik lain dari inferensi dinamis adalah bahwa output dapat datang begitu cepat sehingga tidak ada waktu untuk meninjaunya sebelum mencapai pengguna akhir. Hal ini menyebabkan beberapa perusahaan menambahkan lapisan pemantauan antara output dan pengguna akhir untuk memastikan kontrol kualitas.

2. Inferensi batch

Inferensi batch menghasilkan prediksi AI secara offline dengan menggunakan sejumlah besar data. Dengan pendekatan inferensi batch, data yang telah dikumpulkan sebelumnya kemudian diterapkan pada algoritma ML. Meskipun tidak ideal untuk situasi di mana output diperlukan dalam beberapa detik atau kurang, inferensi batch sangat cocok untuk prediksi AI yang diperbarui secara teratur sepanjang hari atau selama seminggu, seperti dasbor penjualan atau pemasaran atau penilaian risiko.

3. Inferensi streaming

Inferensi streaming menggunakan pipeline data, biasanya dipasok melalui pengukuran reguler dari sensor, dan memasukkannya ke dalam algoritma yang menggunakan data untuk terus melakukan perhitungan dan prediksi. Aplikasi IoT, seperti AI yang digunakan untuk memantau pembangkit listrik atau lalu lintas di kota melalui sensor yang terhubung ke internet, mengandalkan inferensi streaming untuk membuat keputusan.

Solusi terkait
IBM watsonx.ai

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Temukan watsonx.ai
Solusi kecerdasan buatan (AI)

Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Ambil langkah selanjutnya

Dapatkan akses satu atap ke kemampuan yang mencakup siklus hidup pengembangan AI. Hasilkan solusi AI yang kuat dengan antarmuka ramah pengguna, alur kerja yang efisien, serta akses ke API dan SDK berstandar industri.

Jelajahi watsonx.ai Pesan demo langsung