Ketidakpastian memiliki dua jenis utama: ketidakpastian berbasis data dan ketidakpastian berbasis model. Dalam kedua kasus tersebut, akan sangat membantu untuk mengetahui seberapa andal prediksi, baik sebelum maupun setelah dibuat.
Anda dapat membayangkannya sebagai model yang memprediksi berapa kali engsel pintu dapat membuka dan menutup sebelum mengalami kegagalan, sekitar plus atau minus 1.000 gerakan. Metode ini juga dapat menunjukkan seberapa besar kemungkinan bahwa menutup engsel pintu kali ini akan merusaknya.
Metode berbasis pengambilan sampel
Pendekatan berbasis pengambilan sampel adalah beberapa teknik yang paling umum digunakan untuk kuantifikasi ketidakpastian karena dapat menangani segala jenis kompleksitas model dan menggambarkan karakter ketidakpastian yang komprehensif dan intuitif. Dengan menghasilkan banyak skenario yang mungkin terjadi, pengambilan sampel dapat membangun gambaran statistik tentang hasil apa yang mungkin terjadi dan sejauh apa ketidakpastian prediksi kita ketika diterapkan pada data dunia nyata. Alih-alih menghitung ketidakpastian secara analitis, metode ini menggunakan analisis statistik dari banyak output sampel untuk menggambarkan karakter distribusi ketidakpastian.
Simulasi Monte Carlo adalah salah satu pendekatan yang paling umum. Simulasi ini menjalankan ribuan simulasi model dengan beragam input acak untuk melihat kisaran output yang mungkin. Hal ini sangat umum terjadi pada model parametrik di mana interval kepercayaan dan output model untuk model yang berbeda dibandingkan untuk melihat kisaran semua nilai yang mungkin.
Variasi simulasi Monte Carlo yang disebut Latin hypercube sampling adalah versi lebih efisien yang membutuhkan lebih sedikit proses namun tetap mencakup ruang input dengan baik.
Monte Carlo dropout adalah teknik lain yang membuat dropout (penonaktifan) tetap aktif selama prediksi, menjalankan beberapa forward pass untuk mendapatkan distribusi output.2 Dropout terutama digunakan sebagai teknik regularisasi, metode yang digunakan untuk menyempurnakan model machine learning. Ini bertujuan untuk mengoptimalkan fungsi kesalahan yang disesuaikan sekaligus menghindari masalah overfitting atau underfitting.
Monte Carlo Dropout menerapkan dropout pada waktu pengujian dan menjalankan beberapa forward pass dengan pola acak dropout yang berbeda. Ini membuat model menghasilkan distribusi prediksi daripada perkiraan satu titik. Distribusi memberikan insight tentang ketidakpastian model mengenai prediksi. Ini adalah teknik yang efisien dari sudut komputasi agar neural networks menghasilkan distribusi tanpa memerlukan pelatihan neural networks selama berkali-kali.
Ketika menjalankan model yang sebenarnya berkali-kali menjadi terlalu mahal, para ahli statistik membuat model "pengganti" yang disederhanakan dengan menggunakan teknik seperti regresi proses Gaussian (GPR).5 GPR adalah pendekatan Bayesian untuk memodelkan kepastian dalam prediksi yang membuatnya menjadi alat yang berharga untuk pengoptimalan, perkiraan deret waktu, dan aplikasi lainnya. GPR didasarkan pada konsep 'proses Gaussian', yang merupakan kumpulan variabel acak yang memiliki distribusi Gaussian bersama.
Anda dapat membayangkan proses Gaussian sebagai distribusi fungsi. GPR menempatkan distribusi sebelumnya pada fungsi kemudian menggunakan data yang diamati untuk membuat distribusi posterior. Menggunakan GPR untuk menghitung ketidakpastian tidak memerlukan pelatihan tambahan atau menjalankan model karena output secara inheren mengekspresikan seberapa pasti atau tidak pastinya model tersebut tentang estimasi melalui distribusi. Pustaka seperti Scikit-learn menyediakan implementasi GPR untuk analisis ketidakpastian.
Pilihan metode pengambilan sampel tergantung pada fitur apa yang paling penting untuk model dan skenario Anda. Sebagian besar aplikasi dunia nyata menggabungkan beberapa pendekatan.
Metode Bayesian
Statistik Bayesian adalah pendekatan inferensi statistik yang menggunakan teorema Bayes untuk menggabungkan keyakinan sebelumnya dengan data yang diamati dan memperbarui probabilitas hipotesis. Statistik Bayesian secara eksplisit mengatasi ketidakpastian dengan menetapkan distribusi probabilitas daripada satu nilai tetap. Alih-alih memberikan satu perkiraan 'terbaik' untuk parameter model, metode Bayesian memberikan distribusi kemungkinan perkiraan.
Inferensi Bayesian memperbarui prediksi ketika data baru tersedia, yang secara alami memasukkan ketidakpastian selama proses estimasi kovariat. Metode Markov chain Monte Carlo (MCMC) membantu menerapkan pendekatan Bayesian ketika solusi matematika terlalu rumit. Pendekatan MCMC mengambil sampel dari distribusi probabilitas kompleks berdimensi tinggi yang tidak dapat diambil sampelnya secara langsung, khususnya distribusi posterior dalam inferensi Bayesian.
Bayesian neural networks (BNN) adalah sebuah perubahan dari neural networks tradisional yang memperlakukan bobot jaringan sebagai distribusi probabilitas, bukan sebagai estimasi titik tetap. Pendekatan probabilistik ini memungkinkan kuantifikasi ketidakpastian yang berdasar dan ketat. Alih-alih perkiraan satu titik untuk bobot, pendekatan ini mempertahankan distribusi probabilitas di semua parameter jaringan. Prediksi biasanya mencakup
- estimasi rata-rata dan varians untuk distribusi prediktif
- sampel dari distribusi prediktif
- interval kredibel yang berasal dari distribusi
Terdapat beberapa pustaka sumber terbuka yang populer untuk mengimplementasikan BNN seperti PyMC dan Tensorflow-Probability.
Metode ansambel
Konsep utama di balik kuantifikasi ketidakpastian berbasis ensambel adalah bahwa jika beberapa model yang dilatih secara independen tidak setuju dengan suatu prediksi, ketidaksepakatan ini mengindikasikan ketidakpastian tentang jawaban yang benar.4 Sebaliknya, ketika semua model dalam ensambel setuju, ini menunjukkan kepercayaan yang lebih tinggi dalam prediksi. Intuisi ini diubah menjadi ukuran ketidakpastian konkret melalui varians atau penyebaran prediksi ensambel.
Jika f₁, f₂, ..., fn menunjukkan estimator N anggota ensambel untuk input x, ketidakpastian dapat diukur sebagai
di mana f(x) adalah rata-rata ensambel. Melatih beberapa model berbeda (arsitektur, subset data pelatihan, atau inisialisasi berbeda) dan menggabungkan prediksinya. Kelemahan utama dari pendekatan ini adalah biaya komputasi: memerlukan pelatihan dan menjalankan beberapa model.
Prediksi konformal
Prediksi konformal adalah teknik untuk kuantifikasi ketidakpastian. Teknik ini memberikan kerangka kerja yang tidak bergantung pada model dan bebas distribusi untuk membuat interval prediksi (untuk skenario regresi) atau kumpulan prediksi (untuk penerapan pada klasifikasi).3 Teknik ini memberikan jaminan cakupan yang valid dengan asumsi minimal tentang model atau data. Hal ini membuat prediksi konformal sangat membantu saat bekerja dengan model kotak hitam terlatih.
Prediksi konformal memiliki beberapa fitur yang membuatnya dapat diterapkan secara luas. Sebagai contoh, prediksi ini hanya mensyaratkan bahwa titik data bersifat dapat dipertukarkan dan tidak mensyaratkan bahwa titik data harus independen dan terdistribusi secara identik. Prediksi konformal juga dapat diterapkan pada model prediktif apa pun dan memungkinkan Anda menetapkan ketidakpastian prediktif yang dapat diizinkan dari suatu model.
Misalnya, dalam tugas regresi, Anda mungkin ingin mencapai cakupan 95%, yang berarti bahwa model harus menghasilkan rentang di mana nilai sejati masuk ke dalam interval output 95% dari waktu. Pendekatan ini tidak bergantung pada model dan bekerja dengan baik dalam klasifikasi, regresi linier, neural networks, dan berbagai model deret waktu.
Untuk menggunakan prediksi konformal, Anda harus membagi data menjadi tiga kumpulan: pelatihan, pengujian dasar, dan kalibrasi. Kumpulan data kalibrasi digunakan untuk menghitung skor ketidaksesuaian, sering dilambangkan sebagai si. Skor ini mengukur seberapa tidak biasanya suatu prediksi. Dengan input baru, membentuk interval prediksi berdasarkan skor ini untuk menjamin cakupan.
Dalam tugas klasifikasi, prediksi konformal—skor ketidaksesuaian—adalah ukuran seberapa banyak contoh baru menyimpang dari contoh yang ada dalam kumpulan pelatihan. Ini menentukan apakah contoh baru termasuk kelas tertentu atau tidak. Untuk klasifikasi dengan banyak kelas, biasanya 1—probabilitas kelas yang diprediksi untuk label tertentu.
Jadi, jika probabilitas yang diprediksi dari sebuah contoh baru yang termasuk dalam kelas tertentu tinggi, skor ketidaksesuaiannya rendah, dan sebaliknya. Pendekatan yang umum dilakukan adalah menghitung skor si untuk setiap contoh dalam kumpulan kalibrasi dan menyortir skor dari rendah (pasti) ke tinggi (tidak pasti).
Untuk mencapai cakupan konformal 95%, hitung ambang batas q di mana 95% skor si lebih rendah. Untuk contoh pengujian baru, Anda harus menyertakan label dalam kumpulan prediksi jika si kurang dari ambang batas q.
Jika memerlukan jaminan bahwa model Anda memiliki cakupan konformal 95%, Anda akan memperoleh skor rata-rata si untuk semua kelas. Kemudian, Anda akan menemukan ambang batas skor si yang berisi 95% data. Anda kemudian dapat yakin bahwa pengklasifikasi Anda mengidentifikasi 95% contoh baru dengan benar di semua kelas.
Hal ini sedikit berbeda dengan akurasi pengklasifikasi karena prediksi konformal dapat mengidentifikasi beberapa kelas. Dalam pengklasifikasi multiclass, prediksi konformal juga menunjukkan cakupan untuk semua kelas. Anda dapat menetapkan tingkat cakupan untuk tiap kelas, bukan seluruh kumpulan pelatihan.