Boosting adalah metode pembelajaran ansambel yang menggabungkan sekumpulan pembelajar yang lemah ke dalam pembelajar yang kuat untuk meminimalkan kesalahan pelatihan. Boosting pada algoritma dapat meningkatkan daya prediksi inisiatif penambangan data Anda.
Dalam boosting, sampel data secara acak dipilih, dipasangi model, dan kemudian dilatih secara berurutan—yaitu, setiap model mencoba mengkompensasi kelemahan dari model sebelumnya. Dengan setiap iterasi, aturan yang lemah dari setiap pengklasifikasi individu digabungkan untuk membentuk satu aturan prediksi yang kuat.
Pembelajaran ansambel memberikan dukungan pada gagasan "kebijaksanaan orang banyak", yang menunjukkan bahwa pengambilan keputusan dari sekelompok orang yang lebih banyak biasanya lebih baik daripada pengambilan keputusan oleh seorang pakar. Demikian pula, pembelajaran ansambel mengacu pada sekelompok (atau ansambel) pembelajar dasar, atau model, yang bekerja secara kolektif untuk mencapai prediksi akhir yang lebih baik. Sebuah model tunggal, juga dikenal sebagai pembelajar dasar atau lemah, mungkin tidak berkinerja baik secara individual karena varians atau bias yang tinggi. Namun, saat banyak pembelajar yang lemah bergabung, mereka dapat membentuk pembelajar yang kuat, karena kombinasi mereka mengurangi bias atau varians, menghasilkan kinerja model yang lebih baik.
Metode ansambel sering digambarkan menggunakan decision trees, karena algoritma ini dapat rentan terhadap overfitting (varians tinggi dan bias rendah) jika tidak dipangkas, dan dapat juga menyebabkan underfitting (varians rendah dan bias tinggi) jika kecil sekali, seperti decision stump, yang merupakan decision tree dengan satu tingkat. Ingat, ketika sebuah algoritma mengalami overfitting atau underfitting terhadap kumpulan data pelatihannya, algoritma tersebut tidak dapat dengan baik digeneralisasikan pada kumpulan data baru. Untuk mengatasi perilaku ini, metode ansambel digunakan guna memungkinkan generalisasi model ke kumpulan data baru. Meski dapat menunjukkan varians atau bias yang tinggi, perlu dicatat bahwa decision trees bukanlah teknik pemodelan yang hanya menggunakan pembelajaran ansambel untuk menemukan posisi yang tepat dalam pertukaran bias-varians.
Bagging dan boosting adalah dua jenis utama metode pembelajaran ansambel. Seperti yang disorot dalam penelitian ini (tautan berada di luar ibm.com), perbedaan utama antara metode pembelajaran ini adalah cara mereka dilatih. Dalam bagging, pembelajar yang lemah dilatih secara paralel, sedangkan dalam boosting, mereka belajar secara berurutan. Artinya, serangkaian model dibangun dan dengan setiap iterasi model baru, bobot dari data yang salah diklasifikasikan dalam model sebelumnya ditingkatkan. Distribusi ulang bobot ini membantu algoritma mengidentifikasi parameter yang perlu difokuskan untuk meningkatkan kinerjanya. AdaBoost, yang merupakan singkatan dari “adaptative boosting algorithm,” merupakan salah satu algoritma boosting yang paling populer karena merupakan salah satu yang pertama dalam jenisnya. Jenis algoritma peningkatan lainnya meliputi XGBoost, GradientBoost, dan BrownBoost.
Perbedaan lain antara bagging dan boosting adalah cara mereka digunakan. Sebagai contoh, metode bagging biasanya digunakan pada pembelajar yang lemah yang menunjukkan varians tinggi dan bias rendah, sedangkan metode boosting digunakan ketika varians rendah dan bias tinggi ditemukan. Meskipun bagging dapat digunakan untuk menghindari overfitting, metode boosting bisa lebih rentan terhadap hal ini (tautan berada di luar ibm.com) meskipun itu benar-benar tergantung pada kumpulan datanya. Namun, penyetelan parameter dapat membantu menghindari masalah tersebut.
Oleh karena itu, bagging dan boosting juga memiliki penerapan yang berbeda di dunia nyata. Bagging telah dimanfaatkan untuk proses persetujuan pinjaman dan genomik statistik sementara boosting telah lebih banyak digunakan dalam aplikasi pengenalan gambar dan mesin pencari.
Gunakan kerangka kerja pemilihan model ini untuk memilih model yang paling tepat sambil menyeimbangkan kebutuhan kinerja Anda dengan biaya, risiko, dan kebutuhan penerapan.
Daftar untuk mendapatkan buku elektronik di penyimpanan data AI
Metode boosting difokuskan pada penggabungan pembelajar yang lemah secara berulang untuk membangun pembelajar yang kuat yang dapat memprediksi hasil yang lebih akurat. Sebagai pengingat, pembelajar yang lemah mengklasifikasikan data sedikit lebih baik daripada menebak secara acak. Pendekatan ini dapat memberikan hasil yang kuat untuk masalah prediksi, dan bahkan dapat mengungguli neural networks dan mendukung mesin vektor untuk tugas-tugas seperti pengambilan gambar (tautan berada di luar ibm.com).
Algoritma boosting dapat berbeda dalam cara mereka membuat dan menggabungkan peserta didik yang lemah selama proses berurutan. Tiga jenis metode boosting yang populer meliputi:
Manfaat dan tantangan boosting
Ada beberapa keuntungan dan tantangan utama yang dihadirkan oleh metode boosting ketika digunakan untuk masalah klasifikasi atau regresi.
Manfaat utama dari boosting meliputi:
Tantangan utama dari boosting meliputi:
Algoritma boosting sangat cocok untuk proyek kecerdasan buatan di berbagai industri, termasuk:
Kesehatan: Boosting digunakan untuk menurunkan kesalahan dalam prediksi data medis, seperti memprediksi faktor risiko kardiovaskular dan tingkat kelangsungan hidup pasien kanker. Misalnya, penelitian (tautan berada di luar ibm.com) menunjukkan bahwa metode ansambel secara signifikan meningkatkan akurasi dalam mengidentifikasi pasien yang dapat memperoleh manfaat dari pengobatan pencegahan penyakit kardiovaskular, sambil menghindari pengobatan yang tidak perlu terhadap orang lain. Demikian juga, studi lain (tautan berada di luar ibm.com) menemukan bahwa menerapkan peningkatan ke beberapa platform genomik dapat meningkatkan prediksi waktu kelangsungan hidup kanker.
TI: Pohon regresi dengan boosting gradien digunakan di mesin pencari untuk peringkat halaman, sedangkan algoritma boosting Viola-Jones digunakan untuk pengambilan gambar. Seperti yang dicatat oleh Cornell (tautan berada di luar ibm.com), pengklasifikasi dengan boosting memungkinkan komputasi dihentikan lebih cepat ketika arah prediksi yang dituju sudah jelas. Ini berarti bahwa mesin pencari dapat menghentikan evaluasi halaman peringkat yang lebih rendah, sedangkan pemindai gambar hanya akan mempertimbangkan gambar yang benar-benar berisi objek yang diinginkan.
Keuangan: Boosting digunakan dengan model pembelajaran mendalam untuk mengotomatiskan tugas-tugas penting, termasuk deteksi penipuan, analisis harga, dan banyak lagi. Misalnya, meningkatkan metode dalam deteksi penipuan kartu kredit dan analisis harga produk keuangan (tautan berada di luar ibm.com) meningkatkan akurasi dalam menganalisis kumpulan data besar untuk meminimalkan kerugian finansial.
Dorong ROI dan percepat time to value dengan alat ilmu data seret dan lepas yang intuitif.
Hybrid. Terbuka. Resilient. Platform dan mitra Anda untuk transformasi digital.
Perangkat lunak hybrid cloud yang didukung AI.
Makalah ini menunjukkan cara quantum meningkatkan kompleksitas waktu AdaBoost klasik.
IBM Research mempelajari Mesin Boosting Newton Heterogen (HNBM) yang di dalamnya kelas hipotesis dasar dapat bervariasi di seluruh iterasi boosting.