Human-in-the-loop (HITL) mengacu pada sistem atau proses di mana manusia secara aktif berpartisipasi dalam operasi, pengawasan atau pengambilan keputusan sistem otomatis. Dalam konteks AI, HITL berarti bahwa manusia terlibat di beberapa titik dalam alur kerja AI untuk memastikan akurasi, keamanan, akuntabilitas, atau pengambilan keputusan etis.
Machine learning (ML) telah mengalami kemajuan yang luar biasa dalam beberapa tahun terakhir, tetapi bahkan model pembelajaran mendalam yang paling canggih pun dapat mengalami kesulitan dalam menangani ambiguitas, bias, atau kasus-kasus khusus yang menyimpang dari data pelatihan mereka. Masukan dari manusia dapat membantu meningkatkan model dan berfungsi sebagai pengaman ketika sistem AI berkinerja pada tingkat yang tidak memadai. HITL memasukkan insight ke dalam "loop" yang ada, yaitu siklus interaksi dan masukan yang berkelanjutan antara sistem AI dan manusia.
Tujuan HITL adalah memungkinkan sistem AI untuk mencapai efisiensi otomatisasi tanpa mengorbankan ketepatan, nuansa, dan pertimbangan etis dari pengawasan manusia.
Buletin industri
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.
Machine learning Human-in-the-loop memungkinkan manusia untuk memberikan pengawasan dan input ke dalam alur kerja AI. Berikut adalah manfaat utama dari human-in-the-loop:
Akurasi dan keandalan
Pengambilan keputusan etis dan akuntabilitas
Transparansi dan penjelasan
Tujuan mengotomatisasi alur kerja adalah untuk meminimalkan jumlah waktu dan upaya yang harus dihabiskan manusia untuk mengelolanya. Namun, alur kerja otomatis bisa salah dalam banyak hal. Terkadang model menghadapi kasus-kasus unik yang tidak dapat ditangani dengan pelatihan yang telah mereka terima. Pendekatan HITL memungkinkan manusia untuk memperbaiki input yang salah, memberikan model kesempatan untuk terus berkembang seiring waktu. Manusia mungkin dapat mengidentifikasi perilaku anomali dengan menggunakan keahlian subjek mereka, yang kemudian dapat dimasukkan ke dalam pemahaman model.
Dalam penerapan yang berisiko tinggi, manusia dapat menerapkan peringatan, tinjauan manusia, dan mekanisme pengaman untuk memastikan bahwa keputusan otonom telah diverifikasi. Mereka dapat mendeteksi output yang bias atau menyesatkan, sehingga mencegah dampak negatif yang timbul di tahap selanjutnya. Masukan manusia yang berkelanjutan membantu model AI untuk beradaptasi dengan lingkungan yang berubah.
Bias merupakan masalah yang masih terus menjadi perhatian dalam machine learning, dan meskipun kecerdasan manusia dikenal sering kali bersifat bias, keterlibatan tambahan manusia dapat membantu mengidentifikasi dan mengurangi bias yang tertanam dalam data dan algoritma itu sendiri, yang mendorong keadilan dalam output AI.
Ketika manusia terlibat dalam menyetujui atau menimpa output AI, tanggung jawab tidak sepenuhnya terletak pada model atau pengembangnya.
Beberapa keputusan memerlukan penalaran etis yang mungkin berada di luar kemampuan model. Misalnya, rekomendasi platform perekrutan algoritmik dapat merugikan kelompok-kelompok tertentu yang secara historis terpinggirkan. Meskipun model ML telah mengalami kemajuan signifikan dalam beberapa tahun terakhir dalam kemampuannya untuk mempertimbangkan nuansa dalam proses penalaran, terkadang pengawasan manusia tetap menjadi pendekatan terbaik. HITL memungkinkan manusia, yang memiliki pemahaman yang lebih baik tentang norma, konteks budaya, dan area abu-abu etis, untuk menjeda atau menimpa output jika terjadi dilema yang kompleks.
Pendekatan human-in-the-loop dapat menyediakan rekaman alasan mengapa suatu keputusan dibatalkan, disertai dengan jejak audit yang mendukung transparansi dan tinjauan eksternal. Dokumentasi ini memungkinkan pembelaan hukum, audit kepatuhan, dan ulasan akuntabilitas internal yang lebih kuat.
Beberapa peraturan AI mengamanatkan tingkat HITL tertentu. Misalnya, Pasal 14 UU AI Uni Eropamengatakan bahwa “Sistem AI berisiko tinggi harus dirancang dan dikembangkan sedemikian rupa, termasuk dengan alat antarmuka manusia-mesin yang sesuai, sehingga dapat diawasi secara efektif oleh orang perseorangan selama periode di mana sistem digunakan.”
Menurut peraturan tersebut, pengawasan ini harus mencegah atau meminimalkan risiko terhadap kesehatan, keselamatan atau hak-hak dasar, dengan metode termasuk operasi manual, intervensi, pengesahan dan pemantauan real-time. Manusia yang terlibat harus "kompeten" untuk melakukannya, memahami kemampuan dan keterbatasan sistem, terlatih dalam penggunaan yang tepat dan memiliki wewenang untuk melakukan intervensi bila diperlukan. Pengawasan ini dimaksudkan untuk mendorong penghindaran bahaya dan berfungsinya dengan baik.
Dengan menangkap kesalahan sebelum menyebabkan kerugian, HITL bertindak sebagai jaring pengaman, terutama di sektor-sektor yang berisiko tinggi atau yang diatur seperti perawatan kesehatan atau keuangan. Pendekatan HITL membantu mengurangi efek kotak hitam di mana alasan di balik output AI tidak jelas. Menanamkan pengawasan dan kontrol manusia ke dalam proses pengembangan dan penerapan membantu praktisi mengidentifikasi dan mengurangi risiko, baik itu risiko teknis, etika, hukum atau operasional.
HITL adalah pendekatan yang sangat baik untuk meningkatkan kinerja sistem machine learning, tetapi pendekatan ini juga memiliki kelemahan.
Skalabilitas dan biaya
Kesalahan manusia dan inkonsistensi
Privasi dan keamanan
Anotasi manusia bisa lambat dan mahal, terutama untuk kumpulan data besar atau siklus masukan berulang. Saat volume data atau kompleksitas sistem meningkat, mengandalkan manusia dapat menjadi hambatan. Memberi label jutaan gambar untuk model visi komputer dengan presisi tinggi, misalnya, mungkin memerlukan ribuan jam kerja manusia. Beberapa bidang seperti kedokteran atau hukum mungkin memerlukan pakar yang lebih mahal dalam bidang tersebut. Sebuah tumor yang salah label pada pemindaian citra medis dapat menyebabkan kesalahan yang serius.
Meskipun manusia dapat memberikan akurasi yang lebih tinggi, dalam beberapa hal mereka dapat lebih bias dan rentan terhadap kesalahan dibandingkan mesin. Manusia dapat menafsirkan data atau tugas secara berbeda, terutama dalam domain yang tidak memiliki jawaban benar atau salah yang jelas. Anotator manusia, karena mereka manusia, dapat merasa lelah, teralihkan, atau bingung saat memberi label pada data. Mereka juga memiliki berbagai perspektif tentang masalah subjektif, yang dapat menyebabkan ketidakkonsistenan dalam pelabelan.
Melibatkan manusia dalam proses ulasan internal dapat meningkatkan masalah privasi, dan bahkan anotator yang berniat baik mungkin secara tidak sengaja membocorkan atau menyalahgunakan data sensitif yang mereka akses saat memberikan masukan.
Memperkenalkan masukan manusia berkualitas tinggi yang ditargetkan sebelum, selama dan setelah pelatihan menciptakan siklus masukan yang mempercepat pembelajaran dan membuat model machine learning lebih kuat, dapat ditafsirkan, dan selaras dengan kebutuhan dunia nyata. Berikut adalah beberapa cara interaksi manusia dapat disematkan ke dalam alur kerja AI.
Pembelajaran dengan pengawasan
RLHF
Pembelajaran aktif
Aplikasi pembelajaran dengan pengawasan membutuhkan ilmuwan data untuk memberi label data dengan benar. Anotasi data ini menghasilkan kumpulan data yang kemudian digunakan untuk melatih algoritma machine learning. Ini adalah alur kerja di mana input manusia sangat penting dan menjadi prioritas utama.
Misalnya, pendekatan dengan pengawasan dalam konteks pemrosesan bahasa alami mungkin melibatkan manusia yang memberi label teks sebagai “spam” atau “bukan spam” untuk mengajari mesin agar berhasil membedakannya. Dalam contoh penggunaan visi komputer , pendekatan dengan pengawasan dapat melibatkan manusia yang memberi label serangkaian gambar sebagai "mobil" atau "bus" atau "sepeda motor", sehingga model dapat melakukan tugas deteksi objek.
Dalam contoh lain, pembelajaran penguatan dari masukan manusia (RLHF) menggunakan "model penghargaan" yang dilatih dengan masukan langsung dari manusia, yang kemudian digunakan untuk mengoptimalkan kinerja agen kecerdasan buatan melalui pembelajaran penguatan. RLHF secara unik cocok untuk tugas-tugas dengan tujuan yang kompleks, tidak jelas atau sulit untuk ditentukan.
Dalam pembelajaran aktif, model ini mengidentifikasi prediksi yang tidak pasti atau dengan tingkat kepercayaan rendah dan meminta input hanya jika diperlukan. Hal ini memusatkan upaya pelabelan pada contoh-contoh yang paling sulit atau paling ambigu, yang mengarah pada pembelajaran yang lebih cepat dan lebih akurat.
Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.
Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.
Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.