Ketika perusahaan meningkatkan penggunaan kecerdasan buatan (AI), orang-orang mempertanyakan sejauh mana bias manusia telah masuk ke dalam sistem AI. Contoh bias AI di dunia nyata menunjukkan kepada kita bahwa ketika data dan algoritma diskriminatif dimasukkan ke dalam model AI, model tersebut menyebarkan bias dalam skala besar dan memperkuat efek negatif yang dihasilkan.
Perusahaan termotivasi untuk mengatasi tantangan bias dalam AI tidak hanya untuk mencapai keadilan, tetapi juga untuk memastikan hasil yang lebih baik. Namun, seperti halnya bias rasial dan gender yang telah terbukti sulit dihilangkan di dunia nyata, menghilangkan bias dalam AI bukanlah tugas yang mudah.
Dalam artikel berjudul What AI can and canāt do (yet) for your business, penulis Michael Chui, James Manyika, dan Mehdi Miremadi dari McKinsey mencatat, āBias semacam itu memiliki kecenderungan untuk tetap tertanam karena mengenalinya, dan mengambil langkah untuk mengatasinya, membutuhkan penguasaan teknik ilmu data yang mendalam, serta meta-pemahaman yang lebih baik tentang kekuatan sosial yang ada, termasuk pengumpulan data. Intinya, hingga saat ini, menghilangkan bias terbukti menjadi salah satu hambatan yang paling menakutkan dan tentu saja memiliki dampak sosial yang besar.ā
Contoh bias AI dari kehidupan nyata memberi organisasi insight yang berguna tentang cara mengidentifikasi dan mengatasi bias. Dengan melihat secara kritis contoh-contoh ini, dan keberhasilan dalam mengatasi bias, para ilmuwan data dapat mulai membangun peta jalan untuk mengidentifikasi dan mencegah bias dalam model machine learning mereka.
Bias AI, yang juga disebut sebagai bias machine learning atau bias algoritma, mengacu pada sistem AI yang memberikan hasil bias serta mencerminkan dan melanggengkan bias manusia dalam masyarakat, termasuk ketidaksetaraan sosial di masa lalu dan saat ini. Bias dapat ditemukan pada data pelatihan awal, algoritma, atau prediksi yang dihasilkan oleh algoritma.
Ketika bias tidak ditangani, akan menghambat kemampuan orang untuk berpartisipasi dalam ekonomi dan masyarakat. Juga mengurangi potensi AI. Bisnis tidak dapat mengambil manfaat dari sistem yang memberikan hasil yang menyimpang dan menumbuhkan ketidakpercayaan di antara orang kulit berwarna, perempuan, penyandang disabilitas, komunitas LGBTQ, atau kelompok masyarakat yang terpinggirkan.
Buletin industri
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.
Menghilangkan bias AI membutuhkan penelusuran ke dalam kumpulan data, algoritme machine learning, dan elemen lain dari sistem AI untuk mengidentifikasi sumber potensi bias.
Sistem AI belajar membuat keputusan berdasarkan data pelatihan, jadi penting untuk menilai kumpulan data untuk mengetahui adanya bias. Salah satu metode adalah meninjau pengambilan sampel data untuk kelompok yang lebih atau kurang terwakili dalam data pelatihan. Sebagai contoh, data pelatihan untuk algoritma pengenalan wajah yang terlalu banyak merepresentasikan orang berkulit putih dapat menyebabkan kesalahan saat mencoba pengenalan wajah untuk orang berkulit berwarna. Demikian pula, data keamanan yang mencakup informasi yang dikumpulkan di wilayah geografis yang didominasi oleh orang kulit hitam dapat menimbulkan bias rasial dalam alat AI yang digunakan oleh polisi.
Bias juga dapat dihasilkan dari bagaimana data pelatihan diberi label. Misalnya, alat perekrutan AI yang menggunakan pelabelan yang tidak konsisten atau mengecualikan atau merepresentasikan karakteristik tertentu secara berlebihan dapat menggagalkan pelamar kerja yang memenuhi syarat dari pertimbangan.
Penggunaan data pelatihan yang cacat dapat mengakibatkan algoritma berulang kali menghasilkan kesalahan, hasil yang tidak adil, atau bahkan memperkuat bias yang melekat pada data yang cacat. Bias algoritma juga dapat disebabkan oleh kesalahan pemrograman, seperti pengembang yang secara tidak adil memberikan bobot pada faktor-faktor dalam pengambilan keputusan algoritma berdasarkan bias yang mereka sadari atau tidak sadari. Misalnya, indikator seperti pendapatan atau kosakata mungkin digunakan oleh algoritma untuk secara tidak sengaja mendiskriminasi orang-orang dari ras atau jenis kelamin tertentu.
Ketika orang memproses informasi dan membuat penilaian, kita pasti dipengaruhi oleh pengalaman dan preferensi kita. Akibatnya, orang dapat membangun bias ini ke dalam sistem AI melalui pemilihan data atau bagaimana data ditimbang. Sebagai contoh, bias kognitif dapat menyebabkan lebih memilih kumpulan data yang dikumpulkan dari orang Amerika daripada mengambil sampel dari berbagai populasi di seluruh dunia.
Menurut NIST, sumber bias ini lebih umum daripada yang kita kira. Dalam laporan berjudul Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), NIST mencatat bahwa āfaktor manusia dan kelembagaan sistemik juga merupakan sumber bias AI yang signifikan, dan saat ini diabaikan. Agar tantangan ini bisa ditaklukkan, diperlukan pertimbangan atas semua bentuk bias. Hal ini berarti kita perlu memperluas perspektif melampaui pipeline machine learning untuk mengenali dan menyelidiki cara teknologi ini diciptakan di masyarakat kita sekaligus mempelajari dampaknya.ā
Ketika masyarakat menjadi lebih sadar akan cara kerja AI dan kemungkinan adanya bias, organisasi telah menemukan banyak contoh bias dalam AI dalam berbagai contoh penggunaan.
Mengidentifikasi dan mengatasi bias dalam AI dimulai dengan tata kelola AI, atau kemampuan untuk mengarahkan, mengelola, dan memantau aktivitas AI suatu organisasi. Dalam praktiknya, tata kelola AI menciptakan serangkaian kebijakan, praktik, dan kerangka kerja untuk memandu pengembangan dan penggunaan teknologi AI yang bertanggung jawab. Jika dilakukan dengan baik, tata kelola AI memastikan adanya keseimbangan manfaat yang diberikan kepada bisnis, pelanggan, karyawan, dan masyarakat secara keseluruhan.
Melalui kebijakan tata kelola AI, perusahaan dapat membangun praktik berikut:
Kombinasi teknologi yang tepat bisa jadi krusial untuk strategi tata kelola AI dan data yang efektif, dengan arsitektur data modern dan AI yang dapat dipercaya sebagai komponen kunci. Orkestrasi kebijakan dalam arsitektur struktur data adalah alat yang tepat untuk menyederhanakan proses audit AI yang kompleks. Dengan mengintegrasikan audit AI dan proses terkait ke dalam kebijakan tata kelola arsitektur data Anda, organisasi Anda dapat membantu mendapatkan pemahaman tentang area yang memerlukan pemeriksaan berkelanjutan.
Di IBM Consulting, kami telah membantu klien menyiapkan proses evaluasi untuk bias dan bidang lainnya. Seiring dengan berkembangnya skala adopsi dan inovasi AI, panduan keamanan juga akan semakin matang, seperti halnya dengan setiap teknologi yang telah tertanam dalam struktur perusahaan selama bertahun-tahun. Di bawah ini, kami membagikan beberapa praktik terbaik dari IBM untuk membantu organisasi mempersiapkan penerapan AI yang aman di seluruh lingkungan mereka:
Pelajari bagaimana UU AI UE akan berdampak pada bisnis, cara mempersiapkan diri, mengurangi risiko, dan menyeimbangkan antara regulasi dan inovasi.
Pelajari tentang tantangan baru AI generatif, perlunya mengatur model AI dan ML, serta langkah-langkah untuk membangun kerangka kerja AI yang tepercaya, transparan, dan dapat dijelaskan.
Baca tentang mendorong praktik etis dan patuh dengan portofolio produk AI untuk model AI generatif.
Dapatkan pemahaman yang lebih dalam tentang cara memastikan keadilan, mengelola drift, menjaga kualitas, dan meningkatkan kemampuan menjelaskan dengan watsonx.governance.
Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.
Persiapkan Undang-Undang AI UE dan membangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.
Menyederhanakan cara Anda mengelola risiko dan kepatuhan terhadap peraturan dengan platform GRC terpadu.