Ketika perusahaan meningkatkan penggunaan kecerdasan buatan (AI), orang-orang mempertanyakan sejauh mana bias manusia telah masuk ke dalam sistem AI. Contoh bias AI di dunia nyata menunjukkan kepada kita bahwa ketika data dan algoritma diskriminatif dimasukkan ke dalam model AI, model tersebut menyebarkan bias dalam skala besar dan memperkuat efek negatif yang dihasilkan.
Perusahaan termotivasi untuk mengatasi tantangan bias dalam AI tidak hanya untuk mencapai keadilan, tetapi juga untuk memastikan hasil yang lebih baik. Namun, seperti halnya bias rasial dan gender yang telah terbukti sulit dihilangkan di dunia nyata, menghilangkan bias dalam AI bukanlah tugas yang mudah.
Dalam artikel berjudul What AI can and can't do (yet) for your business, penulis Michael Chui, James Manyika, dan Mehdi Miremadi dari McKinsey mencatat, "Bias semacam itu memiliki kecenderungan untuk tetap tertanam karena mengenalinya, dan mengambil langkah untuk mengatasinya, membutuhkan penguasaan teknik ilmu data yang mendalam, serta pemahaman yang lebih meta tentang kekuatan sosial yang ada, termasuk pengumpulan data. Secara keseluruhan, menghilangkan bias terbukti menjadi salah satu hambatan yang paling menakutkan, dan tentu saja yang paling sarat secara sosial, hingga saat ini".
Contoh bias AI dari kehidupan nyata memberi organisasi insight yang berguna tentang cara mengidentifikasi dan mengatasi bias. Dengan melihat secara kritis contoh-contoh ini, dan keberhasilan dalam mengatasi bias, para ilmuwan data dapat mulai membangun peta jalan untuk mengidentifikasi dan mencegah bias dalam model machine learning mereka.
Bias AI, yang juga disebut sebagai bias machine learning atau bias algoritma, mengacu pada sistem AI yang mengembalikan hasil bias yang mencerminkan dan melanggengkan bias manusia dalam masyarakat, termasuk ketidaksetaraan sosial di masa lalu dan saat ini. Bias dapat ditemukan pada data pelatihan awal, algoritma, atau prediksi yang dihasilkan oleh algoritma.
Ketika bias tidak ditangani, akan menghambat kemampuan orang untuk berpartisipasi dalam ekonomi dan masyarakat. Juga mengurangi potensi AI. Bisnis tidak dapat mengambil manfaat dari sistem yang memberikan hasil yang menyimpang dan menumbuhkan ketidakpercayaan di antara orang kulit berwarna, perempuan, penyandang disabilitas, komunitas LGBTQ, atau kelompok masyarakat yang terpinggirkan.
Menghilangkan bias AI membutuhkan penelusuran ke dalam kumpulan data, algoritme machine learning, dan elemen lain dari sistem AI untuk mengidentifikasi sumber potensi bias.
Sistem AI belajar membuat keputusan berdasarkan data pelatihan, jadi penting untuk menilai kumpulan data untuk mengetahui adanya bias. Salah satu metode adalah meninjau pengambilan sampel data untuk kelompok yang lebih atau kurang terwakili dalam data pelatihan. Sebagai contoh, data pelatihan untuk algoritma pengenalan wajah yang terlalu banyak merepresentasikan orang berkulit putih dapat menyebabkan kesalahan saat mencoba pengenalan wajah untuk orang berkulit berwarna. Demikian pula, data keamanan yang mencakup informasi yang dikumpulkan di wilayah geografis yang didominasi oleh orang kulit hitam dapat menimbulkan bias rasial dalam alat AI yang digunakan oleh polisi.
Bias juga dapat dihasilkan dari bagaimana data pelatihan diberi label. Misalnya, alat perekrutan AI yang menggunakan pelabelan yang tidak konsisten atau mengecualikan atau merepresentasikan karakteristik tertentu secara berlebihan dapat menggagalkan pelamar kerja yang memenuhi syarat dari pertimbangan.
Penggunaan data pelatihan yang cacat dapat mengakibatkan algoritma berulang kali menghasilkan kesalahan, hasil yang tidak adil, atau bahkan memperkuat bias yang melekat pada data yang cacat. Bias algoritma juga dapat disebabkan oleh kesalahan pemrograman, seperti pengembang yang secara tidak adil memberikan bobot pada faktor-faktor dalam pengambilan keputusan algoritma berdasarkan bias yang mereka sadari atau tidak sadari. Misalnya, indikator seperti pendapatan atau kosakata mungkin digunakan oleh algoritma untuk secara tidak sengaja mendiskriminasi orang-orang dari ras atau jenis kelamin tertentu.
Ketika orang memproses informasi dan membuat penilaian, kita pasti dipengaruhi oleh pengalaman dan preferensi kita. Akibatnya, orang dapat membangun bias ini ke dalam sistem AI melalui pemilihan data atau bagaimana data ditimbang. Sebagai contoh, bias kognitif dapat menyebabkan lebih memilih kumpulan data yang dikumpulkan dari orang Amerika daripada mengambil sampel dari berbagai populasi di seluruh dunia.
Menurut NIST, sumber bias ini lebih umum daripada yang Anda kira. Dalam laporannya yang berjudul Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), NIST mencatat bahwa "faktor kelembagaan dan masyarakat yang bersifat manusiawi dan sistemik juga merupakan sumber bias AI yang signifikan, dan saat ini masih terabaikan. Berhasil memenuhi tantangan ini akan perlu mempertimbangkan semua bentuk bias. Hal ini berarti memperluas perspektif kami di luar jalur machine learning untuk mengenali dan menyelidiki bagaimana teknologi ini diciptakan di dalam dan berdampak pada masyarakat kita".
Ketika masyarakat menjadi lebih sadar akan cara kerja AI dan kemungkinan adanya bias, organisasi telah menemukan banyak contoh bias dalam AI dalam berbagai contoh penggunaan.
Mengidentifikasi dan mengatasi bias dalam AI dimulai dengan tata kelola AI, atau kemampuan untuk mengarahkan, mengelola, dan memantau aktivitas AI suatu organisasi. Dalam praktiknya, tata kelola AI menciptakan serangkaian kebijakan, praktik, dan kerangka kerja untuk memandu pengembangan dan penggunaan teknologi AI yang bertanggung jawab. Jika dilakukan dengan baik, tata kelola AI memastikan adanya keseimbangan manfaat yang diberikan kepada bisnis, pelanggan, karyawan, dan masyarakat secara keseluruhan.
Melalui kebijakan tata kelola AI, perusahaan dapat membangun praktik berikut:
Campuran teknologi yang tepat dapat menjadi penting untuk strategi tata kelola AI dan data yang efektif, dengan arsitektur data modern dan platform AI yang dapat dipercaya menjadi komponen kunci. Orkestrasi kebijakan dalam arsitektur struktur data adalah alat yang sangat baik yang dapat menyederhanakan proses audit AI yang kompleks. Dengan memasukkan audit AI dan proses terkait ke dalam kebijakan tata kelola arsitektur data Anda, organisasi Anda dapat membantu mendapatkan pemahaman tentang area yang memerlukan pemeriksaan berkelanjutan.
Di IBM Consulting, kami telah membantu klien menyiapkan proses evaluasi untuk bias dan bidang lainnya. Seiring dengan berkembangnya skala adopsi dan inovasi AI, panduan keamanan juga akan semakin matang, seperti halnya dengan setiap teknologi yang telah tertanam dalam struktur perusahaan selama bertahun-tahun. Di bawah ini, kami membagikan beberapa praktik terbaik dari IBM untuk membantu organisasi mempersiapkan penerapan AI yang aman di seluruh lingkungan mereka:
Jelajahi apa yang dapat dilakukan watson.governance untuk Anda