Apa itu AI yang bertanggung jawab?Ā 

6 Februari 2024

Penyusun

Cole Stryker

Editorial Lead, AI Models

Gather

Apa itu AI yang bertanggung jawab?

Kecerdasan buatan (AI) yang bertanggung jawab adalah seperangkat prinsip yang membantu memandu desain, pengembangan, penerapan, dan penggunaan AI - membangun kepercayaan pada solusi AI yang berpotensi memberdayakan organisasi dan para pemangku kepentingannya. AI yang bertanggung jawab melibatkan pertimbangan dampak sosial yang lebih luas dari sistem AI dan langkah-langkah yang diperlukan untuk menyelaraskan teknologi ini dengan nilai-nilai pemangku kepentingan, standar hukum, dan prinsip-prinsip etika. AI yang bertanggung jawab bertujuan untuk menanamkan prinsip-prinsip etika tersebut ke dalam aplikasi dan alur kerja AI untuk mengurangi risiko dan hasil negatif yang terkait dengan penggunaan AI, sekaligus memaksimalkan hasil positif.

Artikel ini bertujuan untuk memberikan pandangan umum tentang AI yang bertanggung jawab. Untuk mempelajari lebih lanjut tentang sudut pandang spesifik IBM, lihat halaman etika AI kami.

Adopsi machine learning yang meluas pada tahun 2010-an, yang didorong oleh kemajuan dalam big data dan daya komputasi, membawa tantangan etika baru, seperti bias, transparansi, dan penggunaan data pribadi. Etika AI muncul sebagai disiplin ilmu yang berbeda selama periode ini karena perusahaan teknologi dan lembaga penelitian AI berusaha untuk secara proaktif mengelola upaya AI mereka secara bertanggung jawab.

Menurut penelitian Accenture: "Hanya 35% konsumen global yang mempercayai bagaimana teknologi AI diimplementasikan oleh organisasi. Dan 77% berpendapat bahwa organisasi harus bertanggung jawab atas penyalahgunaan AI."1 Dalam lingkungan ini, pengembang AI diwajibkan untuk mengarahkan upaya mereka dengan kerangka kerja etis AI yang kuat dan konsisten.

Ini berlaku terutama untuk jenis AI generatif baru yang sekarang diadopsi dengan cepat oleh perusahaan. Prinsip AI yang bertanggung jawab dapat membantu pengadopsi memanfaatkan potensi penuh dari alat-alat ini, sekaligus meminimalkan hasil yang tidak diinginkan.

AI harus dapat dipercaya, dan agar pemangku kepentingan mempercayai AI, itu harus transparan. Perusahaan teknologi harus transparan tentang siapa yang melatih sistem AI mereka, data apa yang digunakan dalam pelatihan tersebut, dan yang terpenting, apa yang masuk ke rekomendasi algoritma mereka. AI harus dapat dijelaskan jika kita akan menggunakannya untuk membantu membuat keputusan penting.

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan.Ā 

Pilar Kepercayaan

IBM telah mengembangkan kerangka kerja untuk memperjelas prinsip-prinsip ini. Mari kita lihat properti yang membentuk 'Pilar Kepercayaan'. Secara keseluruhan, properti ini menjawab pertanyaan, "Apa yang diperlukan untuk mempercayai hasil model AI?" AI tepercaya adalah keharusan strategis dan etis di IBM, tetapi pilar-pilar ini dapat digunakan oleh perusahaan mana pun untuk memandu upaya mereka dalam AI.

Kemampuan penjelasan

Model machine learning seperti jaringan neural mencapai akurasi yang mengesankan pada berbagai tugas. Namun, keterjelasan dan interpretabilitas semakin penting untuk pengembangan AI yang dapat dipercaya. Tiga prinsip menjadi landasan pendekatan IBM terhadap kejelasan.

Akurasi prediksi

Akurasi adalah komponen kunci keberhasilan penggunaan AI dalam operasi sehari-hari. Akurasi prediksi dapat ditentukan dengan menjalankan simulasi dan membandingkan hasil AI dengan hasil pada set data latihan. Teknik paling populer yang digunakan untuk ini adalah Local Interpretable Model-Agnostic Explanations (LIME), yang menjelaskan prediksi pengklasifikasi dengan algoritma machine learning.

Ketertelusuran

Ketertelusuran adalah properti AI yang menandakan apakah ia memungkinkan pengguna untuk melacak prediksi dan prosesnya. Ini melibatkan dokumentasi data dan bagaimana itu diproses oleh model. Ketertelusuran adalah teknik kunci lainnya untuk mencapai penjelasan, dan dicapai, misalnya, dengan membatasi cara pengambilan keputusan dan menyiapkan cakupan yang lebih sempit untuk aturan dan fitur machine learning.

Pemahaman keputusanĀ 

Ini adalah faktor manusia. Praktisi harus dapat memahami bagaimana dan mengapa AI memperoleh kesimpulan. Hal ini dicapai melalui edukasi berkelanjutan.

Keadilan

Model machine learning semakin banyak digunakan untuk menginformasikan pengambilan keputusan berisiko tinggi yang berkaitan dengan orang. Meskipun machine learning pada dasarnya adalah bentuk diskriminasi statistik, diskriminasi menjadi tidak dapat diterima ketika menempatkan kelompok-kelompok yang memiliki hak istimewa pada keuntungan sistematis dan kelompok-kelompok tertentu yang tidak memiliki hak istimewa pada kerugian sistematis, yang berpotensi menyebabkan berbagai kerugian. Bias dalam data pelatihan, karena prasangka dalam label atau pengambilan sampel di bawah/berlebihan, menghasilkan model dengan bias yang tidak diinginkan.

  • Data yang beragam dan representatif

Pastikan bahwa data pelatihan yang digunakan untuk membangun model AI beragam dan mewakili populasi yang akan dilayaninya. Sertakan input data dari berbagai kelompok demografi untuk menghindari kurang terwakili atau bias. Periksa dan nilai data pelatihan secara teratur untuk mengetahui adanya bias. Gunakan alat dan metode untuk mengidentifikasi dan mengoreksi bias dalam kumpulan data sebelum melatih model.

  • Algoritma sadar bias

Memasukkan metrik keadilan ke dalam proses pengembangan untuk menilai bagaimana subkelompok yang berbeda dipengaruhi oleh prediksi model. Memantau dan meminimalkan perbedaan hasil di berbagai kelompok demografis. Menerapkan batasan dalam algoritme untuk memastikan bahwa model mematuhi kriteria keadilan yang telah ditetapkan selama pelatihan dan penerapan.

  • Teknik mitigasi bias

Menerapkan teknik seperti pengambilan ulang sampel, pembobotan ulang, dan pelatihan pertentangan untuk mengurangi bias dalam prediksi model.

  • Tim pengembangan yang beragam

Kumpulkan tim interdisipliner dan beragam yang terlibat dalam pengembangan AI. Tim yang beragam dapat membawa perspektif yang berbeda, membantu mengidentifikasi dan memperbaiki bias yang mungkin terlewatkan oleh tim yang homogen.

  • Papan peninjauan AI etis

Membentuk dewan atau komite peninjau untuk mengevaluasi potensi bias dan implikasi etika dari proyek AI. Dewan ini dapat memberikan panduan tentang pertimbangan etis di sepanjang siklus pengembangan.

Kekokohan

AI yang tangguh secara efektif menangani kondisi luar biasa, seperti kelainan pada input atau serangan berbahaya, tanpa menyebabkan kerugian yang tidak disengaja. Ia juga dibangun untuk menahan gangguan yang disengaja maupun tidak disengaja dengan melindungi dari kerentanan yang terekspos. Meningkatnya ketergantungan kita pada model-model ini dan nilai yang diwakilinya sebagai akumulasi pengetahuan rahasia dan hak milik, meningkatkan risiko terhadap serangan. Model-model ini menimbulkan risiko keamanan unik yang harus diperhitungkan dan dikurangi.

Transparansi

Pengguna harus dapat melihat bagaimana layanan bekerja, mengevaluasi fungsinya, dan memahami kekuatan dan keterbatasannya. Transparansi yang meningkat memberikan informasi bagi konsumen AI untuk lebih memahami bagaimana model atau layanan AI dibuat. Hal ini membantu pengguna model untuk menentukan apakah model tersebut sesuai untuk contoh penggunaan yang diberikan, atau untuk mengevaluasi bagaimana AI menghasilkan kesimpulan yang tidak akurat atau bias.

Privasi

Banyak kerangka kerja peraturan, termasuk GDPR, mengamanatkan organisasi untuk mematuhi prinsip-prinsip privasi tertentu saat memproses informasi pribadi. Pihak ketiga yang jahat yang memiliki akses ke model ML yang telah dilatih, bahkan tanpa akses ke data pelatihan itu sendiri, masih dapat mengungkapkan informasi pribadi yang sensitif tentang orang-orang yang datanya digunakan untuk melatih model tersebut. Sangatlah penting untuk dapat melindungi model AI yang mungkin berisi informasi pribadi, dan mengontrol data apa saja yang masuk ke dalam model tersebut.

Menerapkan praktik AI yang bertanggung jawab

Menerapkan praktik AI yang bertanggung jawab di tingkat perusahaan melibatkan pendekatan holistik dan menyeluruh yang membahas berbagai tahap pengembangan dan penerapan AI.

Definisikan prinsip-prinsip AI yang bertanggung jawab

Kembangkan seperangkat prinsip AI yang bertanggung jawab yang selaras dengan nilai-nilai dan tujuan perusahaan. Pertimbangkan aspek-aspek kunci yang dijelaskan di atas dalam 'Pilar Kepercayaan'. Prinsip-prinsip tersebut dapat dikembangkan dan dipelihara oleh tim khusus etika AI lintas fungsi dengan perwakilan dari berbagai departemen, termasuk spesialis AI, ahli etika, pakar hukum, dan pemimpin bisnis.

Mendidik dan meningkatkan kesadaran

Melakukan program pelatihan untuk mendidik karyawan, pemangku kepentingan, dan pengambil keputusan tentang praktik AI yang bertanggung jawab. Hal ini termasuk memahami potensi bias, pertimbangan etika, dan pentingnya memasukkan AI yang bertanggung jawab ke dalam operasi bisnis.

Mengintegrasikan etika di seluruh siklus pengembangan AI

Tanamkan praktik-praktik AI yang bertanggung jawab di seluruh jalur pengembangan AI, mulai dari pengumpulan data dan pelatihan model hingga penerapan dan pemantauan berkelanjutan. Gunakan teknik untuk mengatasi dan mengurangi bias dalam sistem AI. Nilai tingkat keadilan model secara rutin, terutama terkait atribut sensitif seperti ras, jenis kelamin, atau status sosial ekonomi. Prioritaskan transparansi dengan membuat sistem AI dapat dijelaskan. Berikan dokumentasi yang jelas tentang sumber data, algoritma, dan proses keputusan. Pengguna dan pemangku kepentingan harus dapat memahami bagaimana sistem AI membuat keputusan.

Melindungi privasi pengguna

Tetapkan praktik dan perlindungan tata kelola data dan AI yang kuat untuk melindungi privasi pengguna akhir dan data sensitif. Komunikasikan kebijakan penggunaan data dengan jelas, mendapatkan persetujuan berdasarkan informasi, dan patuhi peraturan perlindungan data.

Memfasilitasi pengawasan manusia

Mengintegrasikan mekanisme untuk pengawasan manusia dalam proses pengambilan keputusan yang kritis. Tentukan garis akuntabilitas yang jelas untuk memastikan pihak-pihak yang bertanggung jawab diidentifikasi dan dapat dimintai pertanggungjawaban atas hasil sistem AI. Menetapkan pemantauan berkelanjutan terhadap sistem AI untuk mengidentifikasi dan mengatasi masalah etika, bias, atau masalah yang mungkin timbul dari waktu ke waktu. Secara teratur mengaudit model AI untuk menilai kepatuhan terhadap pedoman etika.

Dorong kolaborasi eksternal

Dorong kolaborasi dengan organisasi eksternal, lembaga penelitian, dan kelompok sumber terbuka yang bekerja pada AI yang bertanggung jawab. Ikuti info terkini perkembangan terbaru dalam praktik dan inisiatif AI yang bertanggung jawab dan berkontribusilah terhadap upaya di seluruh industri.

AI Academy

Kepercayaan, transparansi, dan tata kelola di AI

Kepercayaan pada AI bisa dibilang merupakan topik paling penting dalam AI. Dan juga merupakan topik yang cukup rumit. Kami akan menguraikan isu-isu seperti halusinasi, bias, dan risiko, dan menunjukkan langkah-langkah untuk mengadopsi AI secara etis, bertanggung jawab, dan adil.

Solusi terkait
IBM watsonx.governanceā„¢

Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.

Temukan watsonx.governance
Layanan konsultasi tata kelola AI

Persiapkan Undang-Undang AI UE dan membangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.

Jelajahi layanan tata kelola AI
IBM OpenPages

Menyederhanakan cara Anda mengelola risiko dan kepatuhan terhadap peraturan dengan platform GRC terpadu.

Jelajahi OpenPages
Ambil langkah selanjutnya

Arahkan , kelola, dan pantau AI Anda dengan satu portofolio untuk mempercepat AI yang bertanggung jawab, transparan, dan dapat dijelaskan.

Jelajahi watsonx.governance Pesan demo langsung
Catatan kaki

1Ā Technology Vision 2022, Accenture, 2022.