Apa itu Trustworthy AI?

Rekan kerja melihat laptop di atas meja di dekat jendela

Penulis

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Amanda McGrath

Staff Writer

IBM Think

Apa itu Trustworthy AI?

Trustworthy AI, atau AI tepercaya, mengacu pada sistem kecerdasan buatan yang dapat dijelaskan, adil, dapat interpretasikan, tangguh, transparan, aman, dan terlindungi. Kualitas ini menciptakan rasa percaya dan keyakinan terhadap sistem AI di kalangan pemangku kepentingan dan pengguna akhir.

AI tepercaya atau TAI (Trustworthy Artificial Intelligence), dapat mengurangi potensi risiko terkait penerapan model AI. Risiko AI ini termasuk bahaya bagi orang, organisasi, dan ekosistem. Ketika hal ini terjadi, mereka tidak hanya dapat merusak kepercayaan terhadap model AI tertentu, tetapi juga terhadap kecerdasan buatan secara keseluruhan.

Kerangka kerja AI tepercaya dapat membantu memandu organisasi dalam pengembangan, adopsi, dan evaluasi teknologi AI. Beberapa organisasi pemerintah dan antar pemerintah telah menetapkan kerangka kerja seperti itu, termasuk Institut Standar dan Teknologi Nasional (NIST) di Amerika Serikat, Kelompok pakar Tingkat Tinggi Komisi Eropa tentang AI dan Organisasi untuk Kerjasama Ekonomi dan Pembangunan (OECD).

Selain itu, bisnis dapat menerapkan berbagai strategi dan alat untuk meningkatkan kepercayaan sistem AI mereka. Misalnya, pemantauan berkelanjutan, dokumentasi, dan kerangka kerja tata kelola AI semuanya dapat membantu meminimalkan risiko.

 

Mengapa AI tepercaya itu penting?

Memahami bagaimana suatu teknologi bekerja seringkali merupakan kunci untuk mempercayai kemampuannya. Tetapi banyak sistem AI dan machine learning (ML), seperti model pembelajaran mendalam, beroperasi sepenuhnya sebagai kotak hitam; mereka menyerap data dan membuat hasil, dengan sedikit atau tanpa transparansi tentang bagaimana mereka sampai pada hasil tersebut.

Akibatnya, kekurangan kepercayaan berlimpah. Sebuah disurvei tahun 2023 menemukan bahwa lebih dari 40% pemimpin bisnis mengutip kekhawatiran tentang kepercayaan AI.1 Sementara itu, konsumen juga menunjukkan ketidakpercayaan terhadap AI: sebuah studi pada tahun 2024 menemukan bahwa menyertakan istilah “kecerdasan buatan” dalam label produk dapat membuat pembeli cenderung tidak membeli produk tersebut.2

Contoh nyata dari sistem AI yang menghasilkan hasil yang salah atau berbahaya dalam contoh penggunaan yang berisiko tinggi semakin memicu kekhawatiran akan kepercayaan AI. Dalam satu contoh perawatan kesehatan yang terkenal, model AI gagal mendiagnosis sepsis dengan andal. Meskipun model ini berkinerja baik dalam lingkungan pelatihan, model ini tidak mendeteksi sepsis pada lebih dari dua pertiga pasien rumah sakit.3

Dalam kasus lain, model AI telah menunjukkan pengambilan keputusan algoritmik yang bias, termasuk sistem kepolisian prediktif yang secara tidak proporsional menargetkan komunitas minoritas dan sistem pelacakan pelamar kerja yang menguntungkan kandidat laki-laki daripada perempuan. Dan kemudian ada masalah keamanan, seperti chatbot AI secara tidak sengaja mengungkapkan data pribadi yang sensitif dan peretas yang mengeksploitasi kerentanan dalam model AI untuk mencuri informasi milik perusahaan.

Ketika model AI berkinerja buruk atau memberikan hasil yang berbahaya, itu dapat merusak kepercayaan tidak hanya pada model tersebut, tetapi pada kecerdasan buatan secara umum, berpotensi menghambat pengembangan dan adopsi AI di masa depan. Mencapai sistem AI tepercaya dan mendukung pengembangan AI di masa depan berarti menyorotkan cahaya ke dalam metaforis kotak hitam AI. Hal ini memungkinkan pemangku kepentingan untuk mengandalkan aplikasi AI mereka untuk memberikan hasil yang andal dan akurat sambil meminimalkan risiko hasil yang bias atau tidak selaras dengan maksud asli.

 

Apa saja prinsip-prinsip AI tepercaya?

Organisasi dan kerangka kerja yang berbeda menekankan berbagai prinsip dan tujuan panduan untuk AI tepercaya. Prinsip-prinsip AI tepercaya yang sering dikutip meliputi:

  • Akuntabilitas
  • Kemampuan penjelasan
  • Keadilan
  • Kemampuan interpretasi dan transparasi
  • Privasi
  • Keandalan
  • Ketangguhan dan keamanan
  • Keamanan

Akuntabilitas

Akuntabilitas dalam AI memerlukan pertanggungjawaban dari para pelaku AI atas berfungsinya sistem AI di sepanjang siklus hidupnya dengan baik. Ini termasuk individu dan organisasi yang terlibat dalam pengembangan, penerapan, atau pengoperasian teknologi AI.4

 

Kemampuan penjelasan

Kemampuan penjelasan AI adalah tentang verifikasi atau memberikan justifikasi untuk hasil model. Ada berbagai metode penjelasan, yang secara kolektif dikenal sebagai AI yang dapat dijelaskan, yang memungkinkan pengguna manusia untuk memahami dan mempercayai hasil dan output yang dibuat oleh algoritma machine learning. 

 

Keadilan

Keadilan dalam AI mengacu pada perlakuan yang adil terhadap individu dan kelompok. Ini mencakup mitigasi bias algoritmik dan data . Bias algoritmik terjadi ketika kesalahan sistemik dalam algoritma machine learning menghasilkan hasil yang tidak adil atau diskriminatif, sedangkan bias data mengacu pada sifat miring atau tidak representatif dari data pelatihan yang digunakan dalam model AI.

 

Kemampuan interpretasi dan transparasi

Kemampuan interpretasi AI membantu orang lebih memahami dan menjelaskan proses pengambilan keputusan model AI. Kemampuan interpretasi adalah tentang transparansi, memungkinkan pengguna untuk memahami arsitektur model, fitur yang digunakannya dan cara menggabungkannya untuk memberikan prediksi. Sementara beberapa model secara inheren dapat ditafsirkan, yang lain memerlukan penggunaan metode interpretasi.

 

Privasi

Privasi AI mengacu pada perlindungan informasi pribadi atau sensitif yang dikumpulkan, digunakan, dibagikan, atau disimpan oleh AI. Privasi AI terkait erat dengan privasi data. Privasi data, juga dikenal sebagai privasi informasi, adalah prinsip bahwa seseorang harus memiliki kendali atas data pribadi mereka. Menjaga AI dan privasi data dapat ditingkatkan melalui sejumlah metode, mulai dari kriptografi hingga pembelajaran federasi.

 

Keandalan

Keandalan dapat didefinisikan sebagai kemampuan untuk berfungsi sebagaimana mestinya atau yang dibutuhkan, tanpa kegagalan, untuk jangka waktu tertentu dalam kondisi tertentu. Sistem AI yang andal, bila digunakan dalam kondisi yang diharapkan, harus memberikan hasil yang benar selama periode tertentu, yang mungkin mencakup masa pakai penuh sistem tersebut.5

 

Ketangguhan dan keamanan

Sistem AI yang aman dan tangguh memiliki mekanisme perlindungan terhadap serangan musuh dan akses tidak sah, meminimalkan risiko dan kerentanan keamanan siber. Mereka dapat bekerja dalam kondisi abnormal tanpa menyebabkan kerusakan yang tidak diinginkan dan kembali ke fungsi normal setelah kejadian yang tidak terduga.

 

Keamanan

Sistem AI yang aman tidak membahayakan kehidupan manusia, kesehatan, properti, atau lingkungan. Mereka dirancang secara proaktif untuk melindungi orang dari bahaya dan mencakup tindakan yang mengurangi dampak yang tidak aman, termasuk kemungkinan menghentikan penggunaan sistem.6

 

Risiko apa yang dapat dikurangi oleh AI tepercaya?

Sistem AI yang tidak memiliki kualitas tepercaya menimbulkan berbagai risiko. Institut Standar dan Teknologi Nasional (NIST), yang merupakan bagian dari Departemen Perdagangan AS, mengembangkan kerangka kerja yang menjadi tolok ukur untuk manajemen risiko AI. Ini mengatur risiko potensi bahaya dari sistem AI ke dalam kategori berikut:7

  • Membahayakan orang
  • Membahayakan organisasi
  • Membahayakan ekosistem

Membahayakan orang

Kategori ini mencakup bahaya yang ditimbulkan terhadap kebebasan sipil, hak-hak, keselamatan fisik atau psikologis, atau peluang ekonomi individu. Hal ini juga mencakup dampak terhadap kelompok melalui diskriminasi dan dampak terhadap masyarakat dalam bentuk gangguan terhadap partisipasi demokratis atau akses pendidikan.

 

Membahayakan organisasi

Kategori ini mengacu pada kerugian pada operasi bisnis organisasi, kerugian dari pelanggaran keamanan atau kerugian moneter, dan kerusakan reputasinya.

 

Membahayakan ekosistem

Kategori ini mencakup bahaya pada “elemen dan sumber daya yang saling berhubungan dan saling bergantung.” NIST secara khusus mengutip bahaya terhadap sistem keuangan global, rantai pasokan atau “sistem yang saling terkait” serta sumber daya alam, lingkungan, dan planet ini.

 

Hasil yang bias atau tidak akurat dari sistem AI dapat mengakibatkan banyak bahaya. Kembali ke contoh sebelumnya, sistem pelacakan pelamar yang bias dapat merusak peluang ekonomi individu dan juga merusak reputasi organisasi. Jika model bahasa besar (LLM) ditipu agar menjalankan malware yang melumpuhkan operasi suatu perusahaan, hal itu dapat menimbulkan kerugian bagi perusahaan maupun rantai pasokan tempatnya berada.

Sistem AI yang dapat dipercaya dapat membantu mencegah skenario dan konsekuensi yang mengerikan seperti itu. Menurut NIST, “sistem AI tepercaya dan penggunaannya yang bertanggung jawab dapat mengurangi risiko negatif dan bermanfaat bagi orang, organisasi, dan ekosistem.”

 

Kerangka kerja AI tepercaya

Dalam beberapa tahun terakhir, kerangka kerja yang berbeda telah muncul untuk memandu penyedia dan pengguna AI dalam pengembangan, penerapan, dan operasi sistem AI tepercaya. Kerangka kerja tersebut termasuk:

 

Kerangka Kerja Manajemen Risiko AI NIST

Diterbitkan pada Januari 2023, NIST AI Risk Management Framework (AI RMF) mencakup ikhtisar risiko AI di seluruh siklus hidup AI dan karakteristik sistem AI tepercaya. Kerangka kerja ini juga menguraikan tindakan spesifik untuk membantu organisasi mengelola sistem tersebut, termasuk tugas pengujian, evaluasi, verifikasi, dan validasi.

Kerangka kerja sukarela berlaku untuk perusahaan atau geografi mana pun, tetapi NIST mengakui bahwa tidak semua karakteristik AI tepercaya berlaku di setiap pengaturan. Kerangka kerja mendorong penggunaan penilaian manusia dalam memilih metrik kepercayaan yang berlaku dan mempertimbangkan bahwa pertukaran biasanya terlibat ketika mengoptimalkan satu karakteristik AI yang dapat dipercaya atau lainnya. Pada Juli 2024, NIST merilis sumber daya pendamping untuk AI RMF, yang berfokus pada AI generatif.

 

Prinsip AI dari Economic Co-operation and Development (OECD)

Prinsip AI OECD mempromosikan penghormatan hak asasi manusia dan nilai-nilai demokrasi dalam penggunaan AI. Diadopsi pada Mei 2019 dan diperbarui pada Mei 2024, kerangka kerja OECD mencakup prinsip-prinsip berbasis nilai dan rekomendasi bagi para pembuat kebijakan. OECD menekankan rekomendasi tersebut sebagai standar antar pemerintah pertama untuk AI, dengan 47 penganut di seluruh dunia, termasuk Amerika Serikat, negara-negara Uni Eropa dan negara-negara di Amerika Selatan dan Asia.

 

Pedoman Etika Uni Eropa untuk Kecerdasan Buatan Tepercaya

Pedoman Uni Eropa, yang diterbitkan pada April 2019 oleh Kelompok Pakar Tingkat Tinggi Komisi Eropa tentang AI, fokus pada etika AI dan menekankan pendekatan “berpusat pada manusia” untuk pengembangan AI di Uni Eropa. Pedoman tersebut mencakup 7 prinsip etika, seperti “hak dan pengawasan manusia” dan “kesejahteraan masyarakat dan lingkungan”. Tahun berikutnya, grup ini merilis Daftar Penilaian untuk AI Tepercaya (tautan berada di luar ibm.com), yang membantu organisasi mengevaluasi sistem AI mereka.

Meskipun pedoman itu sendiri tidak mengikat, mereka kemudian dikutip dalam EU AI Act yang penting, sebuah undang-undang yang mengatur pengembangan atau penggunaan kecerdasan buatan di Uni Eropa. Teks undang-undang tersebut menyatakan bahwa prinsip-prinsip etika AI UE “harus diterjemahkan, jika memungkinkan, dalam desain dan penggunaan model AI”.8

 

Organisasi lain juga telah merilis kerangka kerja dan pedoman yang mendorong AI yang dapat dipercaya, termasuk Kantor Sains dan Teknologi Gedung Putih (melalui Blueprint for AI Bill of Rights), dan perusahaan seperti Deloitte (tautan berada di luar ibm.com) dan IBM.

 

AI tepercaya vs. AI etis vs. AI yang bertanggung jawab

Istilah AI tepercaya, AI etis, dan AI yang bertanggung jawab sering digunakan secara bergantian. Dan karena definisi setiap konsep dapat bervariasi menurut sumbernya dan sering kali mencakup tumpang tindih yang signifikan, menarik perbedaan yang meyakinkan di antara ketiganya dapat menjadi tantangan tersendiri.

Sebagai contoh, definisi umum dari AI yang dapat dipercaya dan AI yang etis mencantumkan prinsip-prinsip seperti keadilan dan privasi sebagai dasar dari setiap konsep. Demikian juga, akuntabilitas dan transparansi adalah atribut yang sering dikaitkan dengan AI tepercaya dan AI yang bertanggung jawab.

Salah satu cara untuk membedakan di antara 3 konsep berbasis AI adalah dengan melihat di luar prinsip-prinsip intinya dan fokus pada cara penggunaannya:

  • AI tepercaya sering dibingkai sebagai sesuatu yang dicapai; AI-lah yang membangun kepercayaan dengan penggunanya.
  • Sebaliknya, AI etis digambarkan sebagai sistem AI yang memiliki pertimbangan etis, yang mencerminkan nilai-nilai kemanusiaan dan standar moral, yang tertanam di dalamnya selama desain dan pengembangannya.
  • AI yang bertanggung jawab dapat mencakup sarana praktis untuk menanamkan etika tersebut dalam aplikasi dan alur kerja AI.
Desain 3D bola yang menggelinding di lintasan

Berita dan insight AI terbaru 


Insight dan berita yang dikurasi oleh para ahli tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

Strategi untuk mencapai AI tepercaya

Organisasi dapat mengambil langkah penting untuk membantu memastikan sistem kecerdasan buatan mereka, termasuk algoritme dan kumpulan data AI, beroperasi sesuai dengan prinsip-prinsip AI yang dapat dipercaya.

Penilaian: Menilai proses bisnis yang didukung AI dapat membantu perusahaan menentukan ruang untuk perbaikan pada metrik kepercayaan yang berbeda.

Pemantauan berkelanjutan: Melalui pemantauan berkelanjutan terhadap masalah seperti bias AI dan perubahan model, organisasi secara proaktif mengatasi proses atau hasil yang tidak adil atau tidak akurat, sehingga mendukung keadilan dan keandalan.

Manajemen risiko: Menerapkan kerangka kerja dan alat manajemen risiko memungkinkan deteksi dan meminimalkan pelanggaran keamanan dan pelanggaran privasi untuk memberdayakan ketangguhan AI.

Dokumentasi: Dokumentasi otomatis di seluruh ilmu data dan siklus hidup AI dapat digunakan untuk audit industri dan peraturan, memungkinkan akuntabilitas dan transparansi.

Kerangka kerja tata kelola AI: Kerangka kerja tata kelola AI mencakup prosedur manajemen data dan model, membantu memastikan bahwa pengembang dan ilmuwan data dalam suatu organisasi mengikuti standar internal dan peraturan pemerintah.

Perangkat lunak tata kelola AI dan toolkit sumber terbuka dapat membantu organisasi mengambil langkah ini dan langkah lainnya untuk meningkatkan kepercayaan pada sistem AI mereka. Dengan langkah-langkah dan perlindungan yang tepat, bisnis dapat meminimalkan risiko saat mereka memanfaatkan kekuatan AI.

 
Solusi terkait
IBM® watsonx.governance

Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.

Temukan watsonx.governance
Solusi tata kelola AI

Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.

Temukan solusi tata kelola AI
Layanan konsultasi tata kelola AI

Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.

Temukan layanan tata kelola AI
Ambil langkah selanjutnya

Arahkan, kelola, dan pantau AI Anda dengan satu portofolio untuk mempercepat AI yang bertanggung jawab, transparan, dan dapat dijelaskan.

  1. Jelajahi watsonx.governance
  2. Pesan demo langsung