Apa yang dimaksud dengan AI yang dapat dijelaskan?
Berlangganan Buletin IBM
Dua orang pekerja duduk di meja bersama, keduanya melihat monitor komputer

AI yang dapat dijelaskan (XAI-Explainable artificial intelligence) adalah serangkaian proses dan metode yang memungkinkan pengguna manusia memahami dan memercayai hasil dan output yang dihasilkan oleh algoritme machine learning. 

AI yang dapat dijelaskan digunakan untuk mendeskripsikan model AI, perkiraan dampak, dan potensi biasnya. Ia membantu mengkarakterisasi keakuratan model, keadilan, transparansi, dan hasil dalam pengambilan keputusan yang didukung AI. AI yang dapat dijelaskan sangat penting bagi organisasi dalam membangun kepercayaan dan keyakinan saat menerapkan model AI ke dalam produksi. Kemampuan menjelaskan AI juga membantu organisasi mengadopsi pendekatan yang bertanggung jawab terhadap pengembangan AI.

Saat AI menjadi lebih canggih, manusia ditantang untuk memahami dan menelusuri kembali bagaimana algoritme tersebut mencapai hasil. Seluruh proses perhitungan berubah menjadi sesuatu yang biasa disebut “kotak hitam” yang mustahil ditafsirkan. Model kotak hitam ini dibuat langsung dari data. Dan, bahkan para insinyur atau ilmuwan data yang menciptakan algoritme tersebut tidak dapat memahami atau menjelaskan apa sebenarnya yang terjadi di dalamnya atau bagaimana algoritme AI mencapai hasil tertentu.

Ada banyak keuntungan dalam memahami cara sistem berkemampuan AI menghasilkan output tertentu.  Kemampuan penjelasan dapat membantu pengembang memastikan bahwa sistem berfungsi sebagaimana diharapkan, yang mungkin diperlukan untuk memenuhi standar peraturan, atau bisa jadi penting dalam memungkinkan orang-orang yang terkena dampak suatu keputusan untuk menantang atau mengubah hasil tersebut.¹

Bagaimana membangun AI yang bertanggung jawab dalam skala besar

Pentingnya AI yang dapat dijelaskan

Sangat penting bagi sebuah organisasi untuk memiliki pemahaman penuh tentang proses pengambilan keputusan AI dengan model pemantauan dan akuntabilitas AI serta tidak begitu saja mempercayainya. AI yang dapat dijelaskan dapat membantu manusia memahami dan menjelaskan algoritme machine learning (ML), pembelajaran mendalam, dan neural networks.

Model ML sering dianggap sebagai kotak hitam yang mustahil ditafsirkan.² Neural network yang digunakan dalam pembelajaran mendalam termasuk yang paling sulit dipahami manusia. Salah satu risiko yang sudah lama ada dalam pelatihan model AI yaitu bias. Ini sering kali didasarkan pada ras, jenis kelamin, usia, atau lokasi. Selain itu, performa model AI dapat berubah atau menurun karena perbedaan data produksi dengan data pelatihan. Karenanya, penting bagi bisnis untuk terus memantau dan mengelola model guna meningkatkan kemampuan penjelasan AI sambil mengukur dampak bisnis dari penggunaan algoritme tersebut. AI yang dapat dijelaskan juga membantu meningkatkan kepercayaan pengguna akhir, kemampuan audit model, dan penggunaan AI secara produktif. Ia juga memitigasi risiko kepatuhan, hukum, keamanan, dan reputasi produksi AI.

AI yang dapat dijelaskan adalah salah satu prasyarat utama penerapkan AI yang bertanggung jawab, yaitu sebuah metodologi untuk penerapan metode AI dalam skala besar di organisasi nyata dengan keadilan, kemampuan penjelasan model, dan akuntabilitas.³ Untuk membantu mengadopsi AI secara bertanggung jawab, organisasi perlu menanamkan prinsip-prinsip etika ke dalam aplikasi dan proses AI dengan membangun sistem AI berdasarkan kepercayaan dan transparansi.

Pelajari lebih lanjut tentang etika AI
Cara kerja AI yang dapat dijelaskan

Dengan AI yang dapat dijelaskan – serta machine learning yang dapat ditafsirkan – organisasi dapat memperoleh akses terhadap pengambilan keputusan yang mendasari teknologi AI dan dimungkinkan untuk melakukan penyesuaian.AI yang dapat dijelaskan dapat meningkatkan pengalaman pengguna suatu produk atau layanan dengan membantu pengguna akhir meyakini bahwa AI membuat keputusan yang baik.Kapan keputusan sistem AI cukup meyakinkan sehingga dapat Anda percayai, dan bagaimana sistem AI dapat memperbaiki kesalahan yang muncul?⁴

Seiring dengan semakin canggihnya AI, proses ML masih perlu dipahami dan dikontrol untuk memastikan akurasi hasil model AI. Mari kita lihat perbedaan antara AI dan XAI, metode dan teknik yang digunakan untuk mengubah AI menjadi XAI, dan perbedaan antara menafsirkan dan menjelaskan proses AI.

Membandingkan AI dan XAI
Apa sebenarnya perbedaan antara AI “biasa” dan AI yang dapat dijelaskan? XAI menerapkan teknik dan metode khusus untuk memastikan bahwa setiap keputusan yang diambil selama proses ML dapat dilacak dan dijelaskan.Sebaliknya, AI sering kali mendapatkan hasil menggunakan algoritme ML, namun arsitek sistem AI tidak sepenuhnya memahami bagaimana algoritme mencapai hasil tersebut.Ini mempersulit pemeriksaan akurasi dan menyebabkan hilangnya kendali, akuntabilitas, dan kemampuan audit.

Teknik AI yang bisa dijelaskan
Penyiapan teknik XAI terdiri dari tiga metode utama. Akurasi prediksi dan ketertelusuran memenuhi kebutuhan teknologi, sementara pemahaman keputusan memenuhi kebutuhan manusia. AI yang dapat dijelaskan (terutama machine learning yang dapat dijelaskan) akan sangat penting jika para pejuang di masa depan ingin memahami, mempercayai dengan tepat, dan secara efektif mengelola generasi mitra mesin dengan kecerdasan buatan yang sedang berkembang..⁵

Akurasi prediksi
Akurasi adalah komponen kunci keberhasilan penggunaan AI dalam operasi sehari-hari. Akurasi prediksi dapat ditentukan dengan menjalankan simulasi dan membandingkan keluaran XAI dengan hasil pada kumpulan data pelatihan. Teknik paling populer yang digunakan untuk ini adalah Local Interpretable Model-Agnostic Explanations (LIME), yang menjelaskan prediksi pengklasifikasi dengan algoritme ML.

Ketertelusuran
Ketertelusuran adalah teknik kunci lainnya untuk mencapai XAI. Hal ini dicapai, misalnya, dengan membatasi cara pengambilan keputusan dan menyiapkan cakupan yang lebih sempit untuk aturan dan fitur ML. Contoh teknik XAI ketertelusuran adalah DeepLIFT (Deep Learning Important FeaTures), yang membandingkan aktivasi setiap neuron dengan neuron referensinya dan menunjukkan hubungan yang dapat dilacak antara setiap neuron yang diaktifkan dan bahkan menunjukkan ketergantungan di antara keduanya.

Pemahaman keputusan
Ini adalah faktor manusia. Banyak orang meragukan AI, tetapi untuk dapat menggunakannya secara efisien mereka perlu belajar memercayainya. Hal ini dicapai dengan mendidik tim yang bekerja dengan AI, sehingga mereka dapat memahami bagaimana dan mengapa AI mengambil keputusan.

Kemampuan penjelasan versus kemapuan penafsiran dalam AI

Kemampuan penafsiran adalah sejauh mana pengamat dapat memahami penyebab suatu keputusan. Ini adalah tingkat keberhasilan output AI yang dapat diprediksi oleh manusia, sementara kemampuan penjelasan berada lebih jauh lagi dan melihat bagaimana AI sampai pada hasil tersebut.

Bagaimana hubungan AI yang dapat dijelaskan dengan AI yang bertanggung jawab?

AI yang dapat dijelaskan dan AI yang bertanggung jawab memiliki tujuan yang sama, tetapi pendekatannya berbeda. Berikut perbedaan utama antara AI yang dapat dijelaskan dan AI yang bertanggung jawab:

  • AI yang dapat dijelaskan melihat hasil AI setelah hasilnya dihitung.
  • AI yang bertanggung jawab mengawasi AI selama tahap perencanaan untuk membuat algoritme AI bertanggung jawab sebelum hasilnya dihitung.
  • AI yang dapat dijelaskan dan bertanggung jawab dapat bekerja sama untuk menciptakan AI yang lebih baik.
Evaluasi model berkelanjutan

Dengan AI yang dapat dijelaskan, bisnis dapat memecahkan masalah dan meningkatkan performa model sekaligus membantu pemangku kepentingan memahami perilaku model AI. Menyelidiki perilaku model melalui pelacakan insight model mengenai status penerapan, keadilan, kualitas, dan penyimpangan sangat penting untuk meningkatkan skala AI.

Evaluasi model berkelanjutan memungkinkan bisnis untuk membandingkan prediksi model, mengukur risiko model, dan mengoptimalkan kinerja model. Menampilkan nilai positif dan negatif dalam perilaku model dengan data yang digunakan untuk menghasilkan evaluasi model kecepatan penjelasan. Platform data dan AI dapat menghasilkan atribusi fitur untuk prediksi model dan memungkinkan tim untuk menyelidiki perilaku model secara visual dengan bagan interaktif dan dokumen yang dapat diekspor.

Manfaat AI yang dapat dijelaskan
Operasikan AI dengan penuh kepercayaan dan keyakinan

Bangun kepercayaan pada AI produksi. Hadirkan model AI Anda ke produksi dengan cepat. Memastikan kemapuan penafsiran dan penjelasan model AI. Menyederhanakan proses evaluasi model sekaligus meningkatkan transparansi dan ketertelusuran model.

Mempercepat waktu untuk hasil AI

Memantau dan mengelola model secara sistematis untuk mengoptimalkan hasil bisnis.Mengevaluasi dan meningkatkan kinerja model secara terus-menerus.Menyempurnakan upaya pengembangan model berdasarkan evaluasi berkelanjutan.

Kurangi risiko dan biaya tata kelola model

Menjaga agar model AI Anda dapat dijelaskan dan transparan.Mengelola peraturan, kepatuhan, risiko, dan persyaratan lainnya.Meminimalkan biaya ekstra inspeksi manual dan kesalahan yang merugikan.Mengurangi risiko bias yang tidak diinginkan.

Lima pertimbangan untuk AI yang dapat dijelaskan

Untuk mendorong hasil yang diinginkan dengan AI yang dapat dijelaskan, pertimbangkan hal-hal berikut.

Keadilan dan menghilangkan bias: Kelola dan pantau keadilan. Perhatikan penerapan Anda untuk melihat potensi bias. 

Mitigasi penyimpangan model: Analisis model Anda dan buat rekomendasi berdasarkan hasil yang paling logis. Waspadai ketika model menyimpang dari hasil yang diharapkan.

Manajemen risiko model: Mengukur dan memitigasi risiko model.Dapatkan pemberitahuan saat performa model tidak memadai.Pahami apa yang terjadi bila penyimpangan terus terjadi.

Otomatisasi siklus hidup: Membangun, menjalankan, dan mengelola model sebagai bagian dari layanan data dan AI terintegrasi. Menyatukan alat dan proses pada platform untuk memantau model dan berbagi hasil. Menjelaskan ketergantungan model pembelajaran mesin.

SIap untuk multicloud: menerapkan proyek AI di seluruh hybrid cloud termasuk cloud publik, cloud privat, dan on premises. Meningkatkan kepercayaan dan keyakinan dengan AI yang dapat dijelaskan.

Contoh penggunaan AI yang dapat dijelaskan
  • Layanan Kesehatan: Mempercepat diagnostik, analisis gambar, optimalisasi sumber daya, dan diagnosis medis. Meningkatkan transparansi dan ketertelusuran dalam pengambilan keputusan untuk perawatan pasien.Menyederhanakan proses persetujuan farmasi dengan AI yang dapat dijelaskan.
  • Layanan keuangan: Meningkatkan pengalaman pelanggan dengan proses persetujuan pinjaman dan kredit yang transparan. Mempercepat risiko kredit, pengelolaan kekayaan, dan penilaian risiko kejahatan keuangan. Mempercepat penyelesaian potensi keluhan dan masalah. Meningkatkan kepercayaan atas harga, rekomendasi produk, dan layanan investasi.
  • Peradilan pidana: Mengoptimalkan proses prediksi dan penilaian risiko. Mempercepat resolusi menggunakan AI yang dapat dijelaskan pada analisis DNA, analisis populasi penjara, dan perkiraan kejahatan.Mendeteksi potensi bias dalam data pelatihan dan algoritme.
Solusi terkait 
IBM Cloud Pak® for Data

Memodernisasi untuk mengotomatiskan siklus hidup AI.Menambahkan tata kelola dan keamanan pada layanan data dan AI hampir di mana saja.

Pelajari lebih lanjut
IBM Watson® Studio

Membangun dan menskalakan AI dengan kepercayaan dan transparansi. Bangun, jalankan, dan kelola model AI dengan pemantauan terus-menerus untuk AI yang dapat dijelaskan.

Pelajari lebih lanjut
IBM Watson Knowledge Catalog

Mengelola model data dan AI dengan katalog data menyeluruh yang didukung oleh metadata aktif dan manajemen kebijakan.

Pelajari lebih lanjut
Sumber daya Urgensi tata kelola AI

Baca tentang pendekatan tiga langkah dalam tata kelola AI. Temukan insight tentang cara membangun sistem tata kelola yang mampu memantau AI yang etis.

Mempersiapkan model untuk pemantauan

Pelajari cara menyiapkan dan mengaktifkan monitor model.Gunakan model sampel risiko kredit untuk memilih penerapan dan mengatur tipe data untuk pencatatan muatan.

Jelajahi nilai AI yang dapat dijelaskan

Forrester Consulting memeriksa proyeksi laba atas investasi untuk perusahaan yang menerapkan AI dan pemantauan model yang dapat dijelaskan.

Skalakan AI dengan kepercayaan dan transparansi

Lufthansa meningkatkan pengalaman pelanggan dan efisiensi maskapai dengan otomatisasi siklus hidup AI serta mitigasi penyimpangan dan bias.

Ambil langkah selanjutnya

Platform IBM Cloud Pak for Data menyediakan layanan data dan AI dalam lingkungan terpadu, sehingga bisnis Anda dapat menilai dampak dan hubungan data dan model untuk meningkatkan kemampuan penjelasan AI. Hal ini juga membantu Anda mendapatkan insight model tentang penerapan, keadilan, kualitas, dan risiko.Solusi ini membantu menjelaskan transaksi AI, model kategorikal, model gambar, dan model teks tidak terstruktur dengan alat seperti penjelasan kontrastif dan Local Interpretable Model-Agnostic Explanations (LIME).

Coba IBM Cloud Pak for Data sebagai Layanan Pelajari cara menjelaskan transaksi
Catatan kaki

¹ ”AI yang Dapat Dijelaskan,” The Royal Society, 28 November 2019. (tautan berada di luar IBM.com)

² ”Explainable Artificial Intelligence,” Jaime Zornoza, 15 April 2020. (tautan berada di luar IBM.com)

³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI,” ScienceDirect, Juni 2020. (tautan berada di luar IBM.com)

⁴ ”Understanding Explainable AI,” Ron Schmelzer, Forbes contributor, 23 Juli 2019. (tautan berada di luar ibm.com).

⁵ ”Explainable Artificial Intelligence (XAI),” Dr. Matt Turek, U.S. Defense Advanced Research Projects Agency (DARPA). (tautan berada di luar IBM.com)