Manajemen risiko AI adalah proses mengidentifikasi, mengurangi, dan menangani risiko potensial yang terkait dengan teknologi AI secara sistematis. Ini melibatkan kombinasi alat, praktik, dan prinsip, dengan penekanan khusus pada penerapan kerangka kerja manajemen risiko AI formal.
Secara umum, tujuan manajemen risiko AI adalah untuk meminimalkan potensi dampak negatif AI sekaligus memaksimalkan manfaatnya.
Manajemen risiko AI adalah bagian dari bidang tata kelola AI yang lebih luas. Tata kelola AI mengacu pada pagar pembatas yang memastikan bahwa alat dan sistem AI tetap aman dan etis dan tetap seperti itu.
Tata kelola AI adalah disiplin yang komprehensif, sedangkan manajemen risiko AI adalah proses dalam disiplin itu. Manajemen risiko AI berfokus secara khusus pada mengidentifikasi dan mengatasi kerentanan dan ancaman untuk menjaga sistem AI aman dari bahaya. Tata kelola AI menetapkan kerangka kerja, aturan, dan standar yang mengarahkan penelitian, pengembangan, dan penerapan AI untuk memastikan keamanan, keadilan, dan penghormatan terhadap hak asasi manusia.
Dalam beberapa tahun terakhir, penggunaan sistem AI telah melonjak di seluruh industri. McKinsey melaporkan (tautan berada di luar ibm.com) bahwa 72% organisasi sekarang menggunakan beberapa bentuk kecerdasan buatan (AI), naik 17% dari tahun 2023.
Sementara organisasi mengejar manfaat AI—seperti inovasi, efisiensi, dan peningkatan produktivitas—mereka tidak selalu mengatasi potensi risikonya, seperti masalah privasi, ancaman keamanan, serta masalah etika dan hukum.
Para pemimpin sangat menyadari tantangan ini. Sebuah studi IBM Institute for Business Value (IBM IBV) baru-baru ini (tautan berada di luar ibm.com) menemukan bahwa 96% pemimpin percaya bahwa mengadopsi AI generatif membuat pelanggaran keamanan lebih mungkin. Pada saat yang sama, IBM IBV juga menemukan bahwa hanya 24% dari proyek AI generatif saat ini yang diamankan.
Manajemen risiko AI dapat membantu menutup celah ini dan memberdayakan organisasi untuk memanfaatkan potensi penuh sistem AI tanpa mengorbankan keamanan atau etika AI.
Seperti jenis risiko keamanan lainnya, risiko AI dapat dipahami sebagai ukuran seberapa besar kemungkinan potensi ancaman terkait AI memengaruhi organisasi dan seberapa besar kerusakan yang akan ditimbulkan oleh ancaman tersebut.
Sementara setiap model AI dan contoh penggunaan berbeda, risiko AI umumnya jatuh ke dalam empat bucket:
Jika tidak dikelola dengan benar, risiko ini dapat mengekspos sistem AI dan organisasi pada kerugian yang signifikan, termasuk kerugian finansial, kerusakan reputasi, hukuman peraturan, erosi kepercayaan publik, dan pelanggaran data.
Sistem AI bergantung pada kumpulan data yang mungkin rentan terhadap gangguan, pelanggaran, bias, atau serangan siber. Organisasi dapat mengurangi risiko ini dengan melindungi integritas, keamanan, dan ketersediaan data di seluruh siklus hidup AI, dari pengembangan hingga pelatihan dan penerapan.
Risiko data umumnya termasuk:
Pelaku ancaman dapat menargetkan model AI untuk pencurian, rekayasa balik, atau manipulasi yang tidak sah. Penyerang dapat membahayakan integritas model dengan merusak arsitektur, bobot, atau parameternya, komponen inti yang menentukan perilaku dan kinerja model AI.
Beberapa risiko model yang paling umum meliputi:
Meskipun model AI dapat tampak seperti sihir, mereka pada dasarnya adalah produk dari kode canggih dan algoritma machine learning. Seperti semua teknologi, mereka rentan terhadap risiko operasional. Jika tidak ditangani, risiko ini dapat menyebabkan kegagalan sistem dan kerentanan keamanan yang dapat dimanfaatkan oleh pelaku ancaman.
Beberapa risiko operasional yang paling umum meliputi:
Jika organisasi tidak memprioritaskan keamanan dan etika saat mengembangkan dan menerapkan sistem AI, mereka berisiko melakukan pelanggaran privasi dan menghasilkan hasil yang bias. Misalnya, data pelatihan yang bias yang digunakan untuk keputusan perekrutan dapat memperkuat stereotip gender atau ras dan menciptakan model AI yang lebih menyukai kelompok demografis tertentu daripada yang lain.
Risiko etika dan hukum umum meliputi:
Banyak organisasi mengatasi risiko AI dengan mengadopsi kerangka kerja manajemen risiko AI, yang merupakan seperangkat pedoman dan praktik untuk mengelola risiko di seluruh siklus hidup AI.
Seseorang juga dapat menganggap pedoman ini sebagai pedoman yang menguraikan kebijakan, prosedur, peran, dan tanggung jawab terkait penggunaan AI oleh organisasi. Kerangka kerja manajemen risiko AI membantu organisasi mengembangkan, menerapkan, dan memelihara sistem AI dengan cara meminimalkan risiko, menjunjung tinggi standar etika, dan mencapai kepatuhan terhadap peraturan yang berlaku.
Beberapa kerangka kerja manajemen risiko AI yang paling umum digunakan meliputi:
Pada Januari 2023, Institut Standar dan Teknologi Nasional (NIST) menerbitkan AI Risk Management Framework (AI RMF) (tautan berada di luar ibm.com) untuk memberikan pendekatan terstruktur dalam mengelola risiko AI. NIST AI RMF telah menjadi tolok ukur untuk manajemen risiko AI.
Tujuan utama AI RMF adalah untuk membantu organisasi merancang, mengembangkan, menerapkan, dan menggunakan sistem AI dengan cara yang secara efektif mengelola risiko dan mempromosikan praktik AI yang dapat dipercaya dan bertanggung jawab.
Dikembangkan melalui kerja sama dengan sektor publik dan swasta, AI RMF sepenuhnya bersifat sukarela dan dapat diterapkan di semua perusahaan, industri, atau geografi.
Kerangka kerja dibagi menjadi dua bagian. Bagian 1 menawarkan gambaran umum tentang risiko dan karakteristik sistem AI yang dapat dipercaya. Bagian 2, AI RMF Core, menguraikan empat fungsi untuk membantu organisasi mengatasi risiko sistem AI:
Undang-Undang Kecerdasan Buatan Uni Eropa (Undang-Undang AI UE) adalah undang-undang yang mengatur pengembangan dan penggunaan kecerdasan buatan di Uni Eropa (UE). Undang-undang ini mengambil pendekatan berbasis risiko terhadap regulasi, menerapkan aturan yang berbeda untuk sistem AI sesuai dengan ancaman yang mereka timbulkan terhadap kesehatan, keselamatan, dan hak-hak asasi manusia. Undang-undang ini juga menciptakan aturan untuk merancang, melatih, dan menerapkan model kecerdasan buatan umum, seperti model dasar yang mendukung ChatGPT dan Google Gemini.
Organisasi Internasional untuk Standardisasi (ISO) dan Komisi Elektroteknik Internasional (IEC) telah mengembangkan standar (tautan berada di luar ibm.com) yang membahas berbagai aspek manajemen risiko AI.
Standar ISO/IEC menekankan pentingnya transparansi, akuntabilitas, dan pertimbangan etika dalam manajemen risiko AI. Mereka juga memberikan panduan yang dapat ditindaklanjuti untuk mengelola risiko AI di seluruh siklus hidup AI, mulai dari desain dan pengembangan hingga penerapan dan pengoperasian.
Pada akhir tahun 2023, pemerintahan Biden mengeluarkan perintah eksekutif (tautan berada di luar ibm.com) untuk memastikan keselamatan dan keamanan AI. Meskipun secara teknis bukan merupakan kerangka kerja manajemen risiko, arahan komprehensif ini memberikan panduan untuk menetapkan standar baru untuk mengelola risiko teknologi AI.
Perintah eksekutif ini menyoroti beberapa masalah utama, termasuk promosi AI yang dapat dipercaya yang transparan, dapat dijelaskan, dan dapat dipertanggungjawabkan. Dalam banyak hal, perintah eksekutif tersebut membantu memberikan preseden bagi sektor swasta, yang menandakan pentingnya praktik manajemen risiko AI yang komprehensif.
Sementara proses manajemen risiko AI tentu bervariasi dari satu organisasi ke organisasi lainnya, praktik manajemen risiko AI dapat memberikan beberapa manfaat inti umum ketika diterapkan dengan sukses.
Manajemen risiko AI dapat meningkatkan postur keamanan siber organisasi dan penggunaan keamanan AI.
Dengan melakukan penilaian dan audit risiko secara teratur, organisasi dapat mengidentifikasi potensi risiko dan kerentanan di seluruh siklus hidup AI.
Setelah penilaian ini, mereka dapat menerapkan strategi mitigasi untuk mengurangi atau menghilangkan risiko yang teridentifikasi. Proses ini mungkin melibatkan langkah-langkah teknis, seperti meningkatkan keamanan data dan meningkatkan ketahanan model. Proses ini mungkin juga melibatkan penyesuaian organisasi, seperti mengembangkan pedoman etika dan memperkuat kontrol akses.
Mengambil pendekatan yang lebih proaktif terhadap deteksi dan respons ancaman ini dapat membantu organisasi memitigasi risiko sebelum meningkat, mengurangi kemungkinan pelanggaran data dan potensi dampak serangan siber.
Manajemen risiko AI juga dapat membantu meningkatkan pengambilan keputusan organisasi secara keseluruhan.
Dengan menggunakan gabungan analisis kualitatif dan kuantitatif, termasuk metode statistik dan pendapat pakar, organisasi dapat memperoleh pemahaman yang jelas tentang potensi risiko mereka. Tampilan gambaran lengkap ini membantu organisasi memprioritaskan ancaman berisiko tinggi dan membuat keputusan yang lebih tepat seputar penerapan AI, menyeimbangkan keinginan untuk berinovasi dengan kebutuhan akan mitigasi risiko.
Fokus global yang meningkat pada perlindungan data sensitif telah mendorong terciptanya persyaratan peraturan utama dan standar industri, termasuk Peraturan Perlindungan Data Umum (GDPR), California Consumer Privacy Act, dan Undang-Undang AI UE.
Ketidakpatuhan terhadap undang-undang ini dapat mengakibatkan denda yang besar dan hukuman hukum yang signifikan. Manajemen risiko AI dapat membantu organisasi mencapai kepatuhan dan tetap memiliki reputasi yang baik, terutama karena peraturan seputar AI berkembang hampir secepat teknologi itu sendiri.
Manajemen risiko AI membantu organisasi meminimalkan gangguan dan memastikan keberlangsungan bisnis dengan memungkinkan mereka mengatasi potensi risiko dengan sistem AI secara real time. Manajemen risiko AI juga dapat mendorong akuntabilitas yang lebih besar dan keberlanjutan jangka panjang dengan memungkinkan organisasi untuk menetapkan praktik dan metodologi manajemen yang jelas untuk penggunaan AI.
Manajemen risiko AI mendorong pendekatan yang lebih etis terhadap sistem AI dengan memprioritaskan kepercayaan dan transparansi.
Sebagian besar proses manajemen risiko AI melibatkan berbagai pemangku kepentingan, termasuk eksekutif, pengembang AI, ilmuwan data, pengguna, pembuat kebijakan, dan bahkan ahli etika. Pendekatan inklusif ini membantu memastikan bahwa sistem AI dikembangkan dan digunakan secara bertanggung jawab, dengan mempertimbangkan setiap pemangku kepentingan.
Dengan melakukan pengujian dan proses pemantauan secara teratur, organisasi dapat melacak kinerja sistem AI dengan lebih baik dan mendeteksi ancaman yang muncul lebih cepat. Pemantauan ini membantu organisasi mempertahankan kepatuhan terhadap peraturan yang berkelanjutan dan memulihkan risiko AI lebih awal, sehingga mengurangi potensi dampak ancaman.
Untuk semua potensi mereka dalam merampingkan dan mengoptimalkan cara kerja, teknologi AI bukannya tanpa risiko. Hampir setiap bagian TI bisnis dapat menjadi senjata di tangan yang salah.
Organisasi tidak perlu menghindari AI generatif. Mereka hanya perlu memperlakukannya seperti alat teknologi lainnya. Itu berarti memahami risiko dan mengambil langkah proaktif untuk meminimalkan kemungkinan serangan yang berhasil.
Dengan IBM watsonx.governance, organisasi dapat dengan mudah mengarahkan, mengelola, dan memantau aktivitas AI dalam satu platform terintegrasi. IBM watsonx.governance dapat mengatur model AI generatif dari vendor mana pun, mengevaluasi kesehatan dan akurasi model, serta mengotomatiskan alur kerja kepatuhan utama.