Keselamatan AI meliputi praktik dan prinsip yang membantu memastikan teknologi AI dirancang dan digunakan dengan cara yang menguntungkan umat manusia dan meminimalkan potensi bahaya atau hasil negatif.
Membangun sistem kecerdasan buatan (AI) yang aman merupakan pertimbangan penting bagi bisnis dan masyarakat, mengingat meningkatnya prevalensi dan dampak AI. Keselamatan AI membantu memastikan bahwa sistem AI digunakan secara bertanggung jawab dan masa depan AI dikembangkan dengan mempertimbangkan nilai-nilai kemanusiaan.
Pengembangan dan pemeliharaan AI yang aman memerlukan identifikasi potensi risiko AI (misalnya, bias, keamanan data, dan kerentanan terhadap ancaman eksternal) dan adanya proses untuk menghindari dan mengurangi risiko-risiko tersebut. Misalnya, langkah-langkah keselamatan AI seperti mitigasi bias, pengujian ketahanan, dan kerangka kerja AI beretika dapat membantu bisnis mengembangkan dan menggunakan alat AI secara bertanggung jawab dalam organisasi mereka.
Seiring dengan makin canggihnya sistem AI, sistem ini makin terintegrasi ke dalam kehidupan manusia serta area-area penting di dunia nyata seperti infrastruktur, keuangan, dan keamanan nasional. Teknologi ini dapat memberikan dampak positif dan negatif bagi organisasi yang menggunakannya dan bagi masyarakat secara keseluruhan.
Kekhawatiran akan dampak negatif AI semakin meningkat. Sebuah survei pada tahun 2023 menemukan bahwa 52% penduduk Amerika cenderung lebih khawatir daripada gembira dalam menyikapi peningkatan penggunaan kecerdasan buatan.1 Survei lain menemukan bahwa 83% khawatir bahwa AI mungkin secara tidak sengaja dapat menyebabkan bencana.2
Penelitian lain menunjukkan bahwa kekhawatiran tersebut bukanlah tanpa alasan: Laporan tahun 2024 menemukan bahwa 44% responden survei mengatakan bahwa organisasi mereka telah mengalami konsekuensi negatif (seperti masalah ketidakakuratan atau keamanan siber) akibat penggunaan AI.3 Upaya keselamatan sering kali dianggap sebagai hal sepele: Menurut 2023 Impact Report dari Center for AI Safety, hanya 3% penelitian teknis yang berfokus pada upaya menjadikan AI lebih aman.4
Bagi masyarakat secara keseluruhan, langkah-langkah keselamatan AI diperlukan untuk melindungi keselamatan publik, privasi, dan hak-hak asasi. Sistem AI yang bias, samar, atau tidak sejalan dengan nilai-nilai kemanusiaan dapat melanggengkan atau memperkuat ketidaksetaraan sosial.
Para pakar juga khawatir bahwa beberapa sistem AI canggih mungkin menjadi sama atau lebih cerdas daripada manusia. Kecerdasan umum buatan (AGI) mengacu pada sistem AI potensial yang memahami, belajar, dan melakukan tugas berpikir dengan cara yang sama dilakukan manusia. Kecerdasan super buatan (ASI) mengacu pada sistem AI hipotetis dengan ruang lingkup intelektual dan fungsi kognitif yang lebih maju daripada manusia mana pun. Pengembangan AGI dan ASI menimbulkan kekhawatiran bahwa sistem tersebut akan berbahaya jika tidak selaras dengan nilai-nilai kemanusiaan atau diawasi manusia. Dengan otonomi yang terlalu besar, para kritikus mengatakan bahwa sistem ini akan menimbulkan ancaman eksistensial bagi umat manusia.
Dari perspektif bisnis, AI yang aman membantu membangun kepercayaan konsumen, melindungi mereka dari tanggung jawab hukum, dan menghindari pengambilan keputusan yang buruk. Organisasi yang mengambil langkah-langkah untuk memastikan bahwa penggunaan AI selaras dengan nilai-nilai mereka dapat menghindari konsekuensi negatif bagi diri sendiri dan pelanggan mereka.
Risiko AI dapat dikategorikan ke dalam beberapa jenis, yang masing-masing membutuhkan langkah keselamatan AI dan upaya manajemen risiko yang berbeda.
Sistem AI dapat melanggengkan atau memperkuat bias sosial. Bias algoritmik timbul ketika AI dilatih menggunakan data dan input yang tidak lengkap atau menyesatkan. Hal ini dapat menyebabkan pengambilan keputusan yang tidak adil. Sebagai contoh, alat AI yang dilatih menggunakan data diskriminatif mungkin cenderung tidak akan menyetujui hipotek untuk pemohon dengan latar belakang tertentu atau mungkin akan lebih merekomendasikan untuk mempekerjakan pelamar kerja pria daripada wanita.
Sistem AI berpotensi mengakses, mengekspos, atau menyalahgunakan data pribadi secara tidak pantas, yang menyebabkan masalah privasi. Jika data sensitif dibobol, pembuat atau pengguna sistem AI dapat dianggap bertanggung jawab.
Hasil dari sistem AI canggih, terutama yang dibangun untuk beroperasi sebagai agen otonom, tidak dapat diprediksi. Tindakannya mungkin juga berbahaya. Jika mampu mengambil keputusan secara mandiri, sistem ini mungkin sulit dihentikan. Tanpa adanya unsur kontrol manusia, mungkin mustahil untuk melakukan intervensi atau mematikan sistem AI yang bertindak tidak semestinya.
AGI, ASI, dan sistem AI yang sangat canggih lainnya berpotensi bertindak dengan cara yang membahayakan umat manusia atau mengganggu sistem global jika salah dikelola. Bahaya perlombaan AI, mirip dengan perlombaan senjata, membahayakan stabilitas geopolitik.
AI mungkin juga disalahgunakan untuk manipulasi sosial berskala besar atau perang siber. Pada tahun 2023, lembaga nirlaba Center for AI Safety (CAIS) merilis sebaris pernyataan yang didukung oleh berbagai peneliti dan pemimpin AI. Bunyinya: “Mitigasi risiko kepunahan akibat AI harus menjadi prioritas global di samping risiko berskala sosial lainnya seperti pandemi dan perang nuklir”.5
Meskipun konsekuensi dan kesalahan yang tidak disengaja merupakan sumber risiko AI, pelaku kejahatan juga dapat menggunakan teknologi ini dengan sengaja untuk menimbulkan kerugian. AI dapat dijadikan senjata untuk serangan siber, kampanye misinformasi, pengawasan ilegal, atau bahkan kekerasan fisik. Ancaman ini ada di tingkat individu dan tingkat masyarakat.
Sistem AI dapat rentan terhadap masalah keamanan. Sistem AI menghadapi kemungkinan adanya serangan lawan, di mana pelaku kejahatan memanipulasi input untuk menipu model, sehingga memberikan hasil yang salah.
Misalnya, jailbreak AI terjadi ketika peretas menggunakan injeksi prompt dan teknik lain untuk mengeksploitasi kerentanan dalam sistem AI dan melakukan tindakan terbatas. Pencemaran data terjadi ketika data pelatihan yang dirusak mengubah perilaku AI. Akses tidak sah dan kerentanan atau risiko keamanan lainnya dapat menyebabkan penyalahgunaan sistem AI dan datanya.
Keselamatan AI dan keamanan AI adalah dua aspek yang terkait tetapi berbeda dari kecerdasan buatan. Keselamatan AI bertujuan mengatasi masalah bawaan dan konsekuensi yang tidak diinginkan, sementara keamanan AI berfokus melindungi sistem AI dari ancaman eksternal.
Keselamatan AI mencoba menghubungkan AI dengan nilai-nilai kemanusiaan dan mengurangi kemungkinan sistem AI berdampak negatif pada bisnis dan masyarakat. Pendekatan ini menekankan pada penyelarasan AI, yang merupakan proses mengenkode nilai-nilai dan tujuan manusia ke dalam model AI.
Keamanan AI berupaya melindungi sistem AI dari ancaman eksternal seperti serangan siber dan pelanggaran data. Ini dilakukan dengan menjaga kerahasiaan dan integritas model AI. Keamanan AI mungkin juga mengacu pada penggunaan kecerdasan buatan untuk meningkatkan postur keamanan organisasi. Sesuai definisinya, ini termasuk menggunakan AI dan machine learning (ML) untuk mengantisipasi dan mengatasi potensi ancaman.
Para pemimpin AI dan bisnis menerapkan berbagai praktik untuk mendukung pengembangan dan penggunaan teknologi AI yang bertanggung jawab. Langkah-langkah keselamatan AI meliputi:
Algoritma dapat melanggengkan atau memperkuat prasangka yang ada dalam data yang dilatih. Untuk mengatasi masalah ini, bisnis berupaya menangani bias algoritmik. Teknik seperti pengumpulan kumpulan data yang beragam, penilaian keadilan algoritmik, dan metode menghilangkan bias (debiasing) membantu mengidentifikasi potensi masalah.
Proses pengujian dan validasi yang ketat membantu sistem AI bertahan menghadapi bahaya dan dapat mengidentifikasi risiko teknis. Teknik seperti pengujian lawan, pengujian daya tahan, dan verifikasi formal membantu memastikan bahwa alat dan model AI berfungsi sebagaimana dimaksud dan tidak menunjukkan perilaku yang tidak diinginkan.
Banyak model AI, terutama model bahasa besar (LLM), adalah "kotak hitam" yang mengambil keputusan yang sulit ditafsirkan oleh manusia. Tanpa transparansi dalam proses pengambilan keputusan, pengguna cenderung tidak mempercayai hasil dan rekomendasi yang diberikannya. AI yang dapat dijelaskan (XAI) bertujuan memperjelas proses yang samar di balik sistem AI yang kompleks, dengan berfokus pada kemampuan penafsiran yang menunjukkan cara pencapaian hasil.
Banyak organisasi memiliki kerangka kerja AI beretika untuk memandu pengembangan dan penggunaan sistem AI. Kerangka kerja ini dan tolok ukur terkait biasanya mencakup prinsip-prinsip seperti transparansi, keadilan, akuntabilitas, dan privasi. Mereka menyediakan pagar pembatas untuk penggunaan dan pengembangan alat AI.
Meski otomatisasi menjadi bagian dari daya tarik AI bagi banyak bisnis, mempertahankan kontrol manusia adalah hal penting demi alasan keselamatan. Artinya, operator manusia harus memantau kinerja sistem AI, melakukan intervensi apabila diperlukan, dan mengambil keputusan akhir dalam situasi penting. Pendekatan yang memerlukan keterlibatan manusia (human-in-the-loop, HITL) membantu memastikan bahwa orang sungguhan bertanggung jawab atas tindakan sistem AI.
Penerapan langkah-langkah keamanan yang kuat seperti enkripsi, kontrol akses, dan deteksi anomali membantu melindungi sistem AI dari penyalahgunaan atau akses yang tidak sah. Bisnis juga dapat menerapkan langkah-langkah keamanan siber sebagai perlindungan terhadap serangan siber dan ancaman siber yang dapat membahayakan integritas sistem AI mereka.
Keselamatan AI adalah bidang yang kompleks dan terus berkembang yang membutuhkan kolaborasi di antara para peneliti, pemimpin industri, dan pembuat kebijakan. Banyak bisnis ambil bagian dalam konsorsium industri, inisiatif penelitian, dan upaya standardisasi untuk berbagi pengetahuan, praktik terbaik, dan pelajaran yang bisa dipetik. Dengan bekerja sama, komunitas AI dapat mengembangkan langkah-langkah keselamatan yang lebih kuat dan andal.
Penelitian keselamatan AI adalah upaya bersama di banyak pemangku kepentingan.
Keselamatan AI dimulai dari para pengembang dan insinyur yang bertanggung jawab untuk merancang, membangun, dan menguji sistem AI. Mereka mungkin berfokus pada pertanyaan mendasar, seperti bagaimana cara menyelaraskan tujuan AI dengan nilai-nilai kemanusiaan dan bagaimana cara membuat model yang transparan dan dapat dijelaskan. Mereka juga bertanggung jawab untuk menguji dan memvalidasi model dan alat untuk membantu memastikan semuanya beroperasi sebagaimana mestinya.
Perusahaan yang memimpin pengembangan AI, termasuk IBM, OpenAI, Google DeepMind, Microsoft, Anthropic, dan lainnya, berada di garda depan dalam upaya mengembangkan keselamatan AI. Mereka membentuk tim keselamatan AI khusus, menetapkan pedoman etika, dan mematuhi prinsip-prinsip AI yang bertanggung jawab demi mencegah hasil yang berbahaya.
Beberapa perusahaan juga telah membuat kerangka kerja dan protokol untuk menangani risiko dalam fase penelitian dan penerapan, seperti alat deteksi bias dan sistem yang memungkinkan pengawasan manusia. Banyak juga yang berkolaborasi dalam koalisi industri untuk berbagi pengetahuan demi menetapkan standar keselamatan AI di seluruh industri.
Upaya tata kelola AI yang lebih luas merupakan bagian penting dari langkah keselamatan AI global. Berbagai organisasi internasional, termasuk Perserikatan Bangsa-Bangsa, Forum Ekonomi Dunia dan Organisasi untuk Kerja Sama Ekonomi dan Pembangunan (OECD), memimpin inisiatif yang berfokus pada etika dan keselamatan AI. Pemerintah berbagai negara di seluruh dunia juga membuat aturan dan regulasi terkait keselamatan AI:
Di Amerika Serikat, Artificial Intelligence Safety Institute (AISI), bagian dari National Institute of Standards and Technology (NIST), bekerja untuk menangani masalah keselamatan. Upayanya berfokus pada prioritas seperti memajukan penelitian dan mengembangkan mitigasi risiko.
Di Uni Eropa, Undang-Undang AI UE mencakup berbagai standar dan pedoman keselamatan serta sanksi atas ketidakpatuhan. Secara terpisah, Inggris mendirikan AI Safety Institute untuk mendorong pengembangan AI yang aman. Beberapa negara lain, termasuk Singapura, Jepang, dan Kanada, juga menciptakan badan keselamatan AI untuk melakukan penelitian serta memberikan informasi pengembangan dan regulasi dengan fokus pada keselamatan publik.
Para pembuat kebijakan dan peneliti di lembaga swadaya masyarakat (LSM), wadah pemikir, dan kelompok lainnya bekerja untuk menangani masalah keselamatan. Mereka mempertimbangkan isu-isu keamanan nasional, hak asasi manusia, dan kebijakan legislatif, serta merekomendasikan cara-cara untuk membantu pengembangan AI agar selaras dengan nilai-nilai dan kepentingan sosial. Mereka meningkatkan kesadaran akan risiko, menetapkan pedoman etika, mendorong transparansi, dan mendorong penelitian yang bertanggung jawab.
Beberapa kelompok nirlaba dan advokasi keselamatan AI utama meliputi:
Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.
Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.
Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.
1 Growing public concern about the role of artificial intelligence in daily life, Pew Research Center, Agustus 2023.
2 Poll Shows Overwhelming Concern About Risks From AI, AI Policy Institute (AIPI), Juli 2023.
3 The state of AI in early 2024, McKinsey, Mei 2024.
4 2023 Impact Report, Center for AI Safety, November 2023.
5 Statement on AI Risk, Center for AI Safety, Maret 2023.