Kecerdasan buatan (AI) sedang mengubah masyarakat, termasuk karakter asli keamanan nasional. Menyadari hal ini, Departemen Pertahanan (DoD) meluncurkan Joint Artificial Intelligence Center (JAIC) pada tahun 2019, pendahulu Chief Digital and Artificial Intelligence Office (CDAO), untuk mengembangkan solusi AI yang membangun keunggulan militer yang kompetitif, kondisi untuk adopsi AI yang berpusat pada manusia, dan kelincahan operasi DoD. Namun, hambatan untuk meningkatkan, mengadopsi, dan mewujudkan potensi penuh AI di Departemen Pertahanan mirip dengan yang ada di sektor swasta.
Sebuah survei IBM menemukan bahwa hambatan utama yang mencegah keberhasilan penerapan AI termasuk keterampilan dan keahlian AI yang terbatas, kompleksitas data, dan masalah etika. Lebih lanjut, menurut IBM Institute of Business Value, 79% eksekutif mengatakan etika AI penting untuk pendekatan AI mereka di seluruh perusahaan, namun kurang dari 25% yang telah menerapkan prinsip-prinsip umum etika AI. Mendapatkan kepercayaan dalam output model AI adalah tantangan sosio-teknik yang membutuhkan solusi sosio-teknik.
Para pemimpin pertahanan yang berfokus pada penerapan kurasi AI yang bertanggung jawab pertama-tama harus menyetujui kosakata bersama — budaya umum yang memandu penggunaan AI yang aman dan bertanggung jawab — sebelum mereka menerapkan solusi teknologi dan batasan yang mengurangi risiko. DoD dapat meletakkan dasar yang kokoh untuk mencapai hal ini dengan meningkatkan literasi AI dan bermitra dengan organisasi tepercaya untuk mengembangkan tata kelola yang selaras dengan tujuan dan nilai-nilai strategisnya.
Penting bagi personel untuk mengetahui cara menerapkan AI untuk meningkatkan efisiensi organisasi. Namun, yang tidak kalah pentingnya adalah memiliki pemahaman yang mendalam tentang risiko dan keterbatasan AI, serta cara menerapkan langkah-langkah keamanan dan pagar etika yang tepat. Ini adalah persyaratan dasar bagi Departemen Pertahanan atau lembaga pemerintah mana pun.
Jalur pembelajaran AI yang disesuaikan dapat membantu mengidentifikasi kesenjangan dan pelatihan yang dibutuhkan sehingga personel mendapatkan pengetahuan yang mereka butuhkan untuk peran spesifik mereka. Literasi AI di seluruh lembaga sangat penting bagi semua personel agar mereka dapat dengan cepat menilai, menggambarkan, dan menanggapi ancaman yang bergerak cepat, viral, dan berbahaya seperti kesalahan informasi dan deepfake.
IBM menerapkan literasi AI dengan cara yang disesuaikan dalam organisasi kami karena mendefinisikan literasi penting berbeda-beda, tergantung pada posisi seseorang.
Sebagai pemimpin dalam kecerdasan buatan yang dapat dipercaya, IBM memiliki pengalaman dalam mengembangkan kerangka kerja tata kelola yang memandu penggunaan AI yang bertanggung jawab selaras dengan nilai-nilai organisasi klien. IBM juga memiliki kerangka kerja sendiri untuk penggunaan AI di dalam IBM sendiri, menginformasikan posisi kebijakan seperti penggunaan teknologi pengenalan wajah.
Alat AI sekarang digunakan dalam keamanan nasional dan untuk membantu melindungi dari pelanggaran data dan serangan siber. Tetapi AI juga mendukung tujuan strategis DoD lainnya. AI dapat meningkatkan kualitas tenaga kerja, menjadikan mereka lebih efektif dan terampil. AI dapat membantu menciptakan rantai pasokan yang tangguh untuk mendukung tentara, pelaut, penerbang, dan marinir dalam menjalankan peran di medan tempur, misi bantuan kemanusiaan, penjaga perdamaian, dan bantuan bencana.
CDAO mencakup lima prinsip etika yang bertanggung jawab, adil, dapat dilacak, andal, dan dapat dikelola sebagai bagian dari toolkit AI yang bertanggung jawab. Berdasarkan kerangka kerja etika militer AS yang ada, prinsip-prinsip ini didasarkan pada nilai-nilai militer dan membantu menegakkan komitmennya terhadap AI yang bertanggung jawab.
Harus ada upaya bersama untuk membuat semua prinsip ini menjadi kenyataan melalui pertimbangan persyaratan fungsional dan nonfungsional dalam model dan sistem tata kelola di seputar model tersebut. Di bawah ini, kami memberikan rekomendasi luas untuk penerapan prinsip-prinsip etika CDAO.
“Personel DoD akan melakukan tingkat penilaian dan pengendalian yang sesuai, sekaligus tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.”
Semua orang setuju bahwa model AI harus dikembangkan oleh personel yang berhati-hati dan penuh perhatian, tetapi bagaimana organisasi dapat membina orang untuk melakukan pekerjaan ini? Kami merekomendasikan:
Catatan: Ukuran tanggung jawab ini harus dapat ditafsirkan oleh bukan pakar AI (tanpa “menggurui”).
“Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak dimaksudkan dalam kemampuan AI.”
Semua orang setuju bahwa penggunaan model AI harus adil dan tidak diskriminatif, tetapi bagaimana ini terjadi dalam praktiknya? Kami merekomendasikan:
“Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur desain dan dokumentasi.”
Terapkan ketertelusuran dengan memberikan pedoman yang jelas kepada semua personel yang menggunakan AI:
IBM dan para mitranya dapat menyediakan solusi AI dengan landasan konten yang komprehensif dan dapat diaudit yang sangat penting untuk contoh-contoh penggunaan berisiko tinggi.
“Kemampuan AI Departemen akan memiliki penggunaan yang eksplisit dan ditetapkan dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang telah ditentukan di seluruh siklus hidup mereka.”
Organisasi harus mendokumentasikan contoh penggunaan yang ditetapkan dengan baik dan kemudian menguji kepatuhan. Penerapan dan penskalaan proses ini membutuhkan keselarasan budaya yang kuat sehingga para praktisi mematuhi standar tertinggi bahkan tanpa pengawasan langsung. Praktik terbaik meliputi:
“Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sekaligus memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.”
Penerapan prinsip ini membutuhkan:
IBM telah berada di garis depan dalam memajukan prinsip-prinsip AI yang dapat dipercaya dan pemimpin pemikiran dalam tata kelola sistem AI sejak berdiri. Kami mengikuti prinsip-prinsip kepercayaan dan transparansi yang telah lama dipegang teguh yang memperjelas peran AI untuk meningkatkan, tidak menggantikan, keahlian dan penilaian manusia.
Pada tahun 2013, IBM memulai perjalanan kemampuan menjelaskan dan transparansi dalam AI dan machine learning. IBM adalah pemimpin dalam etika AI, menunjuk seorang pemimpin global etika AI pada tahun 2015, dan menciptakan dewan etika AI pada tahun 2018. Pakar ini bekerja untuk membantu memastikan prinsip dan komitmen kami ditegakkan dalam keterlibatan bisnis global kami. Pada tahun 2020, IBM menyumbangkan toolkit AI yang Bertanggung Jawab kepada Linux Foundation untuk membantu membangun masa depan AI yang adil, aman, dan dapat dipercaya.
IBM memimpin upaya global untuk membentuk masa depan metrik, standar, dan praktik terbaik AI yang bertanggung jawab dan AI etis:
Mengkurasi AI yang bertanggung jawab adalah tantangan dengan banyak aspek karena hal ini menuntut agar nilai-nilai kemanusiaan tercermin secara andal dan konsisten dalam teknologi kami. Tapi itu sepadan dengan usahanya. Kami yakin bahwa pedoman di atas dapat membantu Departemen Pertahanan menerapkan AI tepercaya dan membantunya memenuhi misi.
Untuk informasi lebih lanjut tentang bagaimana IBM dapat membantu, kunjungi Konsultasi Tata Kelola AI | IBM
Sumber daya lainnya: