Mengoperasikan prinsip-prinsip AI yang bertanggung jawab untuk pertahanan

Beberapa kolega duduk di meja menunjuk layar desktop seraya mendiskusikan sesuatu

Kecerdasan buatan (AI) sedang mengubah masyarakat, termasuk karakter asli keamanan nasional. Menyadari hal ini, Departemen Pertahanan (DoD) meluncurkan Joint Artificial Intelligence Center (JAIC) pada tahun 2019, pendahulu Chief Digital and Artificial Intelligence Office (CDAO), untuk mengembangkan solusi AI yang membangun keunggulan militer yang kompetitif, kondisi untuk adopsi AI yang berpusat pada manusia, dan kelincahan operasi DoD. Namun, hambatan untuk meningkatkan, mengadopsi, dan mewujudkan potensi penuh AI di Departemen Pertahanan mirip dengan yang ada di sektor swasta.

Sebuah survei IBM menemukan bahwa hambatan utama yang mencegah keberhasilan penerapan AI termasuk keterampilan dan keahlian AI yang terbatas, kompleksitas data, dan masalah etika. Lebih lanjut, menurut IBM Institute of Business Value, 79% eksekutif mengatakan etika AI penting untuk pendekatan AI mereka di seluruh perusahaan, namun kurang dari 25% yang telah menerapkan prinsip-prinsip umum etika AI. Mendapatkan kepercayaan dalam output model AI adalah tantangan sosio-teknik yang membutuhkan solusi sosio-teknik.

Para pemimpin pertahanan yang berfokus pada penerapan kurasi AI yang bertanggung jawab pertama-tama harus menyetujui kosakata bersama — budaya umum yang memandu penggunaan AI yang aman dan bertanggung jawab — sebelum mereka menerapkan solusi teknologi dan batasan yang mengurangi risiko. DoD dapat meletakkan dasar yang kokoh untuk mencapai hal ini dengan meningkatkan literasi AI dan bermitra dengan organisasi tepercaya untuk mengembangkan tata kelola yang selaras dengan tujuan dan nilai-nilai strategisnya.

Literasi AI adalah sesuatu yang harus dimiliki bidang keamanan

Penting bagi personel untuk mengetahui cara menerapkan AI untuk meningkatkan efisiensi organisasi. Namun, yang tidak kalah pentingnya adalah memiliki pemahaman yang mendalam tentang risiko dan keterbatasan AI, serta cara menerapkan langkah-langkah keamanan dan pagar etika yang tepat. Ini adalah persyaratan dasar bagi Departemen Pertahanan atau lembaga pemerintah mana pun.

Jalur pembelajaran AI yang disesuaikan dapat membantu mengidentifikasi kesenjangan dan pelatihan yang dibutuhkan sehingga personel mendapatkan pengetahuan yang mereka butuhkan untuk peran spesifik mereka. Literasi AI di seluruh lembaga sangat penting bagi semua personel agar mereka dapat dengan cepat menilai, menggambarkan, dan menanggapi ancaman yang bergerak cepat, viral, dan berbahaya seperti kesalahan informasi dan deepfake.

IBM menerapkan literasi AI dengan cara yang disesuaikan dalam organisasi kami karena mendefinisikan literasi penting berbeda-beda, tergantung pada posisi seseorang.

Mendukung tujuan strategis dan menyelaraskan dengan nilai-nilai

Sebagai pemimpin dalam kecerdasan buatan yang dapat dipercaya, IBM memiliki pengalaman dalam mengembangkan kerangka kerja tata kelola yang memandu penggunaan AI yang bertanggung jawab selaras dengan nilai-nilai organisasi klien. IBM juga memiliki kerangka kerja sendiri untuk penggunaan AI di dalam IBM sendiri, menginformasikan posisi kebijakan seperti penggunaan teknologi pengenalan wajah.

Alat AI sekarang digunakan dalam keamanan nasional dan untuk membantu melindungi dari pelanggaran data dan serangan siber. Tetapi AI juga mendukung tujuan strategis DoD lainnya. AI dapat meningkatkan kualitas tenaga kerja, menjadikan mereka lebih efektif dan terampil. AI dapat membantu menciptakan rantai pasokan yang tangguh untuk mendukung tentara, pelaut, penerbang, dan marinir dalam menjalankan peran di medan tempur, misi bantuan kemanusiaan, penjaga perdamaian, dan bantuan bencana.

CDAO mencakup lima prinsip etika yang bertanggung jawab, adil, dapat dilacak, andal, dan dapat dikelola sebagai bagian dari toolkit AI yang bertanggung jawab. Berdasarkan kerangka kerja etika militer AS yang ada, prinsip-prinsip ini didasarkan pada nilai-nilai militer dan membantu menegakkan komitmennya terhadap AI yang bertanggung jawab.

Harus ada upaya bersama untuk membuat semua prinsip ini menjadi kenyataan melalui pertimbangan persyaratan fungsional dan nonfungsional dalam model dan sistem tata kelola di seputar model tersebut. Di bawah ini, kami memberikan rekomendasi luas untuk penerapan prinsip-prinsip etika CDAO.

1. Bertanggung jawab

 

“Personel DoD akan melakukan tingkat penilaian dan pengendalian yang sesuai, sekaligus tetap bertanggung jawab atas pengembangan, penerapan, dan penggunaan kemampuan AI.”

Semua orang setuju bahwa model AI harus dikembangkan oleh personel yang berhati-hati dan penuh perhatian, tetapi bagaimana organisasi dapat membina orang untuk melakukan pekerjaan ini? Kami merekomendasikan:

  • Menumbuhkan budaya organisasi yang mengakui sifat sosio-teknis dari tantangan AI. Hal ini harus dikomunikasikan sejak awal dan harus ada pengakuan atas praktik, keahlian, dan perhatian yang perlu dimasukkan ke dalam model dan pengelolaannya untuk memantau kinerja.
  • Memerinci praktik etika sepanjang siklus hidup AI, sesuai dengan tujuan bisnis (atau misi), persiapan data dan pemodelan, evaluasi dan penerapan.  Model CRISP-DM berguna untuk kasus ini. Metode Ilmu Data Berskala IBM, perpanjangan dari CRISP-DM, menawarkan tata kelola di seluruh siklus hidup model AI yang diinformasikan oleh input kolaboratif dari ilmuwan data, ahli psikologi industri-organisasi, desainer, spesialis komunikasi, dan lainnya. Metode ini menggabungkan praktik terbaik dalam ilmu data, manajemen proyek, kerangka kerja desain, dan tata kelola AI. Tim dapat dengan mudah melihat dan memahami persyaratan pada setiap tahap siklus hidup, termasuk dokumentasi, siapa yang perlu mereka ajak bicara atau berkolaborasi, dan langkah selanjutnya.
  • Menyediakan metadata model AI yang dapat ditafsirkan (misalnya, sebagai lembar fakta) yang menentukan penanggung jawab, tolok ukur kinerja (dibandingkan dengan manusia), data dan metode yang digunakan, catatan audit (tanggal dan oleh siapa), serta tujuan dan hasil audit.

Catatan: Ukuran tanggung jawab ini harus dapat ditafsirkan oleh bukan pakar AI (tanpa “menggurui”).

2. Adil

 

“Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak dimaksudkan dalam kemampuan AI.”

Semua orang setuju bahwa penggunaan model AI harus adil dan tidak diskriminatif, tetapi bagaimana ini terjadi dalam praktiknya? Kami merekomendasikan:

  • Membangun pusat keunggulan untuk memberikan tim multidisiplin yang beragam sebuah komunitas untuk pelatihan terapan guna mengidentifikasi potensi dampak yang berbeda.
  • Menggunakan alat audit untuk mencerminkan bias yang ditunjukkan dalam model. Jika refleksi tersebut selaras dengan nilai-nilai organisasi, transparansi seputar data dan metode yang dipilih adalah kuncinya. Jika refleksi tidak selaras dengan nilai-nilai organisasi, maka ini adalah sinyal bahwa sesuatu harus berubah. Menemukan dan memitigasi potensi dampak yang berbeda yang disebabkan oleh bias melibatkan lebih dari sekadar memeriksa data yang digunakan untuk melatih model. Organisasi juga harus memeriksa orang dan proses yang terlibat. Misalnya, apakah penggunaan model yang patut dan tidak patut telah dikomunikasikan dengan jelas?
  • Mengukur keadilan dan membuat standar kesetaraan dapat ditindaklanjuti dengan menyediakan persyaratan fungsional dan nonfungsional untuk berbagai tingkat layanan.
  • Menggunakan kerangka kerja pemikiran desain untuk menilai efek yang tidak diinginkan dari model AI, menentukan hak pengguna akhir, dan menerapkan prinsip-prinsip. Sangat penting bahwa latihan pemikiran desain mencakup orang dengan pengalaman hidup yang sangat beragam —semakin beragam semakin baik.

3. Dapat dilacak

 

“Kemampuan AI Departemen akan dikembangkan dan diterapkan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan, dan metode operasional yang berlaku untuk kemampuan AI, termasuk metodologi yang transparan dan dapat diaudit, sumber data, serta prosedur desain dan dokumentasi.”

Terapkan ketertelusuran dengan memberikan pedoman yang jelas kepada semua personel yang menggunakan AI:

  • Selalu jelaskan kepada pengguna saat mereka berinteraksi dengan sistem AI.
  • Berikan landasan konten untuk model AI. Berdayakan pakar domain untuk mengkurasi dan memelihara sumber data tepercaya yang digunakan untuk melatih model. Output model didasarkan pada data yang digunakan untuk melatihnya.

IBM dan para mitranya dapat menyediakan solusi AI dengan landasan konten yang komprehensif dan dapat diaudit yang sangat penting untuk contoh-contoh penggunaan berisiko tinggi.

  • Tangkap metadata kunci untuk membuat model AI transparan dan melacak inventaris model. Pastikan metadata ini dapat ditafsirkan dan informasi yang tepat diekspos ke personel yang sesuai. Interpretasi data membutuhkan latihan dan merupakan upaya lintas disiplin. Di IBM, kelompok Desain untuk AI kami bertujuan untuk mendidik karyawan tentang peran penting data dalam AI (di antara dasar-dasar lainnya) dan menyumbangkan kerangka kerja pada komunitas sumber terbuka.
  • Jadikan metadata ini mudah ditemukan oleh karyawan (pada akhirnya di sumber output).
  • Sertakan keterlibatan manusia karena AI harus meningkatkan dan membantu manusia. Hal ini memungkinkan manusia untuk memberikan masukan saat sistem AI beroperasi.
  • Membuat proses dan kerangka kerja untuk menilai dampak berbeda dan risiko keselamatan dengan baik jauh sebelum model diterapkan atau dibeli. Tunjuk orang yang bertanggung jawab untuk mengurangi risiko ini.

4. Andal

 

“Kemampuan AI Departemen akan memiliki penggunaan yang eksplisit dan ditetapkan dengan baik, dan keselamatan, keamanan, dan efektivitas kemampuan tersebut akan tunduk pada pengujian dan jaminan dalam penggunaan yang telah ditentukan di seluruh siklus hidup mereka.”

Organisasi harus mendokumentasikan contoh penggunaan yang ditetapkan dengan baik dan kemudian menguji kepatuhan. Penerapan dan penskalaan proses ini membutuhkan keselarasan budaya yang kuat sehingga para praktisi mematuhi standar tertinggi bahkan tanpa pengawasan langsung. Praktik terbaik meliputi:

  • Membangun komunitas yang terus-menerus menegaskan kembali mengapa output yang adil dan andal sangat penting. Banyak praktisi mempercayai dengan sungguh-sungguh bahwa tidak akan ada dampak yang berbeda jika memiliki maksud terbaik. Ini salah arah. Pelatihan terapan oleh pemimpin masyarakat yang sangat terlibat yang membuat orang merasa didengar dan disertakan sangatlah penting.
  • Membangun alasan pengujian keandalan di seputar pedoman dan standar untuk data yang digunakan dalam pelatihan model. Cara terbaik untuk mewujudkannya adalah dengan menawarkan contoh tentang apa yang dapat terjadi ketika pengawasan ini tidak ada.
  • Batasi akses pengguna ke pengembangan model, tetapi kumpulkan beragam perspektif di awal proyek untuk mengurangi bias yang muncul.
  • Lakukan pemeriksaan privasi dan keamanan di sepanjang siklus hidup AI.
  • Sertakan ukuran akurasi dalam audit yang dijadwalkan secara teratur. Bersikaplah terbuka tentang hasil kinerja model jika dibandingkan dengan manusia. Jika model tidak dapat memberikan hasil yang akurat, jelaskan siapa yang bertanggung jawab atas model tersebut dan apa yang dapat dilakukan oleh pengguna. (Semua ini harus dimasukkan ke dalam metadata yang dapat ditafsirkan dan ditemukan).

5. Dapat diatur

 

“Departemen akan merancang dan merekayasa kemampuan AI untuk memenuhi fungsi yang dimaksudkan sekaligus memiliki kemampuan untuk mendeteksi dan menghindari konsekuensi yang tidak diinginkan, dan kemampuan untuk melepaskan atau menonaktifkan sistem yang diterapkan yang menunjukkan perilaku yang tidak diinginkan.”

Penerapan prinsip ini membutuhkan:

  • Investasi model AI tidak berhenti pada penerapan. Dedikasikan sumber daya untuk memastikan model terus berperilaku seperti yang diinginkan dan diharapkan. Nilai dan kurangi risiko sepanjang siklus hidup AI, tidak hanya setelah penerapan.
  • Penunjukan penanggung jawab yang memiliki mandat dengan dukungan finansial untuk melakukan pekerjaan tata kelola. Mereka harus memiliki kekuatan.
  • Berinvestasi dalam komunikasi, pembangunan komunitas, dan pendidikan. Manfaatkan alat seperti watsonx.governance untuk memantau sistem AI.
  • Tangkap dan kelola inventaris model AI seperti yang dijelaskan di atas.
  • Menerapkan langkah-langkah keamanan siber di semua model.

IBM berada di garis depan dalam memajukan AI yang dapat dipercaya

IBM telah berada di garis depan dalam memajukan prinsip-prinsip AI yang dapat dipercaya dan pemimpin pemikiran dalam tata kelola sistem AI sejak berdiri. Kami mengikuti prinsip-prinsip kepercayaan dan transparansi yang telah lama dipegang teguh yang memperjelas peran AI untuk meningkatkan, tidak menggantikan, keahlian dan penilaian manusia.

Pada tahun 2013, IBM memulai perjalanan kemampuan menjelaskan dan transparansi dalam AI dan machine learning. IBM adalah pemimpin dalam etika AI, menunjuk seorang pemimpin global etika AI pada tahun 2015, dan menciptakan dewan etika AI pada tahun 2018. Pakar ini bekerja untuk membantu memastikan prinsip dan komitmen kami ditegakkan dalam keterlibatan bisnis global kami. Pada tahun 2020, IBM menyumbangkan toolkit AI yang Bertanggung Jawab kepada Linux Foundation untuk membantu membangun masa depan AI yang adil, aman, dan dapat dipercaya.

IBM memimpin upaya global untuk membentuk masa depan metrik, standar, dan praktik terbaik AI yang bertanggung jawab dan AI etis:

  • Terlibat dengan pemerintahan Presiden Biden dalam pengembangan Perintah Eksekutif AI
  • Mengungkapkan/mengajukan lebih dari 70 paten untuk AI yang bertanggung jawab
  • CEO IBM, Arvind Krishna, menjadi ketua bersama komite pengarah Aliansi Aksi AI Global yang diluncurkan oleh World Economic Forum (WEF),
  • Aliansi ini berfokus untuk mempercepat adopsi kecerdasan buatan yang inklusif, transparan, dan tepercaya secara global
  • Ikut menulis dua makalah yang diterbitkan oleh WEF tentang AI Generatif seputar membuka nilai dan mengembangkan sistem dan teknologi yang aman.
  • Ketua bersama Komite AI Tepercaya Linux Foundation AI
  • Berkontribusi pada Kerangka Kerja Manajemen Risiko AI NIST; terlibat dengan NIST di bidang metrik, standar, dan pengujian AI

Mengkurasi AI yang bertanggung jawab adalah tantangan dengan banyak aspek karena hal ini menuntut agar nilai-nilai kemanusiaan tercermin secara andal dan konsisten dalam teknologi kami. Tapi itu sepadan dengan usahanya. Kami yakin bahwa pedoman di atas dapat membantu Departemen Pertahanan menerapkan AI tepercaya dan membantunya memenuhi misi.

Untuk informasi lebih lanjut tentang bagaimana IBM dapat membantu, kunjungi Konsultasi Tata Kelola AI | IBM

Sumber daya lainnya:

Penulis

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

Ambil langkah selanjutnya

Dapatkan akses ke berbagai kemampuan dalam satu alat untuk seluruh siklus pengembangan AI. Hasilkan solusi AI yang kuat dengan antarmuka ramah pengguna, alur kerja yang efisien, serta akses ke API dan SDK berstandar industri.

Jelajahi watsonx.ai Pesan demo langsung