Para pemimpin Sourcing, Procurement, dan Vendor Management (SPVM) memiliki tugas penting untuk memasukkan tata kelola AI yang bertanggung jawab ke dalam perangkat lunak dan kontrak mereka. Laporan terbaru dari Gartner memperingatkan bahwa para pemimpin SPVM yang mengabaikan kebutuhan tata kelola AI menempatkan organisasi mereka pada risiko besar.
“Sebagian besar kontrak vendor perangkat lunak dan cloud tidak memiliki komitmen eksplisit yang membuat mereka bertanggung jawab untuk menyediakan AI yang bertanggung jawab, sementara kontrak lainnya menyertakan sanggahan yang menghapus tanggung jawab atas sistem dan output AI yang tidak bertanggung jawab,” kata Gartner.
Ketika saya berbicara kepada audiens dan mengajukan pertanyaan Siapa dalam suatu organisasi yang harus bertanggung jawab atas hasil yang bertanggung jawab dari AI? Tiga jawaban teratas yang saya dapatkan cukup mengkhawatirkan.
Tiga jawaban paling umum yang saya dapatkan adalah: "tidak ada", "kami tidak menggunakan AI", dan "semua orang." Tak satu pun dari jawaban ini benar dan semuanya mengkhawatirkan.
Jawaban pertama dan paling umum, bahwa tidak ada yang bertanggung jawab atas hasil model AI, jelas mengkhawatirkan. Tidak ada alasan di sini. Seharusnya tidak, tidak dapat diterima untuk puas dengan nol akuntabilitas seputar AI.
Jawaban kedua, kami tidak menggunakan AI, sangat menggelikan karena AI sudah tertanam di banyak lisensi aplikasi perangkat lunak perusahaan yang mereka gunakan. Lebih jauh, hal ini menunjukkan bahwa organisasi tidak melacak AI dalam inventaris mereka atau, lebih buruk lagi, tidak mengomunikasikan penggunaan AI yang tepat dan tidak tepat kepada karyawan. Itu adalah masalah yang signifikan.
Jawaban terakhir bahwa tanggung jawab tata kelola AI adalah milik semua orang memang mulia. Setiap orang yang terlibat dengan model AI sepanjang siklus hidupnya memang bertanggung jawab. Namun, jika semua orang dianggap bertanggung jawab atas tata kelola, apakah benar semua orang benar-benar memikul tanggung jawab itu? Harus ada tanggung jawab AI yang lebih jelas daripada sekadar anggapan bahwa jika setiap orang mengelola bagian mereka sendiri, semuanya akan berjalan baik.
Jelas, ada keterputusan antara bagaimana organisasi berpikir bahwa mereka menangani tanggung jawabnya untuk AI dan kenyataan. Izinkan saya menjelaskan apa yang diperlukan bagi sebuah organisasi untuk benar-benar bertanggung jawab.
Mereka yang bertanggung jawab atas tata kelola AI dan etika harus mengelola banyak aspek yang bergerak, dengan yang paling penting adalah menyelaraskan nilai-nilai dalam organisasi. Ini berarti membuat semua rekan kerja memahami betapa pentingnya pekerjaan ini bagi individu dan organisasi. Hal ini sulit dicapai tanpa komunikasi dan dukungan yang konsisten dari CEO atau Dewan Direksi. Para pemimpin tata kelola AI juga perlu memastikan bahwa rekan seperti CISO diundang ke pertemuan terkait investasi AI.
Para pemimpin tata kelola AI ini awalnya dianggap sebagai hambatan yang memperlambat kemajuan. Para pemimpin tata kelola AI yang didanai dan diberdayakan memiliki peluang untuk membangun platform tata kelola AI yang komprehensif, yang dapat mempercepat penerapan model tepercaya dalam waktu singkat. Dengan adanya kumpulan data yang telah diberkati dan proses yang diawasi, pembuat solusi AI dapat lebih cepat mengetahui contoh penggunaan, data, dan metode yang sudah disetujui oleh organisasi.
Selain penyelarasan nilai, orang atau tim yang bertanggung jawab atas AI yang bertanggung jawab perlu melacak inventaris model AI organisasi. Anda tidak dapat memerintah apa yang tidak dapat Anda lihat. Oleh karena itu, semua yang telah dibeli atau dibangun organisasi yang mungkin memiliki AI atau machine learning (ML) di dalamnya perlu dilacak, bersama dengan metadata yang terkait dengan masing-masing model tersebut.
Metadata ini secara tradisional disimpan dalam lembar fakta atau seperti yang kadang-kadang disebut, kartu model AI. Hal ini akan memberi tahu Anda apa tujuan dari model tersebut, siapa yang bertanggung jawab untuk itu, dari mana data tersebut berasal, untuk apa data tersebut diaudit, seberapa sering diaudit, hasil audit tersebut, dan sebagainya.
Kemudian, mereka perlu tahu cara mengaudit model AI dan solusi Teknologi ini untuk memantau apakah teknologi berperilaku dengan cara yang Anda inginkan. Hal ini merupakan pertimbangan penting untuk meminta pertanggungjawaban vendor Anda secara kontraktual atas model mereka.
Dan mereka harus terus memantau peraturan yang terus berubah. Lingkungan peraturan terus berubah, terutama yang berkaitan dengan AI. Banyak negara, provinsi, dan kota memiliki undang-undang khusus mengenai penggunaan dan risiko AI dan tahun lalu, Uni Eropa meluncurkan UU AI Uni Eropa. Banyak perusahaan dan lembaga pemerintah telah berhasil digugat karena model AI mereka yang bermasalah.
Ada pengakuan bahwa Anda dapat memiliki model yang "halal tapi mengerikan" yang berarti Anda harus mendorong etika seputar AI. Dan setiap kali Anda mendorong ke subjek etika, Anda harus menjadi guru yang hebat.
Anda harus dapat mengajari orang-orang yang membuat model atas nama Anda atau bahkan membeli model atas nama Anda untuk melakukannya dengan cara yang mencerminkan etika organisasi Anda.
Lihat saja nilai kemanusiaan dari 'Keadilan.' Kita semua mengharapkan model AI bersikap adil, tetapi pandangan dunia keadilan siapakah yang terwakili dalam model AI? Sebagai suatu masyarakat, kita tidak dapat bersepakat bahwa ada pandangan dunia tunggal tentang keadilan.
Apa artinya ini dari pena ke kertas adalah bahwa orang-orang yang bertanggung jawab atas tata kelola AI dan program etika dalam organisasi mereka juga menemukan diri mereka bertanggung jawab atas program literasi AI.
Program literasi AI ini tidak hanya mengajarkan karyawan cara menggunakan AI untuk meningkatkan produktivitas kerja. Literasi AI dimulai dengan memahami jenis hubungan yang ingin dibangun organisasi dengan AI. Program ini memperkenalkan prinsip-prinsip inti yang harus tercermin dalam setiap solusi AI yang dikembangkan atau dibeli oleh organisasi. Selain itu, program ini mengajarkan cara mengoperasionalkan prinsip-prinsip tersebut dan membantu mewujudkannya di berbagai tingkat risiko.
Program literasi AI ini bersifat multidisiplin karena membangun kepercayaan pada AI bukan hanya masalah teknis, melainkan juga masalah sosio-teknis. Menciptakan model yang mencerminkan nilai-nilai kemanusiaan adalah salah satu tantangan terbesar yang dihadapi manusia. Oleh karena itu, dibutuhkan orang-orang dengan latar belakang dari berbagai disiplin ilmu.
Bertanggung jawab atas AI adalah pekerjaan yang signifikan dan itulah mengapa individu-individu ini membutuhkan sejumlah besar kekuatan dan mandat yang didanai untuk melakukan pekerjaan ini. Ini tidak bisa hanya menjadi pekerjaan sampingan. Menyelesaikan masalah ini dengan benar membutuhkan banyak usaha. Semua organisasi harus berupaya mendelegasikan akuntabilitas AI secara bertanggung jawab.
Sederhananya, Anda mendapatkan lebih banyak perilaku manusia yang terukur. Perilaku karyawan mana yang Anda insentif dan ukur terkait dengan kurasi model yang bertanggung jawab? Pertimbangkan cara memberi insentif dan mengukur perilaku yang tepat, sekaligus menanamkan pengajaran dan pembelajaran yang lebih baik dalam proses tata kelola AI Anda. Banyak orang tidak diberi insentif untuk bertindak bijaksana saat mengisi formulir inventaris model AI, atau bahkan tidak menyadari risiko model yang mereka kelola.
Secara ringkas, saya ingin Anda mengingat 4 poin-poin penting:
Percepat transformasi pengadaan AI dengan Agen Pengadaan watsonx siap pakai yang siap untuk perusahaan
Maksimalkan nilai dari proses sumber hingga pembayaran dengan berkolaborasi bersama pemasok dan mitra industri.
Transformasikan operasi pengadaan Anda dengan layanan konsultasi dan outsourcing pengadaan dari IBM.