Apa yang dimaksud dengan tata kelola AI?

Tampak samping pengusaha muda yang menggunakan komputer sembari duduk di meja kerja di kantor rumah

Penyusun

Tim Mucci

IBM Writer

Gather

Cole Stryker

Staff Editor, AI Models

IBM Think

Apa yang dimaksud dengan tata kelola AI?

Tata kelola kecerdasan buatan (AI) mengacu pada proses, standar, dan pagar pembatas yang membantu memastikan sistem dan alat AI aman dan etis. Kerangka kerja tata kelola AI mengarahkan penelitian, pengembangan, dan penerapan AI untuk membantu memastikan keamanan, keadilan, dan penghormatan terhadap hak asasi manusia.

Tata kelola AI yang efektif mencakup mekanisme pengawasan yang menangani risiko seperti bias, pelanggaran privasi, dan penyalahgunaan, sambil mendorong inovasi dan membangun kepercayaan. Pendekatan etis yang berpusat pada AI terhadap tata kelola AI membutuhkan keterlibatan berbagai pemangku kepentingan, termasuk pengembang AI, pengguna, pembuat kebijakan, dan ahli etika, untuk memastikan bahwa sistem yang terkait dengan AI dikembangkan dan digunakan untuk menyelaraskan dengan nilai-nilai masyarakat.

Tata kelola AI mengatasi kekurangan yang melekat pada elemen manusia dalam pembuatan dan pemeliharaan AI. Karena AI adalah produk dari kode rekayasa tinggi dan machine learning (ML) yang dibuat oleh manusia, ia rentan terhadap bias dan kesalahan manusia yang dapat mengakibatkan diskriminasi dan bahaya lain bagi individu.

Tata kelola menyediakan pendekatan terstruktur untuk mengurangi potensi risiko ini. Pendekatan semacam itu dapat mencakup kebijakan AI, regulasi, dan tata kelola data yang sehat. Ini membantu memastikan bahwa algoritma machine learning dipantau, dievaluasi, dan diperbarui untuk mencegah keputusan yang cacat atau berbahaya, dan bahwa kumpulan data dilatih dan dipelihara dengan baik.

Tata kelola juga bertujuan untuk menetapkan pengawasan yang diperlukan untuk menyelaraskan perilaku AI dengan standar etika dan harapan masyarakat sehingga dapat melindungi dari potensi dampak buruk.

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

Mengapa tata kelola AI penting?

Tata kelola AI sangat penting untuk mencapai keadaan kepatuhan, kepercayaan dan efisiensi dalam mengembangkan dan menerapkan teknologi AI. Dengan integrasi AI semakin besar dalam operasi organisasi dan pemerintah, potensi dampak negatif yang dapat ditimbulkannya menjadi lebih terlihat. Faktanya, dalam penelitian yang tidak dipublikasikan dari IBM Institute for Business Value, 80% pemimpin bisnis melihat penjelasan AI, etika, bias atau kepercayaan sebagai penghalang utama untuk adopsi AI generatif.

Salah langkah profil tinggi seperti insiden chatbot Tay, di mana chatbot AI Microsoft mempelajari perilaku buruk dari interaksi publik di media sosial dan keputusan hukuman yang bias dari perangkat lunak COMPAS telah menyoroti perlunya tata kelola yang baik untuk mencegah bahaya dan menjaga kepercayaan publik.

Semua contoh ini menunjukkan bahwa AI dapat menyebabkan kerugian sosial dan etika yang signifikan tanpa pengawasan yang tepat, sehingga menekankan pentingnya tata kelola dalam mengelola risiko yang terkait dengan AI tingkat lanjut. Dengan memberikan pedoman dan kerangka kerja, tata kelola AI bertujuan untuk menyeimbangkan inovasi teknologi dengan keselamatan, membantu memastikan sistem AI tidak melanggar martabat atau hak manusia.

Pengambilan keputusan yang transparan dan dapat dijelaskan juga sangat penting untuk memastikan sistem AI digunakan secara bertanggung jawab dan untuk membangun kepercayaan. Sistem AI membuat keputusan setiap saat, mulai dari menentukan iklan mana yang akan ditampilkan hingga menentukan apakah sebuah pinjaman akan disetujui. Sangat penting untuk memahami bagaimana sistem AI mengambil keputusan untuk meminta pertanggungjawaban mereka atas keputusan yang diambil dan membantu memastikan bahwa mereka mengambil keputusan secara adil dan etis.

Lebih jauh lagi, tata kelola AI bukan hanya tentang membantu memastikan kepatuhan satu kali; tetapi juga tentang mempertahankan standar etika dari waktu ke waktu. Model AI dapat menyimpang, yang mengakibatkan perubahan kualitas dan keandalan output. Tren tata kelola saat ini bergerak lebih jauh dari hanya mengikuti peraturan hukum menuju memastikan tanggung jawab sosial AI. Hal ini melindungi dari kerugian keuangan, hukum, dan reputasi, serta mempromosikan pertumbuhan teknologi yang bertanggung jawab.

Akademi AI

Kepercayaan, transparansi, dan tata kelola di AI

Kepercayaan pada AI dapat dikatakan merupakan topik paling penting dalam AI. Dan juga merupakan topik yang cukup rumit. Kami akan menguraikan isu-isu seperti halusinasi, bias, dan risiko, dan menunjukkan langkah-langkah untuk mengadopsi AI secara etis, bertanggung jawab, dan adil.

Contoh tata kelola AI

Contoh tata kelola AI meliputi berbagai kebijakan, kerangka kerja, dan praktik yang diterapkan organisasi dan pemerintah untuk membantu memastikan penggunaan teknologi AI yang bertanggung jawab. Semua contoh ini menunjukkan bagaimana tata kelola AI terjadi dalam konteks yang berbeda:

Peraturan Perlindungan Data Umum (GDPR): GDPR adalah contoh tata kelola AI, khususnya dalam konteks perlindungan data pribadi dan privasi. Meskipun GDPR tidak berfokus secara eksklusif pada AI, banyak ketentuannya yang sangat relevan dengan sistem AI, terutama yang memproses data pribadi individu di Uni Eropa.

Organisasi untuk Kerja Sama dan Pembangunan Ekonomi (OECD): Prinsip-prinsip AI OECD, yang diadopsi oleh lebih dari 40 negara, menekankan pengelolaan yang bertanggung jawab atas AI yang dapat dipercaya, termasuk transparansi, keadilan, dan akuntabilitas dalam sistem AI.

Dewan etika AI:  Banyak perusahaan telah membentuk dewan atau komite etika untuk mengawasi inisiatif AI, yang memastikan bahwa inisiatif tersebut selaras dengan standar etika dan nilai-nilai masyarakat. Misalnya, sejak 2019, Dewan Etika AI IBM telah meninjau berbagai produk dan layanan AI baru untuk memastikannya selaras dengan prinsip-prinsip AI IBM. Dewan ini sering kali terdiri dari tim lintas fungsi dengan latar belakang hukum, teknis, dan kebijakan.  

Siapa yang mengawasi tata kelola AI yang bertanggung jawab?

Dalam organisasi tingkat perusahaan, CEO dan pimpinan senior pada akhirnya bertanggung jawab untuk memastikan organisasi mereka menerapkan tata kelola AI yang baik di seluruh siklus hidup AI. Penasihat hukum dan umum sangat penting dalam menilai dan mengurangi risiko hukum, memastikan aplikasi AI mematuhi undang-undang dan peraturan yang relevan. Menurut laporan dari IBM Institute for Business Value, 80% organisasi memiliki bagian khusus dari fungsi risiko mereka yang didedikasikan untuk risiko yang terkait dengan penggunaan AI atau AI generatif.

Tim audit sangat penting untuk memvalidasi integritas data sistem AI dan memastikan bahwa sistem beroperasi sebagaimana dimaksudkan tanpa menimbulkan kesalahan atau bias. CFO mengawasi implikasi keuangan, mengelola biaya yang terkait dengan inisiatif AI, dan mengurangi risiko keuangan apa pun. 

Namun, tanggung jawab tata kelola AI tidak terletak pada satu individu atau departemen; ini adalah tanggung jawab kolektif di mana setiap pemimpin harus memprioritaskan akuntabilitas dan membantu memastikan bahwa sistem AI digunakan secara bertanggung jawab dan etis di seluruh organisasi.

CEO dan pimpinan senior bertanggung jawab untuk menentukan keseluruhan gaya dan budaya organisasi. Dengan memprioritaskan tata kelola AI yang bertanggung jawab, hal ini mengirimkan pesan yang jelas kepada semua karyawan bahwa setiap orang harus menggunakan AI secara bertanggung jawab dan beretika. CEO dan pimpinan senior juga dapat berinvestasi dalam pelatihan tata kelola AI bagi karyawan, mengembangkan kebijakan dan prosedur internal secara aktif, serta menciptakan budaya komunikasi dan kolaborasi yang terbuka.

Prinsip dan standar tata kelola AI yang bertanggung jawab

Tata kelola AI sangat penting untuk mengelola kemajuan pesat dalam teknologi AI, terutama dengan munculnya AI generatif. AI generatif, yang mencakup teknologi yang mampu membuat konten dan solusi baru, seperti teks, gambar, dan kode, memiliki potensi besar di banyak contoh penggunaan.

Dari meningkatkan proses kreatif dalam desain dan media hingga mengotomatiskan tugas dalam pengembangan perangkat lunak, AI generatif mengubah cara industri beroperasi. Namun, dengan penerapannya yang luas, muncul kebutuhan akan tata kelola AI yang kuat.

Prinsip-prinsip tata kelola AI yang bertanggung jawab sangat penting bagi organisasi untuk melindungi diri mereka sendiri dan pelanggan mereka. Prinsip-prinsip ini dapat memandu organisasi dalam pengembangan dan penerapan teknologi AI yang etis, yang meliputi:

  • Empati: Organisasi harus memahami implikasi sosial dari AI, bukan hanya aspek teknologi dan keuangan. Mereka perlu mengantisipasi dan mengatasi dampak AI pada semua pemangku kepentingan.

  • Kontrol bias: Sangatlah penting untuk memeriksa data pelatihan secara ketat untuk mencegah menanamkan bias dunia nyata ke dalam algoritma AI, sehingga membantu memastikan proses pengambilan keputusan yang adil dan tidak bias.

  • Transparansi: Harus ada kejelasan dan keterbukaan tentang bagaimana algoritma AI beroperasi dan mengambil keputusan, dengan organisasi yang siap menjelaskan logika dan alasan di balik hasil yang didorong oleh AI.

  • Akuntabilitas: Organisasi harus menetapkan secara proaktif dan mematuhi standar yang tinggi untuk mengelola perubahan signifikan yang dapat dihadirkan oleh AI, dengan tetap bertanggung jawab atas dampak AI.

Meskipun peraturan dan kekuatan pasar membakukan banyak metrik tata kelola, organisasi masih harus menentukan cara terbaik untuk menyeimbangkan langkah-langkah untuk bisnis mereka. Mengukur efektivitas tata kelola AI dapat bervariasi menurut organisasi; setiap organisasi harus memutuskan area fokus apa yang harus mereka prioritaskan. Dengan area fokus seperti kualitas data, keamanan model, analisis biaya-nilai, pemantauan bias, akuntabilitas individu, audit berkelanjutan, dan kemampuan beradaptasi untuk menyesuaikan tergantung pada domain organisasi, ini bukanlah keputusan yang cocok untuk semua.

Tingkat tata kelola AI

Tata kelola AI tidak memiliki "tingkat" yang distandardisasi secara universal seperti, misalnya, keamanan siber yang memiliki tingkat respons ancaman yang jelas. Sebaliknya, tata kelola AI memiliki pendekatan dan kerangka kerja terstruktur yang dikembangkan oleh berbagai entitas yang dapat diadopsi atau diadaptasi oleh organisasi untuk memenuhi kebutuhan spesifik mereka.

Organisasi dapat menggunakan beberapa kerangka kerja dan panduan untuk mengembangkan praktik tata kelola mereka. Beberapa kerangka kerja yang paling banyak digunakan termasuk Kerangka Kerja Manajemen Risiko AI NIST, Prinsip-prinsip OECD tentang Kecerdasan Buatan, dan Pedoman Etika Komisi Eropa untuk AI yang Dapat Dipercaya. Kerangka kerja ini memberikan panduan untuk berbagai topik, termasuk transparansi, akuntabilitas, keadilan, privasi, keamanan, dan keselamatan.

Tingkat tata kelola dapat bervariasi tergantung pada ukuran organisasi, kompleksitas sistem AI yang digunakan, dan lingkungan peraturan tempat organisasi beroperasi.

Gambaran umum dari pendekatan ini:

Tata kelola informal

Ini adalah pendekatan tata kelola yang paling tidak intensif berdasarkan nilai dan prinsip organisasi. Mungkin ada beberapa proses informal, seperti dewan peninjau etika atau komite internal, tetapi tidak ada struktur atau kerangka kerja formal untuk tata kelola AI.

Tata kelola ad hoc

Ini merupakan langkah maju dari tata kelola informal dan melibatkan pengembangan kebijakan dan prosedur khusus untuk pengembangan dan penggunaan AI. Jenis tata kelola ini sering kali dikembangkan sebagai respons terhadap tantangan atau risiko tertentu dan mungkin tidak komprehensif atau sistematis.

Tata kelola formal

Ini adalah tingkat tata kelola tertinggi dan melibatkan pengembangan kerangka kerja tata kelola AI yang komprehensif. Kerangka kerja ini mencerminkan nilai dan prinsip organisasi serta selaras dengan hukum dan peraturan yang terkait. Kerangka kerja tata kelola formal biasanya mencakup penilaian risiko, tinjauan etika, dan proses pengawasan.

Bagaimana organisasi menerapkan tata kelola AI

Konsep tata kelola AI menjadi semakin penting karena otomatisasi, yang didorong oleh AI, menjadi hal lazim di berbagai sektor mulai dari perawatan kesehatan dan keuangan hingga transportasi dan layanan publik. Kemampuan otomatisasi AI dapat meningkatkan efisiensi, pengambilan keputusan, dan inovasi secara signifikan, serta memperkenalkan tantangan yang terkait dengan akuntabilitas, transparansi, dan pertimbangan etis.

Tata kelola AI melibatkan pembentukan struktur kontrol yang kuat berisi kebijakan, pedoman, dan kerangka kerja untuk mengatasi tantangan ini. Tata kelola ini melibatkan penyiapan mekanisme untuk terus memantau dan mengevaluasi sistem AI, memastikan mereka mematuhi norma etika dan peraturan hukum yang ditetapkan.

Struktur tata kelola AI yang efektif bersifat multidisiplin dan melibatkan pemangku kepentingan dari berbagai bidang, termasuk teknologi, hukum, etika, dan bisnis. Saat sistem AI menjadi semakin canggih dan terintegrasi ke dalam berbagai aspek penting masyarakat, peran tata kelola AI dalam memandu dan membentuk arah pengembangan AI dan dampak sosialnya menjadi semakin penting.

Praktik terbaik tata kelola AI melibatkan pendekatan yang lebih dari sekadar kepatuhan dan mencakup sistem yang lebih kuat untuk memantau dan mengelola aplikasi AI. Untuk bisnis tingkat perusahaan, solusi tata kelola AI harus memungkinkan pengawasan dan kontrol yang luas atas sistem AI. Berikut ini adalah contoh peta jalan yang perlu dipertimbangkan:

  1. Dasbor visual: Gunakan dasbor yang menyediakan pembaruan real-time tentang kesehatan dan status sistem AI, yang memberikan gambaran umum yang jelas untuk penilaian cepat.
     

  2. Metrik skor kesehatan: Menerapkan skor kesehatan secara keseluruhan untuk model AI menggunakan metrik yang intuitif dan mudah dipahami guna menyederhanakan pemantauan.
     

  3. Pemantauan otomatis: Menggunakan sistem deteksi otomatis untuk bias, penyimpangan, kinerja, dan anomali, untuk membantu memastikan bahwa model berfungsi dengan benar dan etis.
     

  4. Peringatan performa: Menyiapkan pemberitahuan saat model menyimpang dari parameter performa yang telah ditentukan, sehingga memungkinkan intervensi tepat waktu.
     

  5. Metrik khusus: Menentukan metrik khusus yang selaras dengan indikator kinerja utama (KPI) organisasi dan batas untuk membantu memastikan bahwa hasil AI berkontribusi pada tujuan bisnis.
     

  6. Jejak audit: Memelihara log dan jejak audit yang mudah diakses untuk akuntabilitas dan mempermudah peninjauan keputusan dan perilaku sistem AI.
     

  7. Kompatibilitas alat bantu sumber terbuka: Pilih alat bantu sumber terbuka yang kompatibel dengan berbagai platform pengembangan machine learning untuk mendapatkan manfaat dari fleksibilitas dan dukungan komunitas.
     

  8. Integrasi yang lancar: Membantu memastikan bahwa platform tata kelola AI terintegrasi dengan lancar dengan infrastruktur yang ada, termasuk basis data dan ekosistem perangkat lunak, untuk menghindari silo dan memungkinkan alur kerja yang efisien.
     

Dengan mengikuti praktik ini, organisasi dapat membangun kerangka kerja tata kelola AI yang kuat yang mendukung pengembangan AI yang bertanggung jawab, penerapan dan manajemen AI, membantu memastikan bahwa sistem AI sesuai dan selaras dengan standar etika dan tujuan organisasi.

Peraturan apa saja yang mewajibkan tata kelola AI?

Praktik tata kelola AI dan peraturan AI telah diadopsi oleh beberapa negara untuk mencegah bias dan diskriminasi. Penting untuk diingat bahwa regulasi selalu berubah, dan organisasi yang mengelola sistem AI yang kompleks perlu mengawasi dengan cermat seiring perkembangan kerangka hukum regional.

Undang-Undang AI UE

Undang-Undang Kecerdasan Buatan Uni Eropa, juga dikenal sebagai Undang-Undang AI UE atau Undang-Undang AI, adalah undang-undang yang mengatur pengembangan atau penggunaan kecerdasan buatan (AI) di Uni Eropa (UE). Undang-undang tersebut mengambil pendekatan berbasis risiko terhadap regulasi, menerapkan aturan yang berbeda untuk AI sesuai dengan risiko yang mereka timbulkan.

Dianggap sebagai kerangka kerja komprehensif pertama di dunia untuk AI, Undang-Undang AI UE melarang beberapa penggunaan AI secara langsung dan menerapkan tata kelola yang ketat, manajemen risiko, dan persyaratan transparansi untuk orang lain.

Undang-undang tersebut juga menetapkan regulasi untuk model kecerdasan buatan tujuan umum, seperti IBM Granite dan model dasar sumber terbuka Llama 3 dari Meta. Besaran denda bervariasi tergantung pada jenis pelanggaran, mulai dari 7,5 juta EUR atau 1,5% dari omzet tahunan global hingga 35 juta EUR atau 7% dari omzet tahunan global.

SR-11-7 Amerika Serikat

SR-11-7 adalah standar tata kelola model regulasi AS untuk tata kelola model yang efektif dan kuat dalam perbankan.Peraturan ini memerlukan pegawai bank untuk menerapkan inisiatif manajemen risiko model perusahaan besar dan memelihara inventaris model yang telah diimplementasikan, dalam pengembangan untuk diimplementasikan atau yang baru saja diundurkan.

Pemimpin lembaga juga harus membuktikan bahwa model-model mereka mencapai tujuan bisnis yang diinginkan, dan bahwa model-model tersebut mutakhir dan tidak menyimpang. Pengembangan dan validasi model harus memungkinkan siapa pun yang tidak terbiasa dengan model untuk memahami operasi model, batasan, dan berbagai asumsi utama.

Instruksi Kanada tentang Pengambilan Keputusan Otomatis

Instruksi Kanada tentang Pengambilan Keputusan Otomatis menjelaskan bagaimana pemerintah negara tersebut menggunakan AI untuk memandu pengambilan keputusan di beberapa departemen.2 Instruksi ini menggunakan sistem penilaian untuk menilai intervensi manusia, tinjauan sejawat, pemantauan, dan perencanaan kontingensi yang diperlukan untuk alat AI yang dibangun untuk melayani warga.

Organisasi yang menciptakan solusi AI dengan skor tinggi harus melakukan dua tinjauan sejawat independen, membuat pemberitahuan publik dalam bahasa yang sederhana, mengembangkan pengamanan intervensi manusia, dan membuat kursus pelatihan berulang untuk sistem tersebut. Canada's Directive on Automated Decision-Making adalah panduan untuk pengembangan AI di negara ini, sehingga peraturan ini tidak langsung mempengaruhi perusahaan seperti SR-11-7 di Amerika Serikat.

Peraturan AI yang terus berkembang di Eropa

Pada April 2021, Komisi Eropa memperkenalkan paket AI, yang termasuk pernyataan mengenai pengembangan pendekatan Eropa terhadap kekuatan, keyakinan, dan proposal untuk kerangka hukum AI.3

Pernyataan tersebut menyebutkan bahwa sebagian besar sistem AI akan masuk ke dalam kategori "risiko minimal," namun sistem AI yang diidentifikasi sebagai "risiko tinggi" akan diwajibkan untuk mematuhi persyaratan yang lebih ketat, dan sistem AI yang dianggap sebagai "risiko yang tidak diterima" akan dilarang. Organisasi harus memperhatikan dengan saksama semua aturan ini atau akan dikenakan denda.

    Peraturan dan pedoman tata kelola AI di kawasan Asia-Pasifik

    Pada tahun 2023, Tiongkok mengeluarkan Tindakan Sementara untuk Administrasi Layanan Kecerdasan Buatan Generatif. Di bawah undang-undang, penyediaan dan penggunaan layanan AI generatif harus "menghormati hak dan kepentingan sah orang lain" dan diharuskan untuk "tidak membahayakan kesehatan fisik dan mental orang lain, dan tidak melanggar hak potret, hak reputasi, hak kehormatan, hak privasi, dan hak informasi pribadi orang lain."

    Negara-negara lain di kawasan Asia-Pasifik telah merilis beberapa prinsip dan pedoman untuk mengatur AI. Pada tahun 2019, pemerintah Singapura merilis kerangka kerja dengan pedoman untuk mengatasi masalah etika AI di sektor swasta dan baru-baru ini, pada Mei 2024, merilis kerangka kerja tata kelola untuk AI generatif. India, Jepang, Korea Selatan, dan Thailand juga menjelajahi pedoman dan peraturan untuk tata kelola AI.3

    Solusi terkait
    IBM® watsonx.governance

    Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.

    Temukan watsonx.governance
    Solusi tata kelola AI

    Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.

    Temukan solusi tata kelola AI
    Layanan konsultasi tata kelola AI

    Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.

    Temukan layanan tata kelola AI
    Ambil langkah selanjutnya

    Arahkan, kelola, dan pantau AI Anda dengan satu portofolio untuk mempercepat AI yang bertanggung jawab, transparan, dan dapat dijelaskan.

    Jelajahi watsonx.governance Pesan demo langsung
    Catatan kaki

    1 “SR 11-7: Guidance on model risk management.”, Board of Governors of the Federal Reserve System Washington, D.C., Division of Banking Supervision and Regulation, 4 April 2011. 

    2 “Canada's new federal directive makes ethical AI a national issue.” Digital, 8 Maret 2019.

    3 "Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology", Sidley, 16 Agustus 2024.