Ledakan AI generatif telah mengirimkan segalanya mulai dari chatbot viral hingga valuasi multi-miliar dolar. Tetapi fondasi etika di balik itu semua tetap sangat tipis.
Dalam satu bulan, OpenAI memenangkan dan kehilangan kasus merek dagang di pengadilan federal dan Anthropic diam-diam memutar kembali blog yang dihasilkan oleh model Claude-nya sendiri setelah pengguna mengkritik tulisan itu sebagai tidak jelas dan menyesatkan. Seiring sistem AI berkembang di berbagai industri dan antarmuka, pertanyaan tentang tanggung jawab, keamanan, dan integritas tidak lagi bersifat teoretis. Mereka beroperasi.
Kesenjangan antara kemampuan dan kredibilitas adalah inti dari perhitungan etis yang berkembang di dunia AI. Etika biasanya diperlakukan sebagai lapisan tambahan, bukan sebagai lapisan struktural. Namun, di dalam IBM®, beberapa tim berusaha membalikkan pola ini dengan memasukkan kendala etika langsung ke dalam pelatihan, pemasaran, dan penerapan sistem.
PJ Hagerty, seorang veteran komunitas pengembang yang berakar pada perkakas sumber terbuka dan penginjilan produk, adalah salah satu individu yang terlibat dalam pekerjaan ini. Sebagai Pemimpin Advokasi AI di IBM®, tugasnya adalah membantu pengembang menggunakan AI secara lebih efektif dan bertanggung jawab. Namun, dalam praktiknya, ini berarti sesuatu yang lebih luas: menantang hype, mengklarifikasi batasan, dan menetapkan harapan yang realistis. “Kita tidak membangun pikiran,” katanya kepada saya. “Yang kita buat adalah alat. Sudah seharusnya kita bertindak demikian.”
Sebagian besar perhatian dalam AI saat ini difokuskan pada output—apa yang dihasilkan suatu model, seberapa akurat atau meyakinkannya, seberapa baik kinerjanya terhadap tolok ukur. Tetapi bagi Hagerty, ketegangan etika yang sebenarnya dimulai lebih awal, pada tingkat model dasar. Ini adalah infrastruktur mentah AI modern, lapisan dasar machine learning yang dilatih pada kumpulan data besar yang terkikis dari web. Inilah yang memicu model bahasa besar (LLM) seperti ChatGPT dan Claude.
“Fondasilah tempat semuanya terjadi,” katanya kepada saya. “Itu adalah hal pertama yang dipelajari sistem, dan jika penuh dengan sampah, sampah itu tidak hilang.”
Model dasar ini dirancang untuk tujuan umum. Itulah yang membuat mereka kuat dan berbahaya, kata Hagerty. Tanpa dirancang untuk tugas atau batasan spesifik, model-model ini cenderung menyerap apa pun, dari struktur semantik yang berguna hingga materi berbahaya dari internet. Dan setelah dilatih, modelnya sulit untuk diaudit. Bahkan para penciptanya sendiri sering kali tidak dapat memastikan apa yang sebenarnya diketahui model atau bagaimana model akan merespons sebuah prompt tertentu.
Hagerty membandingkan ini dengan menuangkan dasar beton yang cacat untuk gedung pencakar langit. Jika komposisinya salah dari awal, kerusakannya mungkin tidak tampak seketika. Namun seiring waktu, struktur menjadi tidak stabil. Dalam AI, padanannya adalah perilaku yang rapuh, bias yang tidak disengaja, atau penyalahgunaan yang berakibat fatal setelah sistem diterapkan. Tanpa pembentukan yang cermat sejak awal, sebuah model akan membawa risiko yang diserapnya selama pelatihan ke setiap aplikasi hilir.
Dia tidak sendirian dalam masalah ini. Peneliti dari Pusat Riset Model Dasar (CRFM) Stanford telah berulang kali memperingatkan tentang risiko yang muncul dari pelatihan skala besar, termasuk propagasi bias, halusinasi pengetahuan, kontaminasi data, dan kesulitan menentukan kegagalan. Masalah-masalah ini dapat dikurangi tetapi tidak dihilangkan, yang membuat pilihan desain awal, seperti kurasi data, penyaringan dan tata kelola, lebih penting.
Menurut Hagerty, salah satu hambatan etis terbesar bagi kemajuan yang bermakna adalah betapa samar makna yang dimaksud perusahaan ketika mereka mengatakan ‘AI.’ Tanyakan kepada lima tim produk apa yang mereka maksud dengan “didukung AI,” dan Anda mungkin akan mendapatkan lima jawaban berbeda. Hagerty memandang ketangkasan definisi ini sebagai salah satu kegagalan etika inti dari era saat ini.
“Sebagian besar waktu, ketika orang mengatakan AI, yang mereka maksud adalah otomatisasi. Atau struktur keputusan. Atau pernyataan if/else,” katanya.
Ketidakjelasan istilah bukan sekadar perdebatan akademis. Ketika perusahaan menyajikan perangkat lunak deterministik sebagai penalaran yang cerdas, pengguna cenderung mempercayainya. Ketika startup mempromosikan alat pencarian dan filter dasar sebagai model generatif, para investor pun mengucurkan dana pada ilusi belaka. Menurut Hagerty, fenomena ini disebut “kebocoran hype” dan menjadi penyebab meningkatnya kebingungan serta risiko terhadap reputasi.
Dalam industri yang diatur seperti keuangan atau perawatan kesehatan, konsekuensinya bisa lebih parah. Jika pengguna keliru menganggap sistem memiliki kesadaran lebih dari kenyataannya, mereka dapat mendelegasikan keputusan yang semestinya dibuat oleh manusia. Garis antara alat dan agen menjadi kabur, dan dengan itu, akuntabilitas.
Masalah ini juga menyebabkan upaya yang sia-sia. Hagerty mengutip riset tentang penyalahgunaan LLM untuk peramalan deret waktu, metode statistik yang digunakan untuk memprediksi nilai masa depan berdasarkan data historis, tugas di mana metode klasik tetap lebih akurat dan efisien. Namun beberapa perusahaan tetap terus menggunakan LLM, mengejar hal baru atau memberi sinyal inovasi.
“Anda membakar GPU untuk mendapatkan jawaban buruk,” katanya. “Dan lebih buruk lagi, Anda menyebutnya kemajuan.”
Masalah etika bukan hanya inefisiensi. Itu adalah suatu penafsiran yang keliru. Tim membangun produk di sekitar teknologi yang hampir tidak mereka pahami, menambahkan pemasaran yang melebih-lebihkan kemampuan mereka dan menerapkan kepada pengguna yang tidak memiliki cara untuk mengevaluasi apa yang mereka gunakan.
Buletin industri
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.
Sebagian besar kecemasan publik seputar AI telah berfokus pada kemungkinan kehilangan pekerjaan secara massal. Akankah AI menggantikan pengacara, guru, programmer, dan penulis? Hagerty melihat pertanyaan ini sebagai pertanyaan prematur dan dibingkai dengan buruk.
“Sebagian besar alat ini tidak menggantikan orang,” katanya. “Alat ini menggantikan tugas—dan hanya yang benar-benar membosankan.”
Dia menunjuk ke asisten kode seperti watsonx Code Assistant dan GitHub Copilot, dan alat seperti Cursor dan CodeWhisperer Amazon. Sistem ini tidak menulis seluruh aplikasi dari awal. Yang mereka lakukan adalah melengkapi blok-blok kode yang dapat diprediksi, menyarankan boilerplate, dan mengurangi beban penulisan logika yang berulang. Nilai tambahnya bukan pada kreativitas, tetapi pada percepatan proses.
Menurut Hagerty, secara keseluruhan ini hal yang positif. Pengembang junior dapat memulai lebih cepat. Insinyur senior dapat fokus pada arsitektur, bukan pada sintaks. Hambatan untuk memulai lebih rendah, dan beban pemeliharaannya berkurang. Tapi dia memperingatkan agar tidak membayangkan ini sebagai masalah yang terpecahkan.
“Model-model ini dilatih di web terbuka,” katanya. “Dan ada banyak sampah di kumpulan data itu, termasuk milik saya.”
Sampah itu mencakup kode yang tidak aman, praktik yang sudah usang, dan hack yang hanya berlaku dalam konteks tertentu. Hal itu juga mencakup plagiarisme, pelanggaran lisensi, dan ghost bugs yang dapat muncul kembali dalam output yang dihasilkan. Jadi, meskipun sebuah model dapat menghemat waktu, model itu juga berisiko menghadirkan kembali masalah-masalah yang justru ingin dikuranginya. Yang terskalakan bukanlah kualitas; melainkan apa pun yang telah dipaparkan kepada model.
Di sinilah Hagerty percaya ulasan manusia tetap penting. Alat ini dapat membantu, tetapi akuntabilitas masih ada pada pengembang.
Salah satu kegagalan keamanan AI yang paling terkenal terjadi hampir satu dekade yang lalu, ketika chatbot Tay dirilis di Twitter. Dalam beberapa jam, itu dibajak untuk memposting konten ofensif dan teori konspirasi. Pembuatnya menariknya secara offline dan mengeluarkan permintaan maaf. Tetapi episode tersebut menjadi simbol abadi dari apa yang terjadi ketika pengembang merilis sistem tanpa pagar pembatas.
Saat ini, sebagian besar perusahaan telah belajar untuk membungkus model generatif mereka dalam lapisan moderasi. Filter, pengklasifikasi, pembersih cepat, dan penyetelan penguatan dapat membantu, tetapi mereka tidak mudah. Menurut Hagerty, langkah-langkah ini cenderung berfokus pada masalah tingkat permukaan, seperti nada bahasa atau kata-kata kotor, daripada kerentanan yang lebih dalam, seperti injeksi prompt atau penggunaan ulang yang berbahaya. Sebaliknya, ia melihat keselamatan sebagai pertanyaan desain yang lebih luas. “Apakah model ini akan disalahgunakan? Apakah pernyataan ini akan disalahartikan atau keluar dari konteks? Apakah output akan dipercaya padahal seharusnya tidak?” katanya. “Jika Anda belum memikirkan pertanyaan-pertanyaan itu, Anda belum selesai. Anda belum siap produksi."
Hagerty menunjuk contoh alat yang memanipulasi atau menghasilkan media, seperti generator gambar, editor video, dan klon suara. Sistem ini tidak hanya menghasilkan konten, tetapi mereka juga mengubah persepsi. Dia mengatakan bahwa ketika output cukup realistis, mereka mulai memengaruhi memori, penilaian, dan atribusi.
Dalam kasus ini, keamanan bukan tentang kebenaran teknis, tetapi kesadaran kontekstual. Apa yang terjadi pada output ini setelah meninggalkan antarmuka Anda? Siapa yang melihatnya? Apa yang mereka asumsikan?
Pertanyaan-pertanyaan itu jarang memiliki satu jawaban. Ia menegaskan bahwa sepenuhnya mengabaikan aspek-aspek tersebut adalah kekeliruan.
Dalam lingkungan teknologi yang bergerak cepat, tata kelola dapat terasa seperti hambatan. Ini memperlambat rilis. Itu menambah tumpukan dokumen. Ini menyebabkan ambiguitas. Namun bagi Hagerty, pandangan ini meleset dari inti persoalan.
“Anda tidak akan mengirimkan kode yang belum diuji,” katanya. “Mengapa Anda mengirimkan model yang tidak diaudit?”
Dia memandang alat seperti watsonx.governance IBM® sebagai infrastruktur yang diperlukan, bukan tambahan opsional. Sistem ini memungkinkan tim untuk melacak data pelatihan, memantau perubahan model, dan menandai penyimpangan dari waktu ke waktu. Sistem ini membantu organisasi mematuhi peraturan yang muncul, tetapi yang lebih penting, mereka membangun memori kelembagaan. Sistem ini juga membiarkan tim melihat apa yang mereka lakukan, bagaimana, dan mengapa mereka melakukannya .
Hal ini penting bukan hanya untuk kepatuhan, tetapi juga untuk kualitas. Jika model berkinerja berbeda bulan depan, Anda perlu tahu apa yang berubah. Jika mulai berhalusinasi dalam produksi, Anda memerlukan cara untuk melacak masalah kembali ke sumbernya. Tata kelola yang baik merupakan ekuivalen dalam AI untuk kontrol versi.
Dan hal itu melampaui sekadar model. Hagerty menunjukkan minat yang meningkat pada "unlearning mesin," kemampuan untuk menghapus data atau perilaku bermasalah secara operasi tanpa pelatihan ulang dari awal. Pendekatan ini, meskipun masih awal, mencerminkan perubahan pola pikir yang lebih luas. Tujuannya bukan untuk membangun model yang lebih cerdas, tetapi untuk membangun model yang dapat beradaptasi, memperbaiki, dan bertanggung jawab.
Tak satu pun dari ini memerlukan kesempurnaan. Hagerty dengan cepat mengakui bahwa bias akan bertahan, keamanan akan gagal, dan alat bantu akan disalahgunakan. Namun perbedaan antara kegagalan yang dapat diterima dan kerugian akibat kelalaian terletak pada prosesnya.
"Jangan berlebihan. Jangan terlalu percaya. Ajukan pertanyaan yang lebih baik lebih awal,” katanya.
Dia merekomendasikan membangun ulasan etika ke dalam siklus perencanaan, tidak hanya meluncurkan daftar periksa. Menggunakan alat seperti AI Fairness 360 dan Granite Guardian IBM®, serta ARX, untuk menangkap masalah yang jelas. Menjalankan pengujian tim merah untuk menemukan kasus tepi sebelum pengguna melakukannya. Dan yang paling penting, membangun sistem yang membuatnya mudah untuk mengoreksi arah.
Ia berpendapat bahwa pekerjaan ini bukan tentang menghentikan bahaya. Ini tentang membentuk dampak.
“Anda tidak akan membangun sistem yang sempurna,” katanya. “Tapi Anda bisa membangun yang gagal lebih lambat, yang gagal dengan cara yang Anda pahami.”
Etika, dalam pandangan ini, bukanlah kendala tetapi prinsip desain. Ini adalah cara untuk membuat perangkat lunak yang lebih baik, sistem yang lebih dapat diprediksi, harapan yang lebih jelas—dan, pada akhirnya, lebih banyak nilai.
Saat ditanya apa yang memberinya harapan, Hagerty tidak berbicara tentang penyelarasan, AGI atau kerangka kerja. Dia berbicara tentang code assistant.
"Metode ini berhasil," katanya. "Solusi ini mengurangi gesekan. Cara ini tidak berpura-pura melakukan lebih dari yang bisa dilakukan. “Itulah model yang harus diikuti.”
Dia ingin AI membosankan. Berguna. Sempit. Jujur tentang apa yang dilakukannya dan bagaimana cara kerjanya. Hal ini tidak berarti membatasi ambisi; tetapi mengklarifikasinya. Membangun demi keandalan, bukan kejutan. Merancang sistem yang berperilaku baik tidak hanya dalam demo, tetapi dalam penerapan.
AI tidak akan pergi. Alat akan terus berkembang, tetapi begitu juga harapan. Dan tim yang berhasil, Hagerty percaya, akan menjadi tim yang mencocokkan kekuatan teknis dengan disiplin etis. Karena itu berhasil.
Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.
Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.
Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.