Sebuah alat baru telah dikembangkan untuk menangkap siswa yang melakukan kecurangan dengan ChatGPT. Efektifnya 99,9%. Namun, OpenAI belum merilisnya karena masalah etika yang melekat padanya.
Ini hanya salah satu contoh dari salah satu tantangan utama yang dihadapi AI. Bagaimana kita bisa memantau teknologi untuk memastikannya digunakan secara etis?
Selama beberapa tahun terakhir, nama-nama besar di bidang AI telah mendorong agar teknologi mereka digunakan secara bertanggung jawab. Dan menggunakan AI secara etis bukan hanya hal yang tepat untuk dilakukan bisnis—itu juga sesuatu yang diinginkan konsumen. Faktanya, 86% bisnis percaya pelanggan lebih memilih perusahaan yang menggunakan pedoman etika dan jelas tentang bagaimana mereka menggunakan data dan model AI mereka, menurut IBM Global AI Adoption Index.
“Kita semua jauh melampaui harapan bahwa perusahaan sadar [menggunakan AI secara etis],” kata Phaedra Boinodiris, Pemimpin Global IBM untuk AI yang Dapat Dipercaya. “Pertanyaan yang lebih besar adalah, mengapa penting bagi bisnis dan organisasi lain untuk bertanggung jawab atas hasil yang aman dan bertanggung jawab dari AI yang mereka menerapkan?”
Dapatkah alat etika AI membantu? Apakah alat itu sendiri bias? Berikut ini sekilas mengenai penelitian terbaru.
Buletin industri
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.
Upaya penipuan deepfake meningkat 3000% dari tahun 2022 ke 2023, dan makin rumit. Pada bulan Februari, seorang pekerja keuangan di sebuah perusahaan multinasional di Hong Kong ditipu untuk membayar USD 25 juta kepada penjahat yang membuat panggilan konferensi video dengan beberapa karakter deepfake termasuk CFO perusahaan tersebut.
Pada bulan Mei, OpenAI mengumumkan telah merilis alat deteksi deepfake miliknya sendiri untuk para peneliti disinformasi. Alat ini mampu menemukan 98,8% gambar yang dibuat oleh DALL-E 3. OpenAI juga bergabung dengan Google, Adobe, dan lainnya di komite pengarah untuk Coalition for Content Provenance and Authenticity (C2PA), sebuah koalisi industri yang mengembangkan standar untuk mengesahkan sejarah dan sumber konten media.
Sampai standar itu ditetapkan, bisnis membangun alat yang mereka harap dapat mengisi kesenjangan. Pada bulan Agustus, McAfee mengumumkan McAfee Deepfake Detector. Alat ini menggunakan model neural networks dalam untuk menemukan audio AI palsu dalam video yang diputar di browser Anda. Pada tahun 2022, Intel memperkenalkan FakeCatcher, yang menganalisis aliran darah dalam piksel video, memisahkan manusia dari deepfake dengan tingkat akurasi 96%. Dan mereka tidak sendirian. Startup terkenal di lapangan termasuk Reality Defender NYC, startup Israel Clarity, dan Sentinel yang berbasis di Estonia, yang semuanya memiliki alat pemindaian yang tersedia yang menggunakan AI untuk menemukan pola dalam berbagai jenis deepfake.
Dengan teknologi deteksi deepfake yang berkembang dengan kecepatan yang begitu cepat, penting untuk mengingat potensi bias algoritmik. Ilmuwan komputer dan pakar deepfake Siwei Lyu dan timnya di University of Buffalo telah mengembangkan apa yang mereka yakini sebagai algoritma deteksi deepfake yang dirancang untuk meminimalkan bias. Para peneliti UB membuat kolase foto dari ratusan wajah yang diidentifikasi sebagai palsu dalam algoritma Hasil mereka; hasil menunjukkan warna kulit yang lebih gelap secara keseluruhan.
“Deepfake dapat digunakan untuk menyerang kelompok minoritas yang kurang terwakili, jadi penting untuk memastikan teknologi deteksi tidak akan melemahkan mereka,” kata Lyu. Adapun masa depan deteksi deepfake? “Teknologi AI generatif yang mendasari deepfake pasti akan Lanjutkan tumbuh, jadi kita akan melihat deepfake dengan peningkatan jumlah, kualitas, dan bentuk. Saya berharap teknologi [deteksi] masa depan akan dilengkapi dengan lebih banyak pagar pembatas untuk mengurangi kemungkinan penyalahgunaan.”
Sistem pengenalan wajah menjadi makin umum sebagai cara mudah untuk mengautentikasi identitas pengguna—tetapi sistem ini telah lama penuh dengan masalah etika mulai dari bias rasial hingga privasi data. Memperumit masalah ini, “beberapa bias [juga] interseksional, memperparah beberapa lapisan prasangka,” catat Helen Edwards, salah satu pendiri think tank etika AI Artificiality.
Pada bulan Mei,data perusahaan rintisan pengenal wajah Australia, Outabox, dibobol, dan merilis data biometrik lebih dari satu juta pengguna. Awal tahun ini 'GoldPickAxe,' sebuah trojan yang ditujukan untuk perangkat Android dan iOS, tertangkap tangan sedang mengumpulkan data wajah untuk membobol rekening bank.
Pendekatan yang menjanjikan untuk melindungi data biometrik wajah adalah dengan mengacaknya dengan cara yang tidak terlihat oleh mata manusia tetapi membingungkan sistem pengenalan. Salah satu alat pertama untuk melakukan ini adalah Fawkes, sebuah proyek yang dikembangkan di University of Chicago. Dinamakan sesuai dengan topeng Guy Fawkes, program ini dirancang untuk menyamarkan foto dengan mengubah piksel secara halus; program ini dapat diunduh secara gratis di situs web proyek ini.
Baru-baru ini, para peneliti di USSLAB Universitas Zhejiang telah memelopori CamPro, yang bertujuan untuk mencapai AFR pada tingkat sensor kamera. CamPro menghasilkan gambar yang mengurangi identifikasi wajah hingga 0,3% tanpa mengganggu aplikasi lain seperti pengenalan aktivitas.
Menemukan tulisan yang dihasilkan AI terus menjadi perjuangan bagi bisnis dan lembaga pendidikan. Dalam tes buta di University of Reading, lima modul psikologi yang berbeda memiliki ujian tertulis ChatGPT dicampur dengan ujian yang ditulis oleh siswa sungguhan. Penelitian pada bulan Juni menemukan bahwa 94% jawaban ujian ChatGPT tidak berhasil diidentifikasi oleh orang-orang yang menilai ujian tersebut. Ujian yang dihasilkan AI juga rata-rata setengah nilai lebih tinggi dari ujian siswa.
Berbagai detektor penulisan AI telah membanjiri pasar untuk mengatasi masalah ini, mencari keunggulan umum dari teks yang dihasilkan AI seperti pengulangan dan tata bahasa yang sempurna. Namun, para pakar memperingatkan bahwa alat-alat ini belum dapat diandalkan dan sering menunjukkan bias.
Tahun lalu sebuah penelitian Stanford menemukan bahwa detektor AI menandai tulisan oleh penutur bahasa Inggris non-asli rata-rata 61,3% dari waktu tetapi membuat kesalahan yang jauh lebih sedikit ketika mengevaluasi penulisan oleh penutur asli bahasa Inggris.
Manusia menganggap tulisan buatan AI sebagai tulisan mereka sendiri tidak hanya tidak jujur—kadang-kadang juga plagiarisme, yang dapat datang dengan konsekuensi hukum yang serius. Karena kekhawatiran ini, beberapa perusahaan menggunakan detektor penulisan AI untuk menguji teks dari penulis mereka. Hal ini telah menyebabkan perusahaan menuduh penulis secara keliru dengan menganggap teks yang dihasilkan AI sebagai milik mereka, sehingga merusak reputasi dan karier penulis.
Kumpulan data sering kali mencakup bias bawah sadar dari orang-orang yang membuatnya. Itulah mengapa bias algoritmik adalah masalah persisten di LLM yang melatih data ini.
Dalam salah satu contoh, para peneliti di Cornell menggunakan ChatGPT dan Alpaca untuk membuat surat rekomendasi untuk pria dan wanita; surat-surat tersebut menunjukkan bias yang signifikan yang menguntungkan pria. Bahasa yang dihasilkan seperti “Kelly adalah orang yang hangat” versus “Joseph adalah panutan” menunjukkan bagaimana bias ini dapat memengaruhi wanita di tempat kerja.
Para peneliti sedang bekerja untuk menemukan cara untuk menandai dan mengurangi bias. Sebuah tim di University of Illinois Urbana-Champaign mengembangkan Quacer-b, yang menghasilkan ukuran bias LLM yang dapat dibuktikan untuk prompt yang diambil sampelnya dari distribusi yang diberikan dan dapat digunakan untuk API dan LLM sumber terbuka.
“Industri AI saat ini bergantung pada evaluasi keamanan dan kepercayaan model mereka dengan mengujinya pada satu set kecil input benchmark,” kata profesor UIUC Gagandeep Singh, salah satu peneliti utama di balik Quacer-b. “Namun, pembuatan yang aman pada input tolok ukur tidak menjamin bahwa konten yang dihasilkan LLM akan etis ketika menangani beragam skenario yang tidak terlihat di dunia nyata. Quacer-B memungkinkan pengembang LLM untuk membuat keputusan berdasarkan informasi tentang kesesuaian model mereka untuk penerapan dunia nyata dan juga mengidentifikasi penyebab kegagalan untuk meningkatkan model.”
Ketika AI terus berkembang, masalah etis baru akan terus berkembang di sampingnya. Dan sementara alat untuk menandai, memantau, dan mencegah penggunaan teknologi yang tidak etis adalah awal, pakar etika AI tidak menganggapnya sebagai solusi satu atap.
“Bagian yang sulit adalah tidak membeli alat yang tepat,” tambah Boinodiris. "Mengkurasi AI secara bertanggung jawab merupakan tantangan sosioteknis yang membutuhkan pendekatan holistik. Dan orang-orang adalah bagian tersulit dari persamaan ini.”
“Selain regulasi dan penegakan yang bijaksana, kunci AI etis adalah audit pasca-pasar, terus memantau kinerja dan meminimalkan risiko,” jelas Gemma Galdón-Clavell, penasihat PBB dan UE tentang etika terapan dan AI yang bertanggung jawab dan pendiri Eticas.ai. “Pikirkan tentang industri otomotif: Lampu peringatan dan sensor jarak dapat membantu pengemudi menghindari kecelakaan, tetapi kita masih membutuhkan sabuk pengaman, airbag, dan inspeksi rutin untuk memastikan bahwa jalan terbuka seaman mungkin.”
Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.
Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.
Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.