Etika baru berisiko karena agen AI? Para peneliti sedang dalam kasus ini

Penyusun

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Ketika sistem AI menjadi kacau, hasilnya tidak bagus. Informasi rahasia yang bocor, pesan-pesan yang menyinggung, dan, dalam satu contoh, resep yang mudah digunakan untuk gas klorin yang mematikan, semuanya disalahkan pada chatbot yang salah.1

Semua contoh ini memicu penekanan yang lebih besar pada penyelarasan AI, yang merupakan praktik pengodean nilai-nilai manusia dan prinsip-prinsip etika ke dalam model AI. Tetapi peneliti AI tidak hanya ingin mengatasi implikasi etis dari teknologi machine learning saat ini. Mereka juga bekerja untuk mengatasi masalah etika pada kemudian hari—khususnya yang ditimbulkan oleh kecerdasan buatan agen.

Dikenal juga sebagai agen AI, AI agen adalah teknologi AI otonom yang menyajikan kumpulan dilema etika yang luas dibandingkan dengan model AI tradisional, kata Kush Varshney, seorang IBM Fellow di IBM Research.

“Karena agen AI dapat bertindak tanpa pengawasan Anda, ada banyak masalah tambahan terkait kepercayaan,” kata Varshney. “Akan ada evolusi dalam hal kemampuan tetapi juga dalam konsekuensi yang tidak diinginkan. Dari perspektif keamanan, Anda tidak ingin menunggu untuk mengerjakannya. Anda ingin terus membangun perlindungan saat teknologi sedang dikembangkan.”

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

Apa sebenarnya agen AI itu?

Sebelum menjelajahi perlindungan agen AI, penting untuk memahami dengan tepat apa itu agen AI: sistem atau program cerdas yang dapat secara mandiri melakukan tugas atas nama manusia atau sistem lain. Meskipun memiliki kemampuan model bahasa besar (LLM) seperti pemrosesan bahasa alami, sistem otonom ini juga dapat membuat keputusan, memecahkan masalah, menjalankan tindakan, dan berinteraksi dengan lingkungan eksternal.

Melalui kemampuan tersebut, agen AI dapat melakukan lebih dari sekadar menyusun respons teks terhadap prompt pengguna hingga benar-benar menyelesaikan tugas di dunia nyata.

Misalnya, interaksi eksternal terjadi melalui pemanggilan alat, dikenal juga sebagai pemanggilan fungsi, yang merupakan antarmuka yang memungkinkan agen untuk mengerjakan tugas yang memerlukan informasi tepat waktu—informasi yang seharusnya tidak tersedia bagi LLM. Jadi, agen AI yang diterapkan dalam ekosistem rantai pasokan dapat bekerja secara mandiri untuk mengoptimalkan tingkat persediaan dengan mengubah jadwal produksi dan memesan dari pemasok seperlunya.

Agen AI

5 Jenis Agen AI: Fungsi Otonom & Aplikasi Dunia Nyata

Pelajari bagaimana AI berbasis tujuan dan berbasis utilitas beradaptasi dengan alur kerja dan lingkungan yang kompleks.

Sejauh apa risiko otonomi AI yang lebih besar?

Ketika membahas kecerdasan buatan canggih seperti AI agen, otonomi sebanyak apa yang dianggap berlebihan? Untuk menjawabnya, kita dapat merujuk pada skenario memaksimalkan jumlah penjepit kertas. Eksperimen pemikiran populer ini yang dikemukakan oleh filsuf Nick Bostrom berfokus pada konsep AI kecerdasan super atau ASI, yaitu sistem AI dengan kemampuan intelektual yang melebihi kecerdasan manusia. Bolstrom mempertimbangkan apa yang mungkin terjadi jika sistem seperti ini memprioritaskan produksi klip kertas di atas semua tujuan lainnya.

Dalam skenario ini, sistem menghabiskan semua sumber daya planet kita hanya untuk memproduksi penjepit kertas—sebuah hasil yang tidak etis, terutama ketika kehidupan bergantung pada lebih dari sekadar alat kantor kecil tersebut. Kembali ke pertanyaan awal, kita dapat menyimpulkan bahwa dalam kasus hipotetis ini, sistem AI memiliki terlalu banyak otonomi.

Kabar baiknya adalah AI agen masa kini tidak sama dengan ASI, jadi distopia klip kertas yang didorong oleh etika mesin yang sangat cacat tetap tidak mungkin terjadi. “Kita semakin dekat, tetapi kita masih jauh,” kata Varshney.

Risiko lain yang muncul dari otomatisasi AI juga sangat nyata. Kemungkinan masalahnya bervariasi, mulai dari agen buatan yang mengirimkan email tidak pantas hingga mengoperasikan mesin secara tidak sesuai keinginan pengguna, kata Varshney. Kekhawatiran mengenai perilaku AI otonom sangat serius, sehingga dalam laporan yang diterbitkan pada April 2024 tentang pedoman keselamatan dan keamanan AI, Departemen Keamanan Dalam Negeri AS (DHS) mencantumkan “otonom” sebagai salah satu risiko terhadap sistem infrastruktur penting, termasuk komunikasi, layanan keuangan, dan layanan kesehatan.2

Mengembangkan solusi untuk mendukung perilaku agen yang etis

Solusi tata kelola AI yang ada dapat mendukung etika agen AI, mengingat alat perangkat lunak sudah memungkinkan organisasi untuk memantau, mengevaluasi, dan mengatasi bias yang berasal dari kumpulan data pelatihan dan algoritma yang mungkin menyimpangkan proses pengambilan keputusan. Semua alat ini juga membantu pengembang dan perusahaan memastikan bahwa alat AI yang mereka gunakan memenuhi standar AI tepercaya saat ini, tujuan kemampuan penjelasan, dan prinsip AI yang bertanggung jawab yang diadopsi secara luas oleh berbagai perusahaan dan pemerintah.

Tetapi karena perusahaan semakin memasukkan AI agen ke dalam alur kerja, para peneliti juga bekerja pada solusi dan strategi AI etis baru yang dapat mengekang perilaku buruk pada agen otonom dan meningkatkan keberlanjutan teknologi AI. Berikut adalah beberapa yang layak diikuti:

Pendekatan penyelarasan AI baru

Model AI yang telah dilatih sebelumnya saat ini sedang disempurnakanuntuk dilatih pada data khusus domain. Selama fase penyempurnaan pengembangan AI, model dapat disesuaikan dengan nilai-nilai moral dan pertimbangan etika, tetapi sering muncul pertanyaan tentang nilai-nilai normatif mana yang harus dimasukkan dalam proses penyelarasan. Bagaimanapun, nilai-nilai dan kerangka kerja etika dapat bervariasi antara perusahaan, negara, kelompok pemangku kepentingan, dan sebagainya.

Varshney dan tim peneliti IBM lainnya telah mengusulkan pendekatan berbasis teknologi yang lebih kontekstual, yang disebut Alignment Studio. Pendekatan ini bertujuan untuk menyelaraskan model bahasa besar dengan aturan dan nilai-nilai yang tercantum dalam dokumen kebijakan bahasa alami, seperti peraturan pemerintah atau pedoman etika perusahaan.

Pendekatan ini, yang dijelaskan dalam makalah yang diterbitkan pada September 2024 di majalah IEEE Internet Computing, mencakup siklus pengembangan berkelanjutan. Dengan cara ini, model tidak hanya mempelajari kosakata terkait kebijakan dari dokumen kebijakan, tetapi juga benar-benar mengadopsi perilaku yang diinginkan untuk mencapai penyelarasan nilai yang lebih baik.3

Pendeteksian halusinasi pemanggilan fungsi

Di antara penyebab perilaku buruk terkait agen AI adalah kurangnya instruksi yang jelas dari pengguna atau salah tafsir terhadap instruksi tersebut oleh agen. “Kesalahpahaman” semacam itu dapat mengakibatkan agen memilih alat yang tidak tepat atau menggunakannya dengan cara yang salah atau merusak, yang dikenal sebagai halusinasi pemanggilan fungsi.

Untungnya, meningkatkan pemanggilan fungsi telah menjadi upaya yang kompetitif, dengan dibuatnya beberapa tolok ukur yang mengukur seberapa baik LLM memanggil API. Beberapa peningkatan terbaru dicapai berkat fitur baru dalam rilis IBM Granite Guardian terbaru, Granite Guardian 3.1, bagian dari rangkaian model bahasa Granite IBM yang dirancang khusus untuk bisnis. Model ini dapat mendeteksi halusinasi pemanggilan fungsi oleh agen sebelum konsekuensi yang tidak diinginkan terjadi. “Detektor memeriksa semua jenis kesalahan, dari deskripsi bahasa manusia hingga fungsi yang dipanggil,” jelas Varshney.

Mendeteksi teks yang dihasilkan AI dan informasi palsu

Aktor jahat telah menggunakan AI generatif untuk merambah media sosial dengan deepfakes, yang merupakan audio, video, atau gambar realistis yang dihasilkan AI yang dapat menciptakan kembali rupa seseorang. Sementara itu, penipu telah memanfaatkan teks buatan AI untuk email phishing yang lebih canggih. Dan kekuatan AI agen dapat memperburuk tren berbahaya ini.

“Ada semakin banyak bukti bahwa output yang dihasilkan AI sama persuasifnya dengan argumen manusia,” para peneliti di Google DeepMind memperingatkan dalam laporan April 2024. Di masa depan, kata mereka, pelaku kejahatan dapat menggunakan AI otonom untuk “menyesuaikan konten informasi yang salah kepada pengguna dengan cara yang sangat tepat, dengan memangsa emosi dan kerentanan mereka.”4

Sampai saat ini, kinerja alat yang dirancang untuk deteksi penipuan didukung AI telah beragam. Tetapi para peneliti melanjutkan untuk meningkatkan deteksi AI, dengan beberapa hasil yang paling menjanjikan berasal dari generasi terbaru detektor teks AI.5

Sebagai contoh, kerangka kerja baru yang disebut RADAR—dibuat oleh para peneliti di Chinese University of Hong Kong dan IBM Research—menggunakan pembelajaran persaingan antara dua model bahasa yang terpisah dan dapat disetel untuk melatih detektor teks AI, menghasilkan kinerja yang lebih baik dibandingkan dengan solusi pendeteksian teks AI yang lebih lama.6

Seiring dengan perkembangan teknologi pendeteksian AI yang terus berlanjut, perusahaan teknologi seperti IBM, Microsoft, dan OpenAI juga menyerukan kepada para pembuat kebijakan untuk menyetujui undang-undang yang menargetkan distribusi deepfake dan menuntut pertanggungjawaban pelaku kejahatan.7

Menjaga martabat pekerja manusia

Sementara banyak masalah etika yang berasal dari AI agen berhubungan dengan perilaku buruk, masalah etika lainnya muncul bahkan ketika teknologi AI otonom bekerja seperti yang diharapkan. Sebagai contoh, banyak diskusi yang berfokus pada aplikasi AI seperti ChatGPT milik OpenAI yang menggantikan tenaga kerja manusia dan menghilangkan mata pencaharian.

Tetapi bahkan ketika AI diterapkan untuk melengkapi (bukan menggantikan) pekerjaan manusia, karyawan mungkin menghadapi konsekuensi psikologis. Jika pekerja manusia menganggap agen AI lebih baik dalam melakukan pekerjaan mereka daripada mereka, mereka dapat mengalami penurunan harga diri, jelas Varshney. “Jika Anda berada dalam posisi di mana semua keahlian Anda tampaknya tidak lagi berguna—bahwa keahlian Anda agak berada di bawah agen AI—Anda mungkin kehilangan martabat Anda,” katanya. Dalam beberapa diskusi tentang etika AI, hilangnya martabat tersebut dianggap sebagai pelanggaran hak asasi manusia.8

Dalam sebuah makalah penelitian pada Agustus 2024, Varshney dan beberapa peneliti berbasis universitas mengusulkan pendekatan organisasi untuk mengatasi masalah martabat: kolaborasi permusuhan. Di bawah model mereka, manusia masih akan bertanggung jawab untuk memberikan rekomendasi akhir, sementara sistem AI menerapkan untuk meneliti pekerjaan manusia.

“Pada akhirnya, manusia yang membuat keputusan, dan algoritme tidak dirancang untuk bersaing dalam peran ini, tetapi untuk menginterogasi dan, dengan demikian, mempertajam rekomendasi dari agen manusia,” tulis para peneliti.9 Kolaborasi permusuhan seperti itu, kata Varshney, “adalah cara mengatur hal-hal yang dapat menjaga martabat manusia tetap hidup.”

Solusi terkait
Agen AI untuk bisnis

Bangun, terapkan, dan kelola asisten dan agen AI yang kuat yang mengotomatiskan alur kerja dan proses dengan AI generatif.

    Menjelajahi watsonx Orchestrate
    Solusi agen AI IBM

    Bangun masa depan bisnis Anda dengan solusi AI yang dapat Anda percaya.

    Jelajahi solusi agen AI
    Layanan AI IBM Consulting

    Layanan IBM Consulting AI membantu merancang ulang cara kerja bisnis dengan AI untuk transformasi.

    Jelajahi layanan kecerdasan buatan
    Ambil langkah selanjutnya

    Baik Anda memilih untuk menyesuaikan aplikasi dan keterampilan yang dibangun sebelumnya atau membangun dan menerapkan layanan agen khusus menggunakan studio AI, platform IBM watsonx siap membantu Anda.

    Menjelajahi watsonx Orchestrate Jelajahi watsonx.ai