Efek ELIZA di tempat kerja: Menghindari keterikatan emosional dengan rekan kerja AI

22 April 2025

Penyusun

Dave Bergmann

Senior Writer, AI Models

IBM

Karyawan semakin sering menemukan diri mereka bekerja bersama tidak hanya dengan rekan kerja manusia, tetapi juga asisten AI percakapan dan agen AI. Implikasi psikologis dari pergeseran ini mungkin bahkan lebih kompleks daripada implikasi teknologi dan keuangan: ketika jutaan karyawan berinteraksi dengan rekan kerja AI setiap hari, sejarah menunjukkan bahwa beberapa akan menjadi terikat secara emosional.

Risiko terkait melampaui produktivitas yang hilang dari waktu yang dihabiskan untuk mengobrol dengan chatbot. Bahaya organisasi yang sebenarnya dari keterlibatan emosional dengan AI termasuk paparan risiko SDM (seperti karyawan yang terlalu banyak berbagi informasi pribadi yang sensitif) dan risiko keamanan siber (seperti peningkatan kerentanan terhadap rekayasa sosial), bencana PR, atau bahkan bahaya fisik.

Perusahaan dan institusi berinvestasi besar-besaran dalam solusi berbasis AI generatif untuk mengejar keuntungan yang luar biasa. Bisnis yang ingin memastikan laba atas investasi mereka, tentu saja, harus memastikan bahwa karyawan mereka benar-benar menggunakan alat bantu AI ini. Tetapi di era CEO media yang menggoda bawahan yang dihasilkan AI dan orang dewasa berakal yang jatuh cinta dengan model AI, memaksimalkan keterlibatan karyawan dengan AI tanpa pandang bulu dapat menimbulkan kerugian tersendiri.

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

Efek ELIZA

Risiko emosional AI meningkat bukan hanya karena seberapa kuat dan meyakinkannya model bahasa besar (LLM), tetapi karena skala di mana orang akan berinteraksi dengan mereka sepanjang hari di tempat kerja. Ya, secara intuitif benar bahwa ketika sistem AI tumbuh lebih canggih, orang menjadi semakin rentan untuk memanusiakannya—tetapi manusia telah mengembangkan keterikatan pada chatbot sejak hari-hari awal pemrosesan bahasa alami (NLP).

Pada tahun 1966, Joseph Weizenbaum menciptakan program chatbot bernama ELIZA yang menerapkan aturan sederhana untuk mengubah bahasa input seseorang menjadi respons dari chatbot. Salah satu skrip program, yang dijuluki "DOCTOR", bertujuan untuk meniru psikoterapis Rogerian dengan merespons secara umum atau mengulang input pengguna dalam bentuk pertanyaan:

Manusia: Nah, pacar saya membuat saya datang ke sini.
ELIZA: Pacarmu membuatmu datang ke sini?
Manusia: Dia mengatakan saya sering mengalami depresi.
ELIZA: Saya menyesal mendengar Anda depresi.
Manusia: Itu benar. Saya tidak senang.
ELIZA: Apakah menurut Anda datang ke sini akan membantu Anda untuk tidak merasa tidak bahagia?

Seperti yang dijelaskan Weizenbaum satu dekade kemudian, dia "terkejut melihat betapa cepat dan sangat dalamnya orang-orang yang berbicara dengan DOCTOR menjadi terlibat secara emosional dengan komputer dan bagaimana mereka dengan tegas memanusiakan komputer." Bahkan sekretarisnya, yang telah mengawasinya mengerjakan program selama berbulan-bulan dan tahu bahwa program ini dirancang untuk mengulang kata-kata pengguna, tidak kebal terhadap keinginan untuk berinteraksi secara pribadi dengan chatbot. "Setelah hanya beberapa percakapan dengannya," Weizenbaum menceritakan, "dia meminta saya untuk meninggalkan ruangan."1

Kecenderungan abadi umat manusia untuk berinvestasi secara emosional dalam AI sejak saat itu dikenal sebagai efek ELIZA. Penyebabnya bukan terletak pada arsitektur LLM yang canggih, tetapi dalam pemrograman emosional kita sendiri.

Mengapa kita menjadi emosional tentang mesin?

Selama ribuan tahun, evolusi membuat otak kita beroperasi dengan asumsi yang, sampai saat ini, pada dasarnya sangat mudah: jika ada sesuatu yang tampak seperti manusia dan berkomunikasi seperti manusia, maka itu adalah manusia. Lanjutkanlah.

Dengan asumsi yang masuk akal itu, kita mengembangkan sistem biologis yang rumit dari interaksi sosial dan ekspektasi yang mengatur segala sesuatu mulai dari pertemuan individu, masyarakat kesukuan, hingga tempat kerja modern. Tetapi model bahasa percakapan merusak asumsi itu, dan karena itu mengganggu biologi sosial kita.

Pada tahun 1996, O'Connor dan Rosenblood mengusulkan "model afiliasi sosial" untuk menggambarkan proses pengaturan naluriah yang melaluinya interaksi sosial, secara otomatis dan tidak sadar, memicu pencarian sinyal verbal dan non-verbal tertentu. Sinyal-sinyal ini memberikan informasi tentang kualitas interaksi dan implikasinya, seperti apakah orang yang berinteraksi dengan kita menerima dan menghargai kita. Ketidakhadiran mereka, pada gilirannya, memicu aktivitas otak yang mendorong perilaku yang dimaksudkan untuk mengatasi situasi tersebut.2

Dalam sebuah makalah tahun 2023 di Journal of Applied Psychology, Tang dkk mempelajari model afiliasi sosial dalam konteks orang yang berinteraksi dengan sistem AI di tempat kerja. Mereka berintuisi bahwa karena sistem AI dapat secara meyakinkan meniru interaksi manusia tetapi tidak dapat benar-benar meniru jenis masukan komplementer yang kaya yang telah kita kembangkan untuk dideteksi — senyum, tertawa, mengangkat bahu, alis berkerut, pupil yang melebar—proses pengaturan otak mencari sinyal yang tidak ada di sana. Dengan kata lain, percakapan karyawan dengan AI menimbulkan kebutuhan emosional naluriah yang tidak dapat dipuaskan oleh AI.

Makalah ini berfokus pada dua jenis reaksi terhadap kehilangan sosial berbasis AI: perilaku pasif dan maladaptif (seperti peningkatan penarikan diri dan kesepian) dan perilaku aktif, dan adaptif (seperti peningkatan dorongan untuk mencari hubungan sosial yang positif). Di berbagai industri dan negara, penulis memang menemukan bahwa peningkatan interaksi dengan “rekan kerja AI” berkorelasi dengan peningkatan kesepian—serta insomnia, konsumsi alkohol setelah bekerja, atau keduanya. Lebih produktif lagi, para penulis juga menemukan bahwa untuk beberapa partisipan, peningkatan frekuensi interaksi AI sering kali berkorelasi dengan peningkatan perilaku prososial (seperti membantu rekan kerja).

Namun, bagi karyawan dengan watak tertentu dengan sedikit kesempatan untuk berinteraksi secara langsung - seperti pekerja jarak jauh, kontributor individu dalam peran tersendiri, atau seseorang yang memiliki kecemasan sosial - dorongan yang meningkat untuk hubungan sosial terkadang hanya memiliki satu jalan keluar yang tersedia: "rekan kerja" AI yang selalu aktif. Dan LLM, dalam arti yang cukup harfiah, dilatih untuk memberi tahu kita apa yang ingin kita dengar. Prospek memiliki daya tarik yang jelas.

Memanusiakan kolega AI mungkin hanya cara untuk menghindari disonansi kognitif dengan beralih ke program komputer untuk interaksi manusia.

Literasi AI bukanlah satu-satunya penjelasan (atau jawaban)

Untuk memperjelas, model AI, bahkan LLM yang paling mutakhir sekalipun, tidak memiliki emosi atau empati, meskipun mereka memiliki kemampuan untuk mengatakan hal-hal yang berempati. Terkadang secara teknis, itu sulit untuk mengatakan bahwa chatbot "merespons" prompt: lebih akurat (meskipun kurang menyenangkan) untuk mengatakan bahwa chatbot secara probabilistik menambahkan teks ke dalam prompt. LLM autoregresif secara sederhana dilatih untuk secara iteratif memprediksi kata berikutnya dalam urutan teks yang dimulai dengan input Anda, menerapkan pola linguistik yang dipelajarinya dari pemrosesan jutaan sampel teks, hingga ia menganggap urutannya selesai.

Akan masuk akal untuk berpikir bahwa sekadar meningkatkan literasi AI karyawan akan menghilangkan risiko keterlibatan emosional dengan AI. Itu juga salah.

Seperti yang telah ditunjukkan oleh penelitian Harvard, plasebo dapat bekerja bahkan ketika Anda tahu itu adalah plasebo. Sebagai contoh, New York Times melaporkan dari akhir tahun lalu mengeksplorasi bagaimana orang dalam Silicon Valley, termasuk banyak yang bekerja di penelitian AI, semakin beralih ke Claude Anthropic untuk "semuanya mulai dari nasihat hukum hingga pelatihan kesehatan hingga sesi terapi darurat." Blake Lemoine, insinyur Google yang terkenal mengklaim bahwa model LaMDA Google hidup pada tahun 2022, mempelajari ilmu kognitif dan komputer dan bekerja dalam machine learning selama bertahun-tahun.

Bagaimana ini mungkin? Salah satu penjelasan luasnya adalah bahwa reaksi emosional diproses secara intuitif, bukan secara logis, dan ketika sesuatu terjadi pada tingkat intuitif, reaksi tersebut dapat melewati evaluasi rasional sama sekali. Keahlian teknis memberikan sedikit kekebalan terhadap bug yang melekat ini dalam kode kami, karena ketika kami memproses sesuatu secara intuitif — apa yang disebut oleh peraih Nobel Daniel Kahneman sebagai pemikiran "Sistem 1" atau "cepat"-kami sering gagal untuk mendapatkan pengetahuan teknis kami sama sekali. Sebagai contoh, seperti yang dijelaskan Kahneman dalam buku seminalnya, Thinking, Fast and Slow, penelitiannya berulang kali menunjukkan bagaimana "bahkan para ahli statistik pun bukan ahli statistik intuitif yang baik."

Berkenaan dengan chatbot, sikap kita terhadap AI sering kali lebih banyak dibentuk oleh "model mental" kita tentang AI daripada kinerja aktualnya. Sebuah studi MIT tahun 2023 menemukan bahwa "faktor non-rasional, seperti pemikiran takhayul, secara signifikan memengaruhi cara individu terlibat dengan sistem AI." Sebagai contoh, penulis menemukan korelasi yang kuat antara kepercayaan paranormal (seperti astrologi) dan kemungkinan untuk melihat output AI palsu sebagai "valid, andal, berguna, dan dipersonalisasi."3

Penulis makalah ini juga menyinggung optimisme tekno di Silicon Valley sebagai penyebab dan akibat dari fenomena ini. Demikian juga, Vox yang melaporkan tentang Blake Lemoine mencatat bahwa Silikon Valley adalah lahan subur bagi kepercayaan yang tidak jelas. Laju perkembangan teknologi modern yang semakin pesat mungkin berperan di sini: dalam kata-kata Arthur Clark yang terkenal, "setiap teknologi yang cukup canggih tidak dapat dibedakan dari sihir."

Hal-hal yang lebih rumit lagi, literasi AI mungkin memiliki dampak buruk pada adopsi AI: penelitian dari awal tahun ini menunjukkan bahwa mengetahui lebih sedikit tentang AI membuat orang lebih terbuka untuk memilikinya dalam hidup mereka. Penulis makalah ini berpendapat bahwa orang-orang dengan literasi AI yang lebih rendah lebih cenderung melihat AI sebagai ajaib atau menakjubkan, dan bahwa “upaya untuk menghilangkan misteri AI dapat secara tidak sengaja mengurangi daya tariknya.” Oleh karena itu, organisasi mungkin menghadapi ketegangan antara memaksimalkan laba atas investasi mereka dalam alat AI generatif dan meminimalkan dampak emosional dari penggunaan alat tersebut secara terus-menerus.

Jelas, penelitian ini menemukan hubungan antara literasi AI yang rendah dan antusiasme AI yang tinggi menjadi yang paling kuat untuk “menggunakan alat AI di area yang diasosiasikan orang dengan sifat manusia, seperti memberikan dukungan emosional atau konseling.” Ketika berhadapan dengan tugas tanpa konotasi emosional, seperti menganalisis hasil tes, polanya berbalik.

Bagaimana organisasi dapat menetapkan batasan AI yang sehat

Berbekal pemahaman tentang bagaimana dan mengapa efek ELIZA terjadi, organisasi dapat secara proaktif memitigasi risiko ini tanpa mengurangi antusiasme karyawan untuk terlibat dengan alat bantu AI generatif mereka.

Pilih bahasa Anda dengan hati-hati

Seperti yang diungkapkan oleh Murray Shanahan, Principal Scientist di Google DeepMind, dalam esai 2022 yang banyak dikutip, cara kami berbicara tentang LLM—tidak hanya dalam makalah ilmiah, tetapi juga dalam diskusi dengan pembuat kebijakan, media, dan karyawan. "Penggunaan istilah-istilah yang sarat filosofis seperti 'percaya' dan 'berpikir' secara sembarangan sangat bermasalah," katanya, "karena istilah-istilah seperti itu mengaburkan mekanisme dan secara aktif mendorong antropomorfisme."

Seperti yang dicatat Shanahan, adalah normal dan wajar untuk menggunakan bahasa antropomorfik untuk berbicara tentang teknologi. GPS mengira kami berada di jalan layang di atas kami. Server email tidak bisa terhubung ke jaringan. Ponsel saya ingin memperbarui OS-nya. Ini adalah contoh dari apa yang oleh filsuf Daniel Dennett sebut sebagai sikap yang disengaja, dan dalam banyak kasus mereka hanyalah kiasan yang berguna (dan tidak berbahaya). Tetapi ketika menyangkut LLM, Shanahan memperingatkan, “segala sesuatunya bisa menjadi sedikit kabur.” Untuk sistem AI yang begitu meyakinkan meniru perilaku manusia yang paling unik, yaitu bahasa, godaan untuk memahami kiasan ini secara harfiah adalah "hampir berlebihan."

Oleh karena itu, tutorial, materi orientasi, dan komunikasi perusahaan harus sangat disengaja dalam bahasa yang mereka gunakan untuk menggambarkan fitur, fungsi, dan tujuan alat AI kepada karyawan. Perusahaan harus menghindari antropomorfisasi yang tidak perlu di setiap kesempatan. Seperti yang ditunjukkan oleh penelitian tentang efek plasebo dari AI, persepsi pengguna tentang AI sering kali lebih dibentuk oleh bagaimana AI digambarkan daripada oleh kemampuan yang sebenarnya.4

Pikirkan dua kali tentang memberikan avatar dan suara realistis kepada asisten AI

Membuat model AI terlihat, terdengar, dan terasa lebih manusiawi dapat meningkatkan kepercayaan5 dan keterlibatan,6 tetapi juga dapat meningkatkan risiko. Dalam kartu sistem untuk GPT-4o-yang dapat menghasilkan "ucapan" yang realistis seperti manusia - OpenAI mencatat bahwa "pembuatan konten melalui suara yang menyerupai manusia dengan ketepatan tinggi dapat memperburuk masalah [antropomorfisme], yang mengarah pada kepercayaan yang semakin tidak tepat." Selama red teaming dan pengujian internal, OpenAI "mengamati pengguna yang menggunakan bahasa yang mungkin mengindikasikan pembentukan koneksi dengan model."7

Bahkan tanpa adanya risiko keterikatan emosional yang tinggi, perusahaan harus menyadari bahwa antropomorfisasi adalah pedang bermata dua. Sebuah studi tahun 2022 yang diterbitkan dalam Journal of Marketing menemukan bahwa chatbot antropomorfik mengurangi kepuasan dan opini pelanggan terhadap perusahaan: pada dasarnya, pelanggan memiliki ekspektasi yang lebih tinggi terhadap chatbot yang menyerupai manusia dan kekecewaan yang lebih besar ketika chatbot tersebut tidak memberikan layanan tingkat manusia.8 Serangkaian studi tahun 2024 menemukan bahwa masukan dari "pelatih AI" yang diantropomorfisasi dianggap kurang membantu dibandingkan masukan yang sama dari pelatih AI yang tidak diantropomorfisasi, yang hanya menyoroti peran peneliti manusia dalam pembuatannya.

Orang mungkin jatuh cinta dengan avatar yang realistis. Mereka (umumnya) tidak akan jatuh cinta dengan penjepit kertas yang berbicara.

Perhatikan tanda-tanda peringatan

Efek ELIZA yang lengkap tidak terjadi secara instan. Seperti kebanyakan masalah emosional, fenomena ini berlangsung secara progresif. Menerapkan cara untuk mendeteksi dan menindaklanjuti tanda-tanda peringatan dapat memberikan perusahaan kemampuan untuk mencegat dan menutup masalah sebelum berkembang menjadi masalah yang sebenarnya.

Model pagar pembatas adalah salah satu jalan yang jelas untuk sistem deteksi semacam itu: mereka memantau input dan output untuk bahasa yang menunjukkan risiko yang telah ditentukan dan memicu model untuk bertindak sesuai dengan itu. Model pagar pembatas yang dilatih untuk mendeteksi dan mencegah pertukaran yang berbelok ke wilayah emosional dapat membantu menghindari hal-hal yang terlalu jauh. Namun model pagar pembatas konvensional saja mungkin bukan solusi yang lengkap, karena tidak semua interaksi yang bermasalah memerlukan emosi dan romantisme yang terbuka.

Bahkan karyawan dengan pemahaman yang sepenuhnya realistis tentang AI terkadang bisa menjadi terlalu pribadi dalam percakapan AI. Itu juga masalah, karena banyak perusahaan menyimpan dan menganalisis interaksi dengan sistem AI untuk memahami dan mengoptimalkan bagaimana alat digunakan oleh karyawan atau pelanggan. Hal ini dapat menempatkan organisasi pada posisi yang tidak nyaman karena diberikan informasi pribadi yang sensitif, yang karena alasan hukum atau moral, mereka tidak ingin menanganinya - informasi yang terlalu spesifik dan tampaknya tidak berbahaya untuk melatih model pagar pembatas untuk dideteksi.

Memahami hal ini, IBM sedang mengerjakan "sistem pelestarian privasi model bahasa besar" yang dirancang untuk mencegah pengguna berbagi secara berlebihan dengan model AI. Sistem akan memindai input untuk mengidentifikasi informasi pribadi, mengklasifikasikan prompt yang melanggar (untuk memahami maksudnya), dan kemudian mengganti info sensitif dengan placeholder generik. Hanya versi anonim dari input pengguna yang akan disimpan untuk pelatihan di masa mendatang.

Perlambat dan ubah segala sesuatunya

Studi Journal of Applied Psychology tahun 2023 yang disebutkan di atas adalah salah satu dari sekian banyak studi yang mengindikasikan adanya hubungan antara frekuensi atau lamanya interaksi chatbot dan kesepian atau penggunaan yang bermasalah. Implikasinya relatif mudah: membatasi penggunaan secara strategis dapat membatasi risiko emosional. Dijalankan dengan benar, ia dapat melakukannya tanpa membatasi produktivitas dan bahkan berpotensi menurunkan biaya inferensi.

Metode yang lebih tidak langsung adalah dengan mengganggu pola penggunaan secara berkala, mencegah pengguna terjebak terlalu dalam pada suatu hal. Misalnya, penelitian MIT mencatat bahwa intervensi seperti periode “tenang” yang diberlakukan dapat membantu “memperlambat penilaian cepat dan mendorong keterlibatan yang lebih bijaksana.”6 Dengan kata lain, intervensi semacam itu mungkin secara lembut mendorong pengguna menjauh dari pemikiran Sistem 1 yang impulsif dan menuju pemikiran Sistem 2 yang lebih disengaja.

Mengganggu pola sistem AI itu sendiri secara berkala, seperti mengubah personanya, juga dapat membantu mencegah pola penggunaan yang bermasalah. Sebuah artikel New York Times tentang seorang wanita yang jatuh cinta dengan ChatGPT, menghabiskan berjam-jam setiap hari di platform, mencatat bahwa setiap kali dia memaksimalkan jendela konteks model, "kepribadian" dan memori "pacar" AI-nya disetel ulang sebagian. Setiap kali hal ini terjadi, dia berduka—tetapi kemudian dia “tidak melakukan ChatGPT selama beberapa hari.”

Dalam makalah tahun 2024 yang mengeksplorasi dampak dari pembaruan aplikasi utama di Replika AI, sebuah layanan pendamping chatbot, para penulis berpendapat bahwa "kesinambungan identitas sangat penting untuk mengembangkan dan mempertahankan hubungan dengan pendamping AI."9 Implikasi kontrapositif dari temuan tersebut adalah bahwa mengganggu kesinambungan identitas chatbot mungkin sangat penting untuk menghindari keterikatan emosional dengan pendamping AI.

Menumbuhkan hubungan manusia yang tulus di tempat kerja

Mungkin cara terbaik untuk menghindari karyawan menggunakan AI untuk mengisi kekosongan emosional adalah dengan mengurangi potensi kekosongan tersebut. AI generatif dapat menggantikan pekerjaan sehari-hari yang membosankan, tetapi tidak dapat menggantikan kebersamaan dengan rekan kerja manusia.

Misalnya, sebuah studi tentang pola penggunaan chatbot pendamping dan hubungannya dengan kesepian menemukan korelasi yang signifikan antara frekuensi penggunaan chatbot dan peningkatan kesepian atau penarikan diri secara sosial - tetapi tidak untuk pengguna yang memiliki jaringan sosial yang kuat di dunia nyata. Tidak hanya pengguna dengan jaringan sosial yang kuat umumnya lebih jarang berinteraksi dengan chatbot, tetapi mereka juga mengalami lebih sedikit masalah daripada pengguna yang lebih ringan tanpa dukungan sosial yang sama. Mereka biasanya memanfaatkan chatbot untuk tujuan praktis dan rekreasi, bukan sebagai pengganti hubungan.10 Temuan tersebut konsisten dengan hipotesis kompensasi parasosial, yang menyatakan bahwa individu yang kesepian, terisolasi, dan cemas secara sosial lebih mungkin terlibat dalam "hubungan" parasosial dengan selebriti atau influencer.11

Beruntungnya, ini adalah contoh di mana AI dapat menjadi solusi untuk masalahnya sendiri. Jika solusi AI generatif perusahaan Anda memberikan peningkatan produktivitas yang berpotensi diberikannya, tidak akan ada kekurangan waktu atau uang untuk pesta pizza.

Akademi AI

Manfaatkan AI untuk layanan pelanggan

Lihat bagaimana AI generatif dapat menyenangkan pelanggan dengan pengalaman yang lebih mulus dan meningkatkan produktivitas organisasi di tiga area utama ini: layanan mandiri, agen manusia, dan operasi pusat kontak.

Solusi terkait
IBM watsonx Assistant

Memberikan layanan pelanggan yang konsisten dan cerdas dengan AI percakapan. Jelajahi bagaimana Anda dapat mempercepat komunikasi dengan pelanggan, meningkatkan produktivitas, dan meningkatkan profit Anda dengan IBM watsonx Assistant.

Jelajahi watsonx Assistant
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Solusi kecerdasan buatan (AI)

Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Ambil langkah selanjutnya

Dengan mudah membangun asisten AI generatif yang memberikan pengalaman layanan-mandiri tanpa gesekan kepada pelanggan di perangkat atau saluran apa pun, membantu meningkatkan produktivitas karyawan dan meningkatkan skala di seluruh bisnis Anda.

Jelajahi watsonx Assistant Temukan watsonx.ai