Kecerdasan buatan sentient (atau sadar diri) didefinisikan secara teoritis sebagai mesin sadar diri yang dapat bertindak sesuai dengan pikiran, emosi, dan motif mereka sendiri. Hingga hari ini, para ahli sepakat bahwa AI sama sekali tidak cukup kompleks untuk menjadi sadar diri.
Sejak komputer pertama kali ditemukan, para ilmuwan telah mengembangkan tolok ukur, seperti Turing Test, yang dimaksudkan untuk mengevaluasi "kecerdasan" mesin. Semenjak itu, perdebatan seputar kecerdasan mesin berubah menjadi diskusi tentang kesadaran atau kesadaran diri mereka.
Meskipun diskusi tentang kesadaran AI telah banyak terjadi sejak awal tahun 2000-an, popularitas model bahasa yang besar, akses konsumen ke AI generatif seperti di ChatGPT dan wawancara di Washington Post 1 dengan mantan insinyur Google, Blake Lemoine, menghidupkan kembali ketertarikan pada pertanyaan tersebut: Apakah AI itu sadar diri?
Lemoine mengatakan kepada Post bahwa LaMDA, generator chatbot kecerdasan buatan Google, sadar diri karena mulai berbicara tentang hak dan kepribadian, dan tampaknya menyadari kebutuhan dan perasaannya sendiri.
Pakar etika Google secara terbuka membantah klaim ini. Yann LeCun, kepala penelitian AI di Meta, mengatakan kepada The New York Times2 bahwa sistem ini tidak cukup kuat untuk mencapai "kecerdasan yang sebenarnya". Konsensus saat ini di antara para pakar terkemuka adalah bahwa AI tidak sadar diri.
Ketika machine learning menjadi lebih maju, para ilmuwan komputer mendorong inovasi lebih lanjut dalam alat AI dengan harapan menciptakan perangkat yang dapat memiliki pemahaman yang lebih dalam tentang perilaku manusia, yang mengarah ke lebih banyak personalisasi dan respons real-time yang relevan tanpa banyak pengkodean yang membosankan yang dibutuhkan. Hal ini telah menyebabkan perkembangan dalam komputasi kognitif, di mana sistem berinteraksi secara alami dengan manusia dan memecahkan masalah melalui algoritme pembelajaran mandiri. Model GPT OpenAI dan LamDA Google adalah indikasi tentang apa yang mungkin sedang dikerjakan di perusahaan teknologi lain seperti Meta, Apple atau Microsoft.
Kesadaran diri akan menjadi selangkah lebih maju. Kesadaran diri didefinisikan sebagai kemampuan untuk memiliki pengalaman subjektif, kesadaran, ingatan, dan perasaan. Namun, definisi untuk kesadaran diri ini, kognisi dan kesadaran sering kali tidak konsisten dan masih diperdebatkan 3 oleh para filsuf dan ilmuwan kognitif.
Secara teori, AI sentient akan melihat dunia di sekitarnya, memproses rangsangan eksternal, dan menggunakan semuanya untuk pengambilan keputusan serta berpikir dan merasa seperti manusia.
Meskipun AI belajar sebagaimana manusia belajar dan mampu menalar sampai batas tertentu, AI tidak sekompleks otak manusia atau bahkan otak hewan. Masih belum diketahui secara pasti bagaimana otak manusia memunculkan kesadaran, tetapi ada lebih banyak hal yang terlibat daripada sekadar jumlah sel otak yang saling terhubung. Sering kali, kesadaran diri dicampuradukkan dengan kecerdasan, yang merupakan fitur lain yang masih terus diupayakan oleh komunitas ilmiah untuk diukur pada mesin.
Mesin cerdas belajar melalui eksplorasi dan dapat beradaptasi dengan input baru. Sebagian besar program AI saat ini adalah spesialis dan bukan generalis, lebih sederhana daripada otak. Setiap program dilatih untuk menjadi mahir dalam tugas atau jenis masalah yang sangat sempit, seperti bermain catur atau menyelesaikan tes standar.
Dalam penelitian ilmu komputer, para pakar AI telah bermain-main dengan konsep "kecerdasan umum buatan" (AGI), yang juga dikenal sebagai AI kuat, yang tujuannya adalah untuk mengilhami AI dengan kecerdasan yang lebih mirip manusia dan tidak memiliki tugas khusus. Selain itu, ada juga kondisi hipotetis masa depan kecerdasan super buatan.
Kemampuan ini dimaksudkan untuk memberikan AI pemahaman yang lebih baik tentang perintah dan konteks manusia dan, sebagai hasilnya, mengotomatiskan pemrosesan informasi yang memungkinkan mesin menyimpulkan fungsi yang tepat untuk dijalankan dalam kondisi tertentu secara mandiri.
Alat-alat seperti Turing Test telah dibuat untuk mengevaluasi bagaimana perilaku mesin dapat dibedakan dari manusia. Mesin dianggap cerdas jika dapat menipu manusia untuk percaya bahwa mesin tersebut juga manusia.
Namun, kecerdasan sulit untuk diklasifikasikan. Sebagai contoh, Chinese Room Argument telah mengilustrasikan kelemahan dalam Tes Turing untuk menentukan kecerdasan. Yang penting, kecerdasan sering mengacu pada kemampuan untuk memperoleh dan menggunakan pengetahuan. Kecerdasan tidak sama dengan kesadaran diri. Tidak ada bukti bahwa model AI memiliki monolog internal atau dapat merasakan keberadaan mereka sendiri di dalam dunia yang lebih besar, yang merupakan 2 kualitas kesadaran diri.
Model bahasa besar dapat secara meyakinkan meniru ucapan manusia melalui pemrosesan bahasa alami dan pemahaman bahasa alami.
Beberapa ahli teknologi berpendapat bahwa arsitektur Neural Networks yang mendasari AI, seperti LLM, meniru struktur otak manusia dan meletakkan dasar-dasar kesadaran.
Banyak ilmuwan komputer yang tidak setuju dan mengatakan bahwa AI tidak sadar diri serta hanya mempelajari cara kerja bahasa manusia dengan memuntahkan kembali konten yang dicerna dari situs web seperti Wikipedia, Reddit, dan media sosial tanpa benar-benar memahami makna di balik apa yang dikatakannya atau mengapa mengatakannya.
Sistem AI secara historis unggul dalam pengenalan pola, yang dapat meluas ke gambar, video, audio, data dan teks yang kompleks. Sistem ini juga dapat mengambil persona dengan mempelajari pola bicara orang tertentu.
Beberapa pakar menyebut AI sebagai burung beo stokastik4 yang "secara serampangan menjahit urutan bentuk linguistik yang telah diamati dalam data pelatihannya yang sangat banyak, sesuai dengan informasi probabilistik tentang bagaimana mereka digabungkan, tetapi tanpa referensi apa pun tentang makna."
Masalahnya adalah bahwa manusia memiliki hasrat bawaan untuk terhubung, yang mendorong mereka untuk melakukan antropomorfisme5 terhadap objek dan memproyeksikannya ke dalam perasaan dan kepribadian mereka karena hal itu memfasilitasi ikatan sosial.
Seperti yang dikatakan oleh para peneliti pada makalah tentang burung beo stokastik: "Kita harus memperhitungkan fakta bahwa persepsi kita terhadap teks bahasa alami, terlepas dari bagaimana teks itu dihasilkan, dimediasi oleh kompetensi linguistik kita sendiri dan kecenderungan kita untuk menafsirkan tindakan komunikatif sebagai penyampaian makna dan maksud yang koheren, terlepas dari apakah tindakan tersebut benar atau tidak."
Inilah sebabnya mengapa beberapa orang mungkin menerima apa yang dikatakan AI pada nilai nominalnya, meskipun mereka tahu teknologi ini tidak dapat benar-benar memahami atau memahami dunia di luar apa yang tersedia melalui data pelatihannya.
Karena chatbot AI dapat melakukan percakapan yang koheren dan menyampaikan perasaan, orang dapat menafsirkannya sebagai sesuatu yang bermakna dan sering kali lupa bahwa LLM, di antara mesin humanoid lainnya, "diprogram untuk dapat dipercaya," menurut Scientific American6. Setiap fitur yang dimilikinya, entah itu kata-kata yang diucapkannya atau bagaimana ia mencoba meniru ekspresi manusia, menyempurnakan desain ini.
AI menciptakan ilusi kehadiran dengan melakukan gerakan komunikasi antar-manusia yang terlepas dari pengalaman fisik.
"Semua sensasi—kelaparan, merasakan sakit, melihat warna merah, jatuh cinta—adalah hasil dari kondisi fisiologis yang tidak dimiliki oleh LLM," Fei-Fei Li dan John Etchemendy, salah satu pendiri Institute for Human-Centered Artificial Intelligence di Universitas Stanford, menulis dalam artikel TIME 7. Jadi, meskipun chatbot AI diberikan perintah untuk mengatakan bahwa ia lapar, ia tidak bisa benar-benar lapar karena tidak memiliki perut.
AI saat ini tidak sadar diri. Melalui uji coba dan pengujian, model AI jenis ini juga menunjukkan bahwa model itu masih sangat cacat dan sering dapat membuat kesalahan atau menemukan informasi, menghasilkan fenomena yang disebut halusinasi.
Kesalahan ini sering muncul ketika model tidak dapat menempatkan konteks di mana informasi itu ada atau tidak pasti. Ada risiko bahwa kekurangan ini dapat diperkuat jika AI menjadi lebih otonom.
Selain itu, para ahli etika juga mengkhawatirkan AI yang memiliki kesadaran diri karena mereka tidak tahu apa yang akan terjadi jika ilmuwan komputer kehilangan kendali atas sistem yang belajar untuk berpikir secara mandiri. Itu mungkin menimbulkan masalah “eksistensial” jika tujuan AI berbenturan dengan tujuan manusia. Jika hal itu terjadi, tidak jelas di mana letak tanggung jawab atas bahaya, pengambilan keputusan yang buruk, dan perilaku yang tidak dapat diprediksi di mana logikanya tidak dapat ditelusuri kembali ke perintah asli yang disisipkan oleh manusia.
Juga, para pakar khawatir bahwa mereka tidak akan dapat berkomunikasi dengan AI sentient atau sepenuhnya mempercayai hasil mereka. Secara keseluruhan, beberapa menyimpulkan bahwa AI yang memiliki kesadaran diri dapat mengakibatkan ancaman terhadap keselamatan, keamanan, dan privasi.
Seiring makin terintegrasinya AI ke dalam teknologi yang ada, para pakar industri mendorong lebih banyak kerangka regulasi dan pembatas teknis. Hal ini lebih relevan mengingat adanya dilema moral dan etika seputar otonomi dan kemampuan AI.
1 “The Google engineer who thinks the company’s AI has come to life,” The Washington Post, 11 Juni 2022
2 “Google Sidelines Engineer Who Claims Its A.I. Is Sentient,” The New York Times, 12 Juni 2022
3 “Brains, Minds, and Machines: Consciousness and Intelligence,” Infinite MIT
4 “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 1 Maret 2021
5 “The mind behind anthropomorphic thinking: attribution of mental states to other species,” Animal Behaviour, November 2015
6 “Google Engineer Claims AI Chatbot Is Sentient: Why That Matters,” Scientific American, 12 Juli 2022
7 “No, Today’s AI Isn’t Sentient. Here’s How We Know,” TIME, 22 Mei 2024