Halusinasi AI adalah fenomena di mana model bahasa besar (LLM)—seringkali chatbot AI generatif atau alat visi komputer —melihat pola atau objek yang tidak ada atau tidak terlihat oleh pengamat manusia, menciptakan output yang tidak masuk akal atau sama sekali tidak akurat.
Umumnya, jika pengguna membuat permintaan alat AI generatif, mereka menginginkan output yang sesuai dengan prompt (yaitu, jawaban yang benar untuk sebuah pertanyaan). Namun, terkadang algoritma AI menghasilkan output yang tidak didasarkan pada data pelatihan, salah diterjemahkan oleh transformator, atau tidak mengikuti pola yang dapat diidentifikasi. Dengan kata lain, algoritma "berhalusinasi" terhadap respons.
Istilah ini mungkin tampak paradoks, mengingat halusinasi biasanya dikaitkan dengan otak manusia atau hewan, bukan mesin. Dalam sudut pandang metaforis, halusinasi dapat menggambarkan output ini dengan akurat, terutama dalam kasus pengenalan citra dan pola (di mana output dapat muncul dalam bentuk aneh).
Halusinasi AI mirip dengan bagaimana manusia kadang-kadang melihat sosok di awan atau wajah di bulan. Dalam kasus AI, salah tafsir ini terjadi karena berbagai faktor, termasuk overfitting, bias/ketidakakuratan data pelatihan, dan kompleksitas model yang tinggi.
Mencegah masalah dengan teknologi sumber terbuka yang bersifat generatif dapat menjadi tantangan tersendiri. Beberapa contoh terkenal dari halusinasi AI meliputi:
Chatbot Bard milik Google secara keliru mengklaim bahwa Teleskop Luar Angkasa James Webb telah menangkap gambar planet pertama di dunia di luar tata surya kita.1
AI obrolan Microsoft, Sydney, mengaku jatuh cinta pada pengguna dan memata-matai karyawan Bing.2
Meskipun banyak dari masalah ini telah diatasi dan diselesaikan, mudah untuk melihat bagaimana, bahkan dalam situasi terbaik sekalipun, penggunaan alat bantu AI dapat menimbulkan konsekuensi yang tidak terduga dan tidak diinginkan.
Halusinasi AI dapat memiliki konsekuensi signifikan untuk aplikasi dunia nyata. Sebagai contoh, model AI layanan kesehatan mungkin salah mengidentifikasi lesi kulit jinak sebagai lesi ganas, yang menyebabkan intervensi medis yang tidak perlu. Masalah halusinasi AI juga dapat berkontribusi pada penyebaran informasi yang salah. Jika, misalnya, bot berita berhalusinasi dalam merespons pertanyaan tentang keadaan darurat yang sedang berkembang dengan informasi yang belum diperiksa kebenarannya, maka hal ini dapat dengan cepat menyebarkan kebohongan yang merusak upaya mitigasi. Salah satu sumber halusinasi yang signifikan dalam algoritma machine learning adalah bias input. Jika model AI dilatih pada kumpulan data yang terdiri dari data yang bias atau tidak representatif, mungkin akan berhalusinasi pada pola atau fitur yang mencerminkan bias ini.
Model AI juga rentan terhadap serangan musuh, di mana pihak-pihak yang tidak bertanggung jawab memanipulasi output model AI dengan mengubah data input secara diam-diam. Dalam tugas pengenalan gambar, misalnya, serangan musuh mungkin melibatkan penambahan sejumlah kecil noise yang dibuat secara khusus pada gambar, yang menyebabkan AI salah mengklasifikasikannya. Hal ini dapat menjadi masalah keamanan yang signifikan, terutama di area sensitif seperti keamanan siber dan teknologi kendaraan otonom. Peneliti AI terus mengembangkan pagar pembatas untuk melindungi alat AI dari serangan musuh. Teknik seperti pelatihan permusuhan - di mana model dilatih dengan campuran contoh normal dan permusuhan - mendukung masalah keamanan. Tetapi sementara itu, kewaspadaan dalam fase pelatihan dan pemeriksaan fakta adalah yang terpenting.
Cara terbaik untuk memitigasi dampak halusinasi AI adalah menghentikannya sebelum terjadi. Berikut adalah beberapa langkah yang dapat Anda ambil untuk menjaga model AI Anda berfungsi secara optimal:
Model AI generatif bergantung pada data input untuk menyelesaikan tugas, sehingga kualitas dan relevansi kumpulan data pelatihan akan menentukan perilaku model dan kualitas outputnya. Untuk mencegah halusinasi, pastikan bahwa model AI dilatih pada data yang beragam, seimbang, dan terstruktur dengan baik. Hal ini akan membantu model Anda meminimalkan bias output, lebih memahami tugas-tugasnya, dan menghasilkan output yang lebih efektif.
Menguraikan bagaimana Anda akan menggunakan model AI—serta batasan apa pun dalam penggunaan model tersebut—akan membantu mengurangi halusinasi. Tim atau organisasi Anda harus menetapkan tanggung jawab dan batasan sistem AI yang dipilih; hal ini akan membantu sistem menyelesaikan tugas dengan lebih efektif dan meminimalkan hasil yang tidak relevan dan "halusinasi".
Templat data memberikan format yang telah ditentukan sebelumnya kepada tim, sehingga meningkatkan kemungkinan bahwa model AI akan menghasilkan output yang sesuai dengan pedoman yang ditentukan. Mengandalkan templat data memastikan konsistensi keluaran dan mengurangi kemungkinan model akan menghasilkan hasil yang salah.
Model AI sering berhalusinasi karena mereka tidak memiliki batasan yang membatasi kemungkinan hasil. Untuk mencegah masalah ini dan meningkatkan konsistensi dan akurasi hasil secara keseluruhan, tentukan batasan untuk model AI menggunakan alat penyaringan dan/atau ambang batas probabilitas yang jelas.
Menguji model AI Anda secara ketat sebelum digunakan sangat penting untuk mencegah halusinasi, seperti halnya mengevaluasi model secara berkelanjutan. Proses-proses ini meningkatkan kinerja sistem secara keseluruhan dan memungkinkan pengguna untuk menyesuaikan dan/atau melatih ulang model seiring dengan bertambahnya usia dan perkembangan data.
Memastikan manusia memvalidasi dan meninjau output AI adalah langkah pendukung terakhir untuk mencegah halusinasi. Melibatkan pengawasan manusia memastikan bahwa, jika AI berhalusinasi, manusia akan ada untuk menyaring dan memperbaikinya. Peninjau manusia juga dapat menawarkan keahlian dalam bidang tertentu yang memperkuat kemampuan mereka dalam mengevaluasi konten AI untuk keakuratan dan relevansi dengan tugas.
Meskipun halusinasi AI tentu saja merupakan hasil yang tidak diinginkan dalam banyak kasus, AI juga menghadirkan berbagai contoh penggunaan yang menarik yang dapat membantu organisasi memanfaatkan potensi kreatifnya dengan cara yang positif. Contohnya antara lain:
Halusinasi AI menawarkan pendekatan baru untuk kreasi artistik, memberikan seniman, desainer, dan materi iklan lainnya sebuah alat untuk menghasilkan citra yang menakjubkan dan imajinatif secara visual. Dengan kemampuan halusinasi kecerdasan buatan, seniman dapat menghasilkan gambar surealis dan seperti mimpi yang dapat menghasilkan bentuk dan gaya seni baru.
Halusinasi AI dapat merampingkan visualisasi data dengan mengekspos koneksi baru dan menawarkan perspektif alternatif pada informasi yang kompleks. Hal ini dapat sangat berharga dalam bidang seperti keuangan, di mana visualisasi tren pasar yang rumit dan data keuangan mempermudah pengambilan keputusan yang lebih rinci dan analisis risiko.
Halusinasi AI juga meningkatkan pengalaman imersif dalam game dan VR. Menggunakan model AI untuk berhalusinasi dan menghasilkan lingkungan virtual dapat membantu pengembang game dan perancang VR membayangkan dunia baru yang membawa pengalaman pengguna ke tingkat berikutnya. Halusinasi juga dapat menambahkan elemen kejutan, ketidakpastian, dan kebaruan untuk pengalaman bermain game.
Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.
Lihat cara tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda terhadap AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.
Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.
1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29 Maret 2023.
2 ChatGTP and the Generative AI Hallucinations, Medium, 15 Maret 2023.
3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18 November 2022.