Kesalahan informasi AI: Inilah cara mengurangi paparan dan risiko perusahaan Anda

Seseorang berdiri di dekat gedung sambil melihat tablet

Penyusun

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Informasi yang akurat adalah sumber kehidupan perusahaan modern. Mereka mengandalkannya untuk membuat keputusan bisnis penting dalam segala hal, mulai dari manajemen rantai pasokan hingga pemasaran produk.

Sementara kecerdasan buatan (AI) dapat meningkatkan pengambilan keputusan berbasis data seperti itu, hal itu juga dapat menghambatnya. Konten yang dihasilkan AI dapat penuh dengan kesalahan, mulai dari berita utama palsu dan nasihat hukum yang buruk hingga resep pizza yang menggunakan lem Elmer sebagai bahan utama.1

Apakah kita akan pernah mencapai titik di mana situasi sulit seperti itu adalah sesuatu dari masa lalu? Sebanyak penggemar AI ingin percaya sebaliknya, jawabannya mungkin tidak.

Model AI generatif (gen AI), jelas Matt Candy dari IBM, akan selalu rentan untuk secara tidak sengaja menghasilkan setidaknya beberapa informasi yang salah. “Berdasarkan fakta bahwa hal-hal ini bersifat prediktif—mereka memprediksi dan menebak apa kata berikutnya—Anda akan selalu memiliki risiko itu,” kata Candy, Global Managing Partner untuk Generative AI di IBM Consulting.

Candy menambahkan bahwa model machine learning tradisional (ML) juga tidak kebal dari menghasilkan informasi yang salah. “Model-model tersebut adalah jenis mesin statistik yang, secara efektif, mencoba untuk memprediksi suatu hasil,” katanya. “Jadi pada akhirnya, model-model itu masih dapat memprediksi jawaban atau hasil yang salah.”

Namun, kabar baiknya adalah bahwa ada beberapa langkah yang dapat diambil perusahaan untuk mengurangi kemungkinan bahwa sistem AI mereka sendiri menghasilkan dan menyebarkan informasi yang salah.

Jika langkah-langkah tersebut tidak mencegah semua contoh kesalahan informasi yang dihasilkan AI, perusahaan juga dapat menerapkan perlindungan untuk deteksi informasi yang salah sebelum menyebabkan kerusakan.

Desain 3D bola yang menggelinding di lintasan

Berita + Insight AI terbaru 


Temukan insight dan berita yang dikurasi oleh para pakar tentang AI, cloud, dan lainnya di Buletin Think mingguan. 

Memahami informasi yang salah

Sebelum kita memeriksa bagaimana perusahaan dapat melindungi diri dari kesalahan informasi yang dihasilkan AI, penting untuk melihat lebih dekat pada kesalahan informasi dan konsep terkait. Konsep-konsep ini sebagian besar mendahului penggunaan AI yang meluas saat ini dalam ekosistem informasi, tetapi pengaruh AI pada fenomena ini signifikan.

Informasi yang salah

Informasi yang salah adalah informasi palsu. Beberapa definisi juga mencatat bahwa informasi yang salah tidak sengaja dibuat untuk menipu orang lain, melainkan disebabkan oleh kesalahan.

Dalam kasus kesalahan informasi yang dihasilkan AI, contohnya mungkin termasuk model bahasa besar (LLM) yang menghasilkan output yang tidak akurat atau tidak masuk akal, dan gambar yang dihasilkan AI dengan penggambaran yang tidak realistis atau tidak akurat (seperti “orang sungguhan” dengan terlalu banyak lengan).

Halusinasi AI adalah penyebab umum kesalahan informasi yang dihasilkan AI. Halusinasi AI terjadi ketika algoritma AI menghasilkan output yang tidak didasarkan pada data pelatihan, salah diterjemahkan oleh transformer, atau tidak mengikuti pola yang dapat diidentifikasi.

“Cara halusinasi terjadi adalah bahwa model AI mencoba memastikan bahasanya fasih, tetapi juga mencoba menyatukan sumber informasi yang berbeda,” jelas Kush Varshney, seorang IBM Fellow di IBM Research. “Bahkan dengan manusia, ketika kita mencoba melakukan banyak hal pada saat yang sama, kita bisa mengacaukan. Hal ini juga terjadi pada model AI, model ini kehilangan jejak informasi ketika mencoba membuat bahasa menjadi fasih, dan sebaliknya.”

Disinformasi

Disinformasi terkadang dianggap sebagai jenis informasi yang salah, tetapi berbeda karena disinformasi adalah konten palsu yang dibuat untuk menipu audiens. Contohnya termasuk teori konspirasi, dan baru-baru ini, materi audio dan visual yang dibuat-buat.

Kasus-kasus disinformasi yang menonjol yang diaktifkan oleh bot dan alat AI lainnya terjadi menjelang pemilihan presiden Amerika 2024. Hal ini termasuk robocall yang menirukan suara Presiden AS saat itu dan kandidat dari Partai Demokrat, Joe Biden, dan penyebaran gambar-gambar yang menyampaikan dukungan palsu dari para selebriti untuk Presiden AS dari Partai Republik, Donald Trump.2,3

Alat untuk mendeteksi deepfake yang dihasilkan AI dan konten disinformasi yang menipu lainnya telah memberikan hasil yang beragam, meskipun detektor teks AI generasi terbaru telah terbukti lebih efektif daripada iterasi sebelumnya.4.5 Sementara itu, platform media sosial seperti TikTok dan Facebook telah mulai memberi label pada konten yang dihasilkan oleh AI.6

Informasi yang tidak benar

Tidak seperti kesalahan informasi dan disinformasi, malainformasi adalah informasi yang berpotensi membahayakan berdasarkan realitas dan fakta. Malainformasi merusak karena didistribusikan untuk menyakiti orang lain, seperti orang atau perusahaan.

Sebagai contoh, berbagi informasi rahasia tanpa izin termasuk dalam kategori malinformasi, sebuah praktik yang diperkuat oleh AI. Penipu dapat menggunakan alat AI generatif untuk membuat email phishing yang canggih dan efektif yang dapat membantu mereka memperoleh dan menyebarkan informasi rahasia.

Mengurangi kesalahan informasi yang dihasilkan AI di sumbernya

Meskipun mungkin tidak mungkin untuk memastikan bahwa semua output AI benar-benar bebas dari kesalahan, ada langkah-langkah yang dapat diambil perusahaan untuk secara signifikan mengurangi kemungkinan bahwa sistem AI mereka menghasilkan informasi yang tidak akurat atau sepenuhnya dibuat-buat.

  • Memastikan kualitas data
  • Menerapkan Generasi dengan dukungan pengambilan data (RAG)
  • Menggunakan model AI generatif yang lebih kecil

Memastikan kualitas data

Data berkualitas tinggi sangat penting untuk kinerja model AI. Model harus dilatih pada data yang beragam, seimbang, dan terstruktur dengan baik untuk meminimalkan kemungkinan bias dan halusinasi. Perusahaan teknologi dan pengembang AI dapat meningkatkan kualitas data pelatihan dengan menggunakan persiapan data dan alat pemfilteran data untuk menghapus data berkualitas rendah dan konten kebencian, termasuk informasi yang salah.

Menerapkan Generasi dengan dukungan pengambilan data (RAG)

Salah satu alat paling populer untuk mengurangi kemungkinan halusinasi AI adalah generasi dengan dukungan pengambilan data (RAG). RAG adalah arsitektur yang menghubungkan model AI ke sumber data eksternal, seperti data organisasi perusahaan, akademisi, dan kumpulan data. Dengan mengakses informasi tersebut, chatbot AI dan alat lainnya dapat menghasilkan konten khusus domain yang lebih akurat.

Menggunakan model AI generatif yang lebih kecil

Sementara aplikasi LLM yang menghadap konsumen di ChatGPT OpenAI telah menarik perhatian publik, bisnis sering menemukan model AI yang lebih kecil dan lebih khusus untuk lebih sesuai dengan kebutuhan mereka, sementara juga kurang rentan terhadap halusinasi.

“Anda memiliki model perbatasan besar ini yang dilatih pada data sebanyak yang mereka bisa dapatkan,” kata Candy. "Namun jika Anda memikirkan sebagian besar contoh penggunaan perusahaan, Anda tidak membutuhkan model yang dilatih untuk seluruh karya Shakespeare, Reddit, dan semua data yang tersedia untuk umum."

Karena model yang lebih kecil memiliki jendela konteks yang lebih sempit dan menggunakan lebih sedikit parameter, risiko halusinasi mereka menurun. “Ada sedikit kemungkinan hal-hal yang tercampur,” tambah Varshney.

Akademi AI

Kepercayaan, transparansi, dan tata kelola di AI

Kepercayaan pada AI dapat dikatakan merupakan topik paling penting dalam AI. Dan juga merupakan topik yang cukup rumit. Kami akan menguraikan isu-isu seperti halusinasi, bias, dan risiko, dan menunjukkan langkah-langkah untuk mengadopsi AI secara etis, bertanggung jawab, dan adil.

Menandai kesalahan informasi AI sebelum membahayakan

Ketika menghindari bahaya yang disebabkan oleh informasi yang salah yang dihasilkan oleh AI, langkah-langkah untuk mengurangi halusinasi hanyalah sebagian dari teka-teki. Perusahaan juga harus memiliki strategi dan alat untuk deteksi halusinasi dan output yang tidak akurat yang berhasil lolos.

Alat deteksi halusinasi AI

Platform tata kelola AI terkemuka dan model dasar sekarang mencakup kemampuan untuk deteksi halusinasi. IBM watsonx.governance dan rilis Granite Guardian terbaru IBM (IBM Granite Guardian 3.1, bagian dari keluarga model bahasa Granite IBM yang dirancang untuk bisnis), keduanya mengevaluasi kinerja model AI generatif pada metrik seperti relevansi jawaban dan “kesetiaan.”

“Mereka menyebutnya 'kesetiaan', yang merupakan kebalikan dari halusinasi,” jelas Varshney. “Ketika sebuah tanggapan setia pada dokumen sumbernya, itu tidak berhalusinasi.” Granite Guardian 3.1 juga memiliki kemampuan untuk mendeteksi penggunaan dan output AI yang kontraproduktif, seperti jailbreaking, kata-kata kotor, dan bias sosial.

Pengawasan dan interaksi manusia

Meskipun ada alat tata kelola AI, manusia masih memiliki peran kunci dalam mencegah penyebaran kesalahan informasi yang dihasilkan AI. Saat perusahaan menerapkan sistem AI, mereka harus mempertimbangkan di mana mereka membangun titik kontrol yang memungkinkan pengawasan manusia, kata Candy. “Kita perlu memiliki tujuan dalam merancang titik-titik dalam proses di mana terdapat interaksi manusia, pemeriksaan dan penyeimbangan manusia, serta pengambilan keputusan manusia.”

Pengambilan keputusan manusia seperti itu sangat penting, katanya, dengan munculnya agen AI yang kuat yang dapat menangani tugas-tugas yang semakin canggih.

Misalnya, sementara perusahaan ilmu kehidupan mungkin menggunakan beberapa agen AI untuk meneliti dan menulis laporan kepatuhan tentang pengembangan obat baru, perusahaan masih akan menugaskan karyawan manusia untuk meninjau dan memeriksa fakta laporan sebelum mengajukan mereka ke lembaga pemerintah.

“Pada akhirnya, Anda masih akan memiliki manusia dalam lingkaran proses tersebut, memeriksa dan memvalidasi,” kata Candy. “Saya tidak akan meremehkan pentingnya karya manusia.”

Solusi terkait
IBM watsonx.governance™

Atur model AI generatif dari mana saja dan terapkan di cloud atau on premises dengan IBM watsonx.governance.

Temukan watsonx.governance
Solusi dan layanan tata kelola AI

Buka potensi penuh AI Anda dan lihat bagaimana tata kelola AI dapat membantu meningkatkan kepercayaan karyawan Anda pada AI, mempercepat adopsi dan inovasi, serta meningkatkan kepercayaan pelanggan.

Jelajahi solusi tata kelola AI
Layanan konsultasi tata kelola AI

Bersiaplah menghadapi Undang-Undang AI UE dan bangun pendekatan tata kelola AI yang bertanggung jawab dengan bantuan IBM Consulting.

Jelajahi layanan tata kelola AI
Ambil langkah selanjutnya

Arahkan, kelola, dan pantau AI Anda dengan satu portofolio untuk mempercepat AI yang bertanggung jawab, transparan, dan dapat dijelaskan.

Jelajahi watsonx.governance Pesan demo langsung