Bertahan terhadap serangan ini adalah tantangan yang berkelanjutan. Lee menguraikan dua pendekatan utama: peningkatan pelatihan AI dan membangun firewall AI.
“Kami ingin melakukan pelatihan yang lebih baik sehingga model itu sendiri akan tahu, 'Oh, seseorang mencoba menyerang saya,'” jelas Lee. “Kami juga akan memeriksa semua kueri yang masuk ke model bahasa dan mendeteksi injeksi prompt.”
Karena AI generatif menjadi lebih terintegrasi ke dalam kehidupan kita sehari-hari, memahami kerentanan ini bukan hanya perhatian para pakar. Semakin penting bagi siapa pun yang berinteraksi dengan sistem AI untuk menyadari potensi kelemahan mereka.
Lee membandingkannya dengan era awal serangan injeksi SQL pada basis data. “Industri membutuhkan waktu 5-10 tahun untuk membuat semua orang mengerti bahwa ketika menulis SQL query, Anda perlu membuat parameter untuk semua input agar kebal terhadap serangan injeksi,” katanya. “Untuk AI, kami mulai memanfaatkan model bahasa di mana-mana. Orang perlu memahami bahwa mereka tidak bisa begitu saja memberikan instruksi sederhana kepada AI karena hal itu akan membuat perangkat lunak Anda rentan."
Penemuan metode jailbreaking seperti Skeleton Key dapat melemahkan kepercayaan publik pada AI, berpotensi memperlambat adopsi teknologi AI yang bermanfaat. Menurut Narayana Pappu, CEO Zendata, transparansi dan verifikasi independen sangat penting untuk membangun kembali kepercayaan.
"Pengembang dan organisasi AI dapat menyeimbangkan antara menciptakan model bahasa yang kuat dan serbaguna serta memastikan perlindungan yang kuat terhadap penyalahgunaan," katanya. “Mereka dapat melakukannya melalui transparansi sistem internal, memahami risiko rantai pasokan AI/data, dan membangun alat evaluasi ke dalam setiap tahap proses pengembangan.”