Lupakan rasa takut. Untuk melawan malware yang dihasilkan AI, fokuslah pada dasar-dasar keamanan siber. 

17 September 2024

Penulis

Matthew Kosinski

Enterprise Technology Writer

Musim panas lalu, para peneliti keamanan siber di HYAS merilis bukti konsep untuk EyeSpy, sebuah malware yang didukung AI yang sepenuhnya otonom. Menurut mereka, malware ini mampu bernalar, merancang strategi, dan melancarkan serangan siber tanpa campur tangan manusia.1 Mereka memperingatkan bahwa eksperimen ini merupakan gambaran awal dari era baru ancaman siber yang lebih berbahaya dan sulit dideteksi, yang akan segera muncul akibat kemajuan kecerdasan buatan.

Atau mungkin tidak.

"Ada begitu banyak hype seputar AI, baik dalam keamanan siber maupun di berbagai bidang lainnya," kata Ruben Boonen, Pemimpin Pengembangan Kemampuan CNE di IBM X-Force Adversary Services. “Namun menurut saya, saat ini, kita tidak perlu terlalu khawatir dengan malware didukung AI. "Saya belum melihat adanya demonstrasi yang menunjukkan penggunaan AI mampu memungkinkan sesuatu yang tidak mungkin terjadi tanpa AI."

Lingkungan ancaman selalu berkembang, dan mungkin ada saatnya malware berbasis AI menimbulkan bahaya serius. Namun untuk saat ini, setidaknya, banyak pakar keamanan merasa diskusi tentang malware AI adalah campuran spekulasi murni dan lebih dari sedikit pemasaran. 

Aktor ancaman yang menggunakan AI saat ini sebagian besar menggunakannya untuk memperbaiki skrip dasar dan serangan rekayasa sosial yang sama yang sudah diketahui oleh tim keamanan siber. Itu berarti organisasi dapat melindungi diri mereka sendiri dengan terus berfokus pada hal-hal fundamental, seperti melakukan patching pada aset, melatih karyawan, dan berinvestasi dalam solusi deteksi ancaman yang tepat.

Malware yang dihasilkan AI memiliki beberapa keunggulan, tetapi banyak pakar keamanan tidak terpengaruh

Baik model bahasa besar (LLM) tujuan umum, seperti Llama dari Meta, maupun aplikasi khusus, seperti watsonx Code Assistant dari IBM, dapat membantu pemrogram mempercepat pengembangan dengan menulis, men-debug, dan menerjemahkan kode.

Kekhawatirannya adalah bahwa manfaat ini tidak terbatas pada programmer yang baik. Dengan melakukan jailbreak pada sistem AI yang sah atau membuatnya sendiri, pelaku ancaman dapat secara hipotetis menggunakan alat AI ini untuk merampingkan proses pengembangan malware.

Beberapa khawatir bahwa AI dapat menurunkan penghalang untuk masuk ke pasar malware, memungkinkan lebih banyak penjahat siber untuk menulis program jahat terlepas dari tingkat keterampilannya. Atau, lebih buruk lagi, teknologi AI dapat membantu para pelaku ancaman mengembangkan malware baru yang dapat menerobos pertahanan umum dan menimbulkan malapetaka yang tak terhitung jumlahnya.

Beberapa peneliti telah mengeksplorasi potensi bahaya ancaman siber berbasis AI dengan menguji berbagai cara mengintegrasikan AI ke dalam malware: 

  • BlackMamba, dikembangkan oleh perusahaan keamanan HYAS, adalah keylogger polimorfik yang memanfaatkan ChatGPT untuk menghasilkan kode berbahaya secara dinamis saat waktu proses.

  • EyeSpy, juga dari HYAS, menggunakan AI untuk mengevaluasi sistem targetnya, mengidentifikasi aplikasi yang kemungkinan besar mengandung data sensitif dan memilih metode serangan.1

  • Morris II adalah worm yang memanfaatkan prompt berbahaya untuk mengecoh aplikasi AI agar membocorkan informasi sensitif dan menyebarkan dirinya ke pengguna lain.

Eksperimen ini tampak mengkhawatirkan pada pandangan pertama, tetapi banyak pakar keamanan melihatnya tidak lebih dari sekadar keingintahuan.

“Hal-hal seperti [BlackMamba dan EyeSpy] sama sekali tidak membuat saya takut,” ujar Boonen, yang terlibat dalam latihan tim merah untuk membantu organisasi memperkuat pertahanan mereka terhadap serangan siber nyata. 

"Ketika saya melihat detail teknis tentang cara program-program ini diimplementasikan, saya rasa program-program ini tidak akan berhasil jika kami menggunakannya dalam interaksi dengan klien kami," jelasnya.

Boonen dan rekan-rekannya memiliki beberapa alasan untuk meragukan wacana saat ini tentang malware yang dihasilkan oleh AI. 

Pertama, "ancaman baru" ini tidak benar-benar melakukan sesuatu yang belum pernah dilihat oleh tim keamanan sebelumnya, yang berarti strategi pertahanan yang ada masih efektif untuk melawan mereka.

"Konsep yang diperkenalkan oleh BlackMamba dan EyeSpy sebenarnya bukan hal baru," kata Kevin Henson, Lead Malware Reverse Engineer di IBM X-Force Threat Intelligence. "Para ahli keamanan telah menemukan malware dengan kemampuan serupa—seperti bersembunyi di memori dan menggunakan kode polimorfik—sebelumnya." 

Henson merujuk pada pembuat malware yang menggunakan teknik seperti metaprogramming untuk menyamarkan data penting dan secara dinamis menghasilkan elemen unik, seperti pola kode, setiap kali dikompilasi.  

Kedua, meskipun LLM memiliki keterampilan pengodean yang mengesankan, kemampuannya untuk menciptakan varian malware baru yang benar-benar belum pernah ada masih sangat terbatas untuk saat ini. 

“Saya rasa penggunaan ChatGPT [dan alat AI lainnya] untuk membuat malware memiliki keterbatasan, karena model ini menghasilkan kode berdasarkan kumpulan data pelatihannya,” kata Henson. “Akibatnya, kode yang dihasilkan cenderung kurang kompleks dibandingkan kode yang dibuat oleh manusia.”

Sementara banyak yang memperingatkan tentang AI dan algoritma machine learning yang dapat membantu kebangkitan kejahatan dunia maya dengan mengurangi kebutuhan keterampilan dalam produksi malware, model saat ini belum memiliki kemampuan tersebut. Pengguna masih perlu mengetahui satu atau dua hal tentang kode untuk memastikan bahwa apa pun yang dihasilkan LLM melakukan apa yang mereka inginkan. 

"AI mendorong peningkatan produktivitas dan, hingga batas tertentu, mengurangi kebutuhan akan tingkat pengetahuan yang tinggi untuk menulis kode," ujar Boonen. "Tapi ini bukan pengurangan besar-besaran."

Faktanya, jika aktor ancaman mulai menggunakan malware berbasis AI secara luas saat ini, kemungkinan besar sebagian besar kodenya akan berkualitas rendah dan mudah dideteksi serta dinonaktifkan oleh tim keamanan. 

“Saya tidak mengatakan bahwa tidak ada kemungkinan teknis di masa depan bahwa malware yang benar-benar bagus dibuat yang memanfaatkan AI,” kata Boonen. "Jika model-model ini terus berkembang seperti saat ini, saya rasa akan tiba saatnya di mana mereka dapat melakukan hal-hal yang substansial. Kemudian, kita harus menganggapnya lebih serius. Tapi saya tidak berpikir kita berada pada tahap ini.”

“Masalah ini mencerminkan apa yang terjadi dalam pengembangan perangkat lunak karena malware hanyalah perangkat lunak berbahaya,” kata Golo Mühr, Malware Reverse Engineer dari IBM X-Force Threat Intelligence. 

“Saat ini, kami belum melihat banyak aplikasi yang mengintegrasikan AI dengan lancar ke dalam kode mereka,” jelas Mühr. “Namun, seiring dominasi AI dalam perangkat lunak secara umum, kita juga dapat mengharapkan penggunaan AI yang lebih luas dalam malware.”

Pola ini telah terjadi di masa lalu, seperti yang dilaporkanX-Force Threat Intelligence Index . Ransomware dan cryptojacking baru menjadi ancaman luas setelah teknologi yang mendukung serangan ini—seperti Microsoft Active Directory untuk ransomware serta cryptocurrency dan infrastruktur sebagai layanan untuk cryptojacking—diadopsi secara luas.

Mühr mencatat bahwa setiap teknologi baru harus memberikan pengembalian investasi yang layak sebelum pengembang mengadopsinya—dan hal yang sama berlaku untuk pengembang malware.

Seperti apa sebenarnya serangan siber yang didorong oleh AI saat ini

Peneliti keamanan siber, termasuk X-Force IBM, belum menemukan bukti bahwa aktor ancaman menggunakan kecerdasan buatan untuk menciptakan malware baru yang beredar di dunia nyata. Namun, penjahat siber sudah memanfaatkan AI untuk kejahatan umum, seperti membuat skrip sederhana dan email phishing.

"Dalam pengembangan perangkat lunak yang sah, kami melihat AI generatif digunakan untuk melengkapi proses pengembangan, memberikan panduan, dan membuat potongan kode dasar," kata Mühr. "Teknologi AI semacam itu sudah digunakan oleh para pelaku ancaman untuk tujuan jahat saat ini, tetapi itu bukanlah sesuatu yang akan kami sadari sebagai ancaman yang sangat canggih." 

Misalnya, Microsoft dan OpenAI telah berhasil mendeteksi dan menghentikan beberapa aktor negara yang berusaha memanfaatkan LLM mereka sebagai asisten pengodean. Kelompok "Forest Blizzard" yang berafiliasi dengan Rusia menggunakan LLM untuk menganalisis kelemahan sistem target, sedangkan kelompok Iran "Crimson Sandstorm" memanfaatkannya untuk membuat skrip pengikisan web.3

Namun, banyak pakar keamanan menganggap serangan phishing yang didukung LLM sebagai ancaman berbahaya akibat penyalahgunaan AI. 

“Saya yakin saat ini ancaman terbesar dari AI generatif adalah penyalahgunaannya untuk peniruan identitas dan phishing,” kata Mühr. “AI sudah mampu menciptakan teks, video, dan audio yang menyerupai manusia, yang dapat memberikan dampak besar dalam contoh penggunaan tersebut.” Dan kami telah melihat indikator ini dipersenjatai untuk phishing.”   

Misalnya, peretas dapat menggunakan LLM untuk menulis email phishing yang meniru gaya bahasa merek tepercaya. Email yang dibuat oleh LLM ini juga tidak memiliki tanda bahaya yang umum, seperti kesalahan tata bahasa dan frasa yang janggal, yang sering digunakan oleh calon korban untuk mengidentifikasi penipuan. 

Aktor jahat juga dapat memanfaatkan AI untuk menghasilkan deepfake yang membuat penipuan mereka makin meyakinkan. Misalnya, scammer di Hong Kong SA RRT menggunakan konferensi video buatan AI untuk mengelabui korban agar mentransfer USD 25 juta ke rekening bank palsu.4

Penipuan didukung AI ini dapat menipu target manusia dan keamanan perusahaan yang dimaksudkan untuk menghentikannya. Contohnya, kelompok penjahat siber yang disebut X-Force sebagai "Hive0137" diduga menggunakan AI untuk membuat variasi email phishing agar dapat menghindari filter yang mendeteksi pesan berbahaya yang sudah dikenal. 

Mendeteksi dan mencegah serangan yang didukung AI

AI belum secara drastis mengubah lanskap keamanan siber. Sebaliknya, teknologi ini justru membantu penyerang menyempurnakan metode yang sudah mereka gunakan. Karena itu, pertahanan terbaik terhadap serangan yang didukung AI adalah memastikan organisasi tetap menerapkan langkah-langkah keamanan dasar dengan kuat.

Menurut Ben Shipley, Analis Ancaman Strategis di IBM X-Force Threat Intelligence, penggunaan AI dalam serangan tidak mengubah risiko dan respons yang dihadapi para pembela HAM. “Malware yang ditulis oleh AI atau oleh manusia masih akan berperilaku seperti malware. Ransomware yang ditulis oleh AI tidak memiliki dampak yang lebih signifikan terhadap korban daripada ransomware yang ditulis oleh manusia."

Langkah-langkah keamanan standar dapat membantu menutup celah yang dapat dieksploitasi oleh malware—baik dengan bantuan AI maupun metode lainnya—untuk mengeksploitasi sistem. Misalnya, program manajemen patch formal dapat memperbaiki bug perangkat lunak sebelum aktor jahat menemukannya. Kontrol identitas dan akses yang kuat seperti autentikasi multifaktor dapat memerangi pembajakan akun, salah satu vektor paling umum untuk serangan siber saat ini.

Tindakan lain juga dapat membantu melawan serangan AI: 

  • Program dan platform intelijen ancaman membantu tim keamanan untuk tetap waspada terhadap ancaman yang muncul seperti malware yang dihasilkan oleh AI.
     
  • Campuran alat deteksi ancaman, termasuk alat berbasis tanda tangan (seperti firewall) dan alat berbasis anomali, yang menggunakan algoritma AI untuk mengidentifikasi aktivitas mencurigakan dalam lalu lintas jaringan. Malware standar yang diberi kode tangan sudah pandai menghindari beberapa jenis solusi keamanan, jadi menggunakan beberapa metode deteksi masuk akal terlepas dari apakah peretas menggunakan AI.

  • Pelatihan keamanan dapat membantu karyawan menemukan dan merespons dengan benar rekayasa sosial dan kampanye disinformasi yang didukung AI.

Menggunakan AI untuk melawan AI

Sementara aktor jahat dapat memanfaatkan alat AI untuk merampingkan proses mereka, pembela dapat—dan harus—melakukan hal yang sama. 

Menurut Laporan Biaya Pelanggaran Data IBM, organisasi yang menggunakan AI dan otomatisasi untuk keamanan siber dapat secara signifikan mengurangi biaya pelanggaran. 

AI dapat membuat upaya pencegahan lebih efektif dan mempercepat jadwal deteksi dan remediasi ancaman, memangkas USD 1,88 juta dari biaya pelanggaran data rata-rata. (Untuk organisasi yang secara ekstensif berinvestasi dalam AI keamanan dan otomatisasi, rata-rata pelanggaran menelan biaya USD 3,84 juta. Untuk organisasi tanpa AI keamanan dan otomatisasi, rata-rata pelanggaran menelan biaya USD 5,72 juta.)

AI berbasis aturan tradisional telah digunakan dalam berbagai alat keamanan siber, seperti deteksi dan respons titik akhir (EDR) dan analisis perilaku pengguna dan entitas (UEBA). Tetapi model AI generatif baru juga siap membantu perlindungan. 

“Saya pikir model AI generatif akan berdampak besar pada hal-hal seperti respons insiden,” kata Boonen. “Misalnya, model ini dapat memahami atau meringkas insiden lebih cepat karena mampu memproses lebih banyak data dalam waktu singkat dibandingkan manusia.” 

Hal ini mempercepat proses bagi analis, memungkinkan mereka menggunakan insight tersebut untuk mendeteksi dan menghentikan ancaman dengan lebih cepat dan efektif.

Dan meskipun AI dapat menghasilkan deepfakes yang digunakan oleh para pelaku kejahatan untuk mengelabui orang, AI juga dapat memainkan peran penting dalam memerangi skema tersebut.

"Beberapa gambar kini hampir tidak bisa dibedakan dari aslinya, dan saya yakin seiring waktu, kebanyakan orang tidak akan mampu membedakannya," jelas Boonen. “Jadi saya pikir kita harus melatih model AI untuk mengatakan, 'Video ini palsu' atau 'Gambar ini palsu' di mana manusia tidak bisa melakukannya."  

Seperti halnya ancaman yang didukung AI di masa depan, dampak AI terhadap praktisi keamanan siber kemungkinan akan terjadi secara bertahap, bukan sebagai perubahan yang mendadak dan revolusioner. Alih-alih terjebak dalam hype atau terpengaruh narasi pesimistis, tim keamanan sebaiknya tetap fokus menjalankan tugas utama mereka: memantau perkembangan masa depan sambil menjaga pijakan yang kuat pada realitas saat ini.

Catatan kaki

Semua tautan berada di luar ibm.com

1. EyeSpy poof-of-concept, HYAS, 01 Agustus 2023.

2. BlackMamba: using AI to generate polymorphic malware, HYAS, 31 Juli 2023.

3. Tetap unggul dalam menghadapi aktor ancaman di era AI, Microsoft, 14 Februari 2024.

4. Finance worker pays out USD 25 million after video call with deepfake 'chief financial officer,' CNN, 4 Februari 2024.

Mendaftar untuk buletin Think

Buletin Think

 

Insight AI dan teknologi terbaru dari Think

Daftar hari ini
Solusi terkait IBM X-Force

Serangan yang digerakkan oleh peretas.Pertahanan yang digerakkan oleh penelitian. Perlindungan yang digerakkan oleh intelijen.

Layanan Manajemen Ancaman Siber IBM

Prediksi, cegah, dan respons ancaman modern, Tingkatkan ketahanan bisnis.

Layanan Deteksi dan Respons Ancaman IBM

Pencegahan 24/7 dan deteksi serta respons yang lebih cepat dan didukung AI.

Sumber daya

Biaya Pelanggaran Data
Laporan
Keamanan siber di era AI generatif
Panduan
Apa itu keamanan AI?
Penjelasan
IBM AI Academy
Pendidikan AI

Ambil langkah selanjutnya

Layanan keamanan siber IBM memberikan layanan konsultasi, integrasi, dan keamanan terkelola serta kemampuan ofensif dan defensif. Kami menggabungkan tim pakar global dengan teknologi milik sendiri dan mitra untuk bersama-sama menciptakan program keamanan khusus yang mengelola risiko.

Jelajahi layanan keamanan siber