cover |
Peneliti di Palo Alto Networks Unit 42 menemukan bahwa meskipun LLM kesulitan membuat malware dari awal, mereka dapat dengan mudah menulis ulang skrip berbahaya yang ada, sehingga lebih sulit diidentifikasi . Transformasi ini menggunakan modifikasi kode yang tampak alami seperti mengganti nama variabel, memisahkan string, dan memasukkan kode sampah.
"Kami mengembangkan algoritma pembelajaran mesin (ML) yang bersifat adversarial yang menggunakan model bahasa besar (LLM) untuk menghasilkan varian baru kode JavaScript berbahaya dalam skala besar. Kami telah menggunakan hasilnya untuk meningkatkan deteksi kode JavaScript berbahaya di alam liar hingga 10%," keterangan Palo Alto dalam sebuah postingan di laman resminya, dikutip Sabtu (4/1/2025).
Lanjutnya, penyedia LLM arus utama semakin menerapkan langkah-langkah keamanan untuk memastikan bahwa model AI mereka tidak digunakan untuk kejahatan dunia maya. Pada bulan Oktober 2024, misalnya, OpenAI melaporkan pemblokiran lebih dari 20 operasi yang berupaya menyalahgunakan platformnya untuk tujuan jahat . Namun, pelaku ancaman beralih ke alat AI jahat seperti WormGPT untuk mengotomatiskan serangan phishing dan membuat malware.
Studi Unit 42 menunjukkan potensi LLM untuk melewati pengklasifikasi malware berbasis pembelajaran mesin. Dengan menulis ulang sampel JavaScript yang berbahaya, mereka mengelabui model seperti Innocent Until Proven Guilty (IUPG) dan PhishingJS.
"Para penyerang telah lama menggunakan teknik dan alat pengaburan umum untuk menghindari deteksi. Kita dapat dengan mudah melakukan sidik jari atau mendeteksi alat pengaburan yang tersedia karena alat tersebut sudah dikenal baik oleh para pembela dan menghasilkan perubahan dengan cara yang telah ditentukan sebelumnya. Namun, penjahat dapat meminta LLM untuk melakukan transformasi yang tampak jauh lebih alami, yang membuat pendeteksian malware ini menjadi lebih sulit," terangnya.
Selain malware, perangkat AI menghadapi tantangan keamanan lainnya. Peneliti di North Carolina State University mengungkap serangan side-channel bernama TPUXtract yang menargetkan Google Edge Tensor Processing Units (TPUs) . Dengan menangkap sinyal elektromagnetik, serangan tersebut mengungkap hiperparameter model dan merekonstruksi model AI. Meskipun memerlukan akses fisik dan peralatan mahal, serangan ini menggarisbawahi risiko terhadap teknologi AI yang bersifat hak milik.
Selain itu, sistem AI seperti Exploit Prediction Scoring System (EPSS) rentan terhadap manipulasi yang berlawanan. Perusahaan keamanan siber Morphisec menunjukkan bagaimana sinyal eksternal palsu, seperti penyebutan eksploitasi secara acak di media sosial, dan repositori GitHub kosong yang menampilkan eksploitasi, dapat mendistorsi metrik EPSS, sehingga menyesatkan upaya penentuan prioritas kerentanan.
Meningkatnya AI generatif memperkuat skala dan kecanggihan ancaman siber. Namun, teknologi yang sama dapat meningkatkan pertahanan dengan meningkatkan deteksi aktivitas berbahaya, seperti halnya alat pencegahan phishing AI milik NordVPN yang disebut Sonar. Perlombaan senjata ini menyoroti perlunya pengembangan AI yang berkelanjutan dan langkah-langkah keamanan yang kuat.
"Lebih jauh lagi, dengan adanya cukup banyak lapisan transformasi, banyak pengklasifikasi malware dapat dikelabui dan dipercaya bahwa sepotong kode berbahaya itu tidak berbahaya. Ini berarti bahwa seiring malware berevolusi dari waktu ke waktu, baik secara sengaja untuk tujuan penghindaran atau karena kebetulan, kinerja klasifikasi malware akan menurun," tembahnya.
Seiring dengan perkembangan AI, teknik serangan siber juga ikut berkembang. Misalnya, kelompok peretas Korea Utara bernama Sapphire Sleet baru-baru ini mencuri lebih dari $10 juta dalam bentuk mata uang kripto melalui kampanye rekayasa sosial LinkedIn yang disempurnakan dengan perangkat AI .