AI Mengubah Kejahatan Siber Menjadi Model Bisnis yang Cerdas dan Dapat Diskalakan
- Anthropic melaporkan bahwa penjahat dunia maya menggunakan Claude AI untuk pemerasan, ransomware, dan penipuan identitas dalam 8 studi kasus. - Peretas Korea Utara memanfaatkan Claude untuk membuat identitas palsu dan menyusup ke perusahaan teknologi melalui pekerjaan IT jarak jauh. - Ransomware baru berbasis AI bernama "PromptLock" secara dinamis menghasilkan malware lintas platform melalui model GPT dari OpenAI. - Serangan yang ditingkatkan oleh AI menunjukkan peningkatan otomatisasi, kemampuan pengelakan, dan risiko infiltrasi organisasi.
Anthropic, perusahaan kecerdasan buatan yang berbasis di San Francisco, telah melaporkan munculnya ancaman siber baru yang memanfaatkan LLM miliknya, Claude, untuk aktivitas pemerasan dan ransomware. Dalam sebuah laporan yang diterbitkan pada 27 Agustus 2025, perusahaan tersebut merinci delapan studi kasus, mengungkapkan bahwa pelaku kejahatan menggunakan Claude untuk menjalankan berbagai operasi siber berbahaya. Laporan tersebut mencatat bahwa meskipun banyak dari upaya ini terdeteksi dan dihentikan sebelum dieksekusi, tren ini menyoroti meningkatnya kecanggihan serangan berbasis AI [3].
Salah satu temuan paling mengkhawatirkan dari laporan tersebut adalah penggunaan Claude untuk mengotomatisasi pencurian data skala besar dan kampanye pemerasan. Sebuah kelompok penjahat siber dilaporkan menggunakan model AI ini untuk membuat permintaan tebusan yang disesuaikan dan mengambil keputusan taktis secara real-time, sehingga sangat memperlancar proses pemerasan. Menurut laporan tersebut, kampanye ini menargetkan lebih dari 17 organisasi, menunjukkan skalabilitas dan efisiensi yang dapat dibawa AI ke dalam operasi berbahaya [3].
Laporan tersebut juga merinci kasus yang mengkhawatirkan yang melibatkan pelaku ancaman Korea Utara yang mengeksploitasi Claude untuk membuat identitas palsu yang realistis dan lolos wawancara teknis, memungkinkan mereka mendapatkan pekerjaan IT jarak jauh secara curang di perusahaan teknologi yang sah. Strategi ini, yang tampaknya merupakan inisiatif yang disponsori negara, bertujuan untuk menghasilkan dukungan keuangan bagi rezim Korea Utara. Penggunaan generative AI dengan cara ini menyoroti semakin luasnya peran AI dalam kejahatan siber, di mana AI tidak hanya digunakan untuk meluncurkan serangan langsung tetapi juga untuk menyusup ke organisasi dengan kedok pekerjaan yang sah [3].
Contoh penting lainnya adalah pengembangan varian ransomware menggunakan Claude. Laporan tersebut menguraikan bagaimana seorang penjahat siber menggunakan LLM untuk menyempurnakan dan mendistribusikan beberapa strain ransomware, masing-masing dilengkapi dengan teknik penghindaran canggih, enkripsi kuat, dan mekanisme anti-pemulihan. Alat ransomware yang ditingkatkan AI ini menimbulkan tantangan signifikan bagi para profesional keamanan siber, karena dirancang untuk melewati metode deteksi tradisional dan menahan upaya pemulihan data [3].
Sejalan dengan perkembangan ini, peneliti ESET telah mengidentifikasi ransomware baru berbasis AI bernama PromptLock, yang saat ini berada pada tahap proof-of-concept. Menurut laporan yang diterbitkan pada 26 Agustus, PromptLock adalah ransomware pertama yang diketahui menggunakan model generative AI untuk eksekusi serangan. Malware ini menggunakan model OpenAI gpt-oss:20b, yang diakses melalui Ollama API, untuk secara dinamis menghasilkan skrip Lua berbahaya. Skrip ini, yang bersifat lintas platform dan dapat berjalan di Windows, Linux, dan macOS, melakukan tugas seperti enumerasi sistem file, eksfiltrasi data, dan enkripsi [3].
PromptLock ditulis dalam Golang dan telah diamati dalam varian Windows dan Linux yang dikirimkan ke VirusTotal. Para peneliti mencatat bahwa malware ini belum menyertakan fitur penghancuran data dan tampaknya masih dalam tahap pengembangan. Namun, ditemukannya ransomware berbasis AI pada tahap pengembangan apa pun menjadi perhatian di kalangan pakar keamanan siber. Pendekatan yang digunakan oleh PromptLock sejalan dengan teknik ‘Internal Proxy’, yang melibatkan pembuatan tunnel dari jaringan yang telah dikompromikan ke server jarak jauh yang menampung model AI. Taktik ini semakin umum dalam serangan siber kontemporer, memberikan penyerang cara untuk menghindari deteksi sambil mempertahankan persistensi [3].
Munculnya ransomware berbasis AI dan penggunaan LLM yang lebih luas untuk tujuan jahat menandakan lanskap ancaman yang berkembang di mana penjahat siber dengan cepat beradaptasi dengan teknologi baru. Seiring AI terus berkembang, kemungkinan para penyerang akan terus mengeksploitasi alat ini untuk operasi siber yang lebih canggih dan otomatis. Organisasi harus tetap waspada dan berinvestasi dalam langkah-langkah keamanan siber yang kuat untuk mengurangi risiko yang ditimbulkan oleh ancaman yang sedang berkembang ini [3].
Sumber:
Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai

MUTM Dinobatkan Sebagai Cryptocurrency Teratas, Investasi $5K Bisa Naik 30 Kali Lipat
COC sang Pemecah Kebuntuan: Ketika Segalanya di GameFi "Dapat Diverifikasi", Era P2E 3.0 pun Dimulai
Artikel ini menganalisis perkembangan jalur GameFi dari Axie Infinity hingga game Telegram, dan menunjukkan bahwa Play to Earn 1.0 gagal karena runtuhnya model ekonomi dan masalah kepercayaan, sementara Play for Airdrop hanya bertahan sebentar karena tidak dapat mempertahankan pengguna. Game COC memperkenalkan mekanisme VWA, yang memverifikasi data penting di blockchain untuk mencoba mengatasi masalah kepercayaan dan membangun model ekonomi yang berkelanjutan. Ringkasan ini dihasilkan oleh Mars AI. Akurasi dan kelengkapan konten yang dihasilkan oleh model Mars AI masih dalam tahap pembaruan iteratif.

BlackRock bertaruh pada tokenisasi, tetapi IMF memperingatkan efek domino 'atomik' yang tak terkendali