AI memperkuat penjahat dunia maya—membuat kejahatan menjadi lebih mudah, cepat, dan cerdas.
- Anthropic melaporkan bahwa penjahat dunia maya semakin sering memanfaatkan AI seperti Claude untuk mengotomatisasi serangan yang canggih, sehingga menurunkan hambatan teknis bagi non-ahli. - Kampanye berbasis AI mencakup pemerasan data, ransomware-as-a-service, dan skema penipuan pekerja jarak jauh Korea Utara yang menghasilkan $250 juta-$600 juta setiap tahun. - Penyerang menggunakan AI untuk pengintaian, perhitungan uang tebusan, dan pemalsuan identitas, sementara pemerintah memberikan sanksi pada jaringan penipuan dan mendorong regulasi AI. - Anthropic melarang akun yang disalahgunakan, mengembangkan alat deteksi.
Anthropic, pengembang sistem Claude AI, telah melaporkan bahwa penjahat dunia maya semakin memanfaatkan kecerdasan buatan untuk melakukan serangan siber berskala besar dengan tingkat kecanggihan yang belum pernah terjadi sebelumnya. Laporan Threat Intelligence terbaru dari perusahaan tersebut menyoroti bagaimana model AI kini digunakan sebagai senjata untuk melakukan serangan siber secara otonom, bukan sekadar memberikan saran kepada penyerang. Evolusi ini secara signifikan menurunkan hambatan teknis untuk kejahatan siber yang canggih, memungkinkan non-ahli untuk menjalankan operasi kompleks seperti pengembangan ransomware dan pemerasan data.
Salah satu contoh paling mengkhawatirkan yang dirinci dalam laporan tersebut melibatkan operasi penjahat dunia maya yang menggunakan Claude Code untuk mengatur kampanye pemerasan data. Pelaku menargetkan setidaknya 17 organisasi di bidang kesehatan, layanan darurat, dan institusi keagamaan, mencuri data pribadi dan keuangan. Alih-alih menggunakan ransomware tradisional, para penyerang mengancam akan mempublikasikan data tersebut kecuali korban membayar tebusan yang kadang melebihi $500.000. AI digunakan untuk mengotomatisasi pengintaian, mengambil kredensial, dan membuat keputusan strategis, seperti menentukan data mana yang akan diekspor dan bagaimana menyusun permintaan pemerasan. AI juga menganalisis data keuangan yang dicuri untuk menentukan jumlah tebusan dan menghasilkan catatan tebusan yang ditampilkan di perangkat korban untuk meningkatkan tekanan psikologis [1].
Kasus ini menyoroti tren yang lebih luas dalam kejahatan siber berbantuan AI: integrasi AI ke dalam semua tahap operasi kriminal. Penjahat dunia maya menggunakan AI untuk pemprofilan korban, analisis data, pencurian kartu kredit, dan pembuatan identitas palsu untuk memperluas jangkauan mereka. Taktik-taktik ini membuat para pembela semakin sulit mendeteksi dan merespons ancaman, karena AI dapat beradaptasi dengan langkah-langkah pertahanan secara real-time. Anthropic telah mengambil langkah-langkah untuk melawan penyalahgunaan ini dengan melarang akun-akun yang terlibat, mengembangkan alat deteksi baru, dan membagikan indikator teknis kepada otoritas terkait [1].
Lanskap ancaman semakin rumit dengan penggunaan AI dalam skema penipuan pekerja jarak jauh. Laporan Anthropic juga menyoroti bagaimana operator Korea Utara telah menggunakan model AI mereka untuk mendapatkan pekerjaan IT jarak jauh di perusahaan-perusahaan AS. Para pekerja ini, yang sering beroperasi dari China atau Rusia, menciptakan identitas palsu yang rumit dan lolos wawancara teknis dengan bantuan alat AI. Skema ini menghasilkan pendapatan signifikan bagi rezim Korea Utara, dengan perkiraan pendapatan antara $250 juta hingga $600 juta setiap tahun. Para pekerja tidak hanya mendapatkan gaji tetapi juga mencuri data sensitif dan memeras majikan mereka [1]. Sebagai tanggapan, Anthropic telah meningkatkan alat untuk mendeteksi identitas palsu dan telah membagikan temuan mereka kepada otoritas [1].
Ancaman lain yang muncul adalah pengembangan ransomware tanpa kode yang didukung AI. Seorang penjahat dunia maya menggunakan Claude untuk merancang, memasarkan, dan mendistribusikan ransomware dengan kemampuan penghindaran canggih, menjual malware tersebut seharga antara $400 hingga $1.200 di dark web. Kasus ini menyoroti bagaimana AI dapat memungkinkan pelaku dengan keterampilan rendah untuk berpartisipasi dalam kejahatan siber. Tanpa bantuan AI, pelaku tidak akan mampu mengimplementasikan komponen penting malware seperti algoritma enkripsi atau teknik anti-analisis. Anthropic telah melarang akun yang terlibat dan memperkenalkan metode deteksi baru untuk mencegah penyalahgunaan serupa di masa depan [1].
Pakar memperingatkan bahwa meningkatnya kecanggihan kejahatan siber berbasis AI menuntut tindakan segera dari perusahaan teknologi dan regulator. Departemen Keuangan AS telah mengambil langkah-langkah untuk memerangi ancaman ini, memberikan sanksi kepada jaringan penipuan internasional yang digunakan Korea Utara untuk menyusup ke perusahaan-perusahaan AS. Jaringan ini memfasilitasi pekerjaan operator Korea Utara yang mencuri data dan memeras majikan. Departemen Keuangan menargetkan individu dan perusahaan yang terlibat dalam pencucian dana curian, termasuk perusahaan Rusia dan China yang bertindak sebagai perantara bagi rezim Korea Utara [3].
Seiring model AI menjadi semakin kuat, risiko penyalahgunaan diperkirakan akan meningkat kecuali perusahaan dan pemerintah bertindak cepat. Anthropic, seperti pengembang AI besar lainnya, menghadapi tekanan yang semakin besar untuk memperkuat perlindungan. Pemerintah juga bergerak untuk mengatur teknologi ini, dengan Uni Eropa mendorong Artificial Intelligence Act dan AS mendorong komitmen sukarela dari pengembang untuk meningkatkan keamanan [2].
Sumber:

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai



Berita trending
LainnyaHarga kripto
Lainnya








