Anda mungkin pernah mendengar tentang serangan musuh dalam kaitannya dengan kecerdasan buatan dan pembelajaran mesin, tapi apakah itu? Apa tujuan mereka?

Teknologi seringkali membuat hidup kita lebih nyaman dan aman. Namun, pada saat yang sama, kemajuan semacam itu telah membuka cara yang lebih canggih bagi penjahat dunia maya untuk menyerang kita dan merusak sistem keamanan kita, membuat mereka tidak berdaya.

Kecerdasan buatan (AI) dapat dimanfaatkan oleh profesional keamanan siber dan penjahat dunia maya; demikian pula, sistem pembelajaran mesin (ML) dapat digunakan untuk kebaikan dan kejahatan. Kurangnya kompas moral telah membuat serangan permusuhan di ML menjadi tantangan yang semakin besar. Jadi apa sebenarnya serangan permusuhan itu? Apa tujuan mereka? Dan bagaimana Anda bisa melindungi dari mereka?

Apa itu Serangan Musuh dalam Pembelajaran Mesin?

Adversarial ML atau serangan adversarial adalah serangan siber yang bertujuan mengelabui model ML dengan input berbahaya sehingga menyebabkan akurasi yang lebih rendah dan performa yang buruk. Jadi, terlepas dari namanya, adversarial ML bukanlah jenis pembelajaran mesin, melainkan berbagai teknik yang digunakan penjahat dunia maya—alias musuh—untuk menargetkan sistem ML.

instagram viewer

Tujuan utama dari serangan tersebut biasanya untuk mengelabui model agar membagikan informasi sensitif, gagal mendeteksi aktivitas penipuan, menghasilkan prediksi yang salah, atau merusak berbasis analisis laporan. Meskipun ada beberapa jenis serangan permusuhan, mereka sering menargetkan deteksi spam berbasis pembelajaran mendalam.

Anda mungkin pernah mendengar tentang an serangan musuh di tengah, yang merupakan teknik phishing canggih baru dan lebih efektif yang melibatkan pencurian informasi pribadi, cookie sesi, dan bahkan melewati metode multi-factor authentication (MFA). Untungnya, Anda dapat melawan ini dengan teknologi MFA tahan phishing.

Jenis Serangan Musuh

Cara termudah untuk mengklasifikasikan jenis serangan permusuhan adalah dengan memisahkannya menjadi dua kategori utama—serangan yang ditargetkan Dan serangan yang tidak ditargetkan. Seperti yang disarankan, serangan yang ditargetkan memiliki target tertentu (seperti orang tertentu) sementara serangan yang tidak ditargetkan tidak memikirkan siapa pun secara spesifik: mereka dapat menargetkan hampir semua orang. Tidak mengherankan, serangan yang tidak ditargetkan memakan waktu lebih sedikit tetapi juga kurang berhasil dibandingkan serangan yang ditargetkan.

Kedua jenis ini dapat dibagi lagi menjadi kotak putih Dan kotak hitam serangan permusuhan, di mana warna menunjukkan pengetahuan atau kurangnya pengetahuan model ML yang ditargetkan. Sebelum kita menyelam lebih dalam ke serangan kotak putih dan kotak hitam, mari kita lihat sekilas jenis serangan permusuhan yang paling umum.

  • Penghindaran: Sebagian besar digunakan dalam skenario malware, serangan penghindaran berupaya menghindari deteksi dengan menyembunyikan konten email yang berisi malware dan spam. Dengan memanfaatkan metode coba-coba, penyerang memanipulasi data pada saat penerapan dan merusak kerahasiaan model ML. Spoofing biometrik adalah salah satu contoh paling umum dari serangan penghindaran.
  • Keracunan data: Juga dikenal sebagai serangan kontaminasi, ini bertujuan untuk memanipulasi model ML selama periode pelatihan atau penerapan, dan menurunkan akurasi dan kinerja. Dengan memperkenalkan masukan berbahaya, penyerang mengganggu model dan mempersulit profesional keamanan untuk mendeteksi jenis data sampel yang merusak model ML.
  • Kesalahan Bizantium: Jenis serangan ini menyebabkan hilangnya layanan sistem sebagai akibat dari kesalahan Bizantium dalam sistem yang memerlukan konsensus di antara semua nodenya. Setelah salah satu node tepercaya berubah menjadi nakal, ia dapat melakukan serangan denial-of-service (DoS) dan mematikan sistem untuk mencegah node lain berkomunikasi.
  • Ekstraksi model:Dalam serangan ekstraksi, musuh akan menyelidiki sistem ML kotak hitam untuk mengekstrak data pelatihannya atau—dalam skenario terburuk—model itu sendiri. Kemudian, dengan salinan model ML di tangan mereka, musuh dapat menguji malware mereka terhadap antimalware/antivirus dan mencari cara untuk melewatinya.
  • Serangan inferensi: Seperti serangan ekstraksi, tujuannya di sini adalah untuk membuat model ML membocorkan informasi tentang data pelatihannya. Namun, musuh kemudian akan mencoba mencari kumpulan data mana yang digunakan untuk melatih sistem, sehingga mereka dapat mengeksploitasi kerentanan atau bias di dalamnya.

Kotak Putih vs. Black-Box vs. Serangan Musuh Grey-Box

Yang membedakan ketiga jenis serangan permusuhan ini adalah jumlah pengetahuan yang dimiliki musuh tentang cara kerja bagian dalam sistem ML yang akan mereka serang. Sementara metode kotak putih memerlukan informasi lengkap tentang model ML yang ditargetkan (termasuk arsitektur dan parameter), metode kotak hitam tidak memerlukan informasi dan hanya dapat mengamatinya output.

Model kotak abu-abu, sementara itu, berada di tengah-tengah dua ekstrem ini. Menurutnya, musuh dapat memiliki beberapa informasi tentang kumpulan data atau detail lain tentang model ML tetapi tidak semuanya.

Bagaimana Cara Mempertahankan Pembelajaran Mesin dari Serangan Musuh?

Sementara manusia masih menjadi komponen penting dalam memperkuat keamanan siber,AI dan ML telah mempelajari cara mendeteksi dan mencegah serangan berbahaya—mereka dapat meningkatkan akurasi dalam mendeteksi ancaman jahat, memantau aktivitas pengguna, mengidentifikasi konten yang mencurigakan, dan banyak lagi. Tapi bisakah mereka menahan serangan musuh dan melindungi model ML?

Salah satu cara kami dapat memerangi serangan cyber adalah dengan melatih sistem ML untuk mengenali serangan permusuhan sebelumnya dengan menambahkan contoh ke prosedur pelatihan mereka.

Tidak seperti pendekatan brute force ini, metode distilasi defensif mengusulkan agar kita menggunakan model utama yang lebih efisien untuk menghitung Keluarkan fitur kritis dari model sekunder yang kurang efisien dan kemudian tingkatkan akurasi model sekunder dengan model primer satu. Model ML yang dilatih dengan distilasi defensif kurang sensitif terhadap sampel musuh, yang membuatnya kurang rentan terhadap eksploitasi.

Kami juga dapat terus memodifikasi algoritme yang digunakan model ML untuk klasifikasi data, yang dapat membuat serangan musuh kurang berhasil.

Teknik penting lainnya adalah pemerasan fitur, yang akan mengurangi ruang pencarian yang tersedia untuk musuh dengan "memeras" fitur input yang tidak perlu. Di sini, tujuannya adalah untuk meminimalkan positif palsu dan membuat pendeteksian contoh musuh lebih efektif.

Melindungi Pembelajaran Mesin dan Kecerdasan Buatan

Serangan musuh telah menunjukkan kepada kita bahwa banyak model ML dapat dihancurkan dengan cara yang mengejutkan. Lagi pula, pembelajaran mesin permusuhan masih merupakan bidang penelitian baru dalam ranah keamanan siber, dan ia memiliki banyak masalah kompleks untuk AI dan ML.

Meskipun tidak ada solusi ajaib untuk melindungi model ini dari semua serangan permusuhan, masa depan kemungkinan akan membawa teknik yang lebih canggih dan strategi yang lebih cerdas untuk mengatasi hal yang mengerikan ini musuh.