AI chatbots mungkin berhalusinasi, memberikan jawaban yang benar-benar salah—yang dapat dimanfaatkan oleh peretas. Inilah cara peretas mempersenjatai halusinasi.

AI model bahasa besar tidak sempurna dan terkadang menghasilkan informasi palsu. Contoh-contoh ini, yang disebut halusinasi, dapat menimbulkan ancaman dunia maya bagi bisnis dan penggemar AI individu.

Untungnya, Anda dapat meningkatkan pertahanan terhadap halusinasi AI dengan kewaspadaan tinggi dan tebakan kedua yang sehat.

Mengapa AI Berhalusinasi?

Tidak ada konsensus tentang mengapa model AI berhalusinasi, meskipun ada beberapa kemungkinan dugaan.

AI dilatih dari kumpulan data yang sangat besar, sering kali mengandung kekurangan seperti kesenjangan pemikiran, variasi arti-penting konten, atau bias yang berbahaya. Pelatihan apa pun dari kumpulan data yang tidak lengkap atau tidak memadai ini dapat menjadi akar halusinasi, bahkan jika iterasi selanjutnya dari kumpulan data menerima kurasi dari ilmuwan data.

Seiring waktu, ilmuwan data dapat membuat informasi lebih akurat dan memasukkan pengetahuan tambahan untuk mengisi kekosongan dan meminimalkan potensi halusinasi. Pengawas mungkin salah melabeli data. Kode pemrograman mungkin memiliki kesalahan. Memperbaiki item ini sangat penting karena model AI berkembang berdasarkan algoritme pembelajaran mesin.

instagram viewer

Algoritma ini menggunakan data untuk membuat penentuan. Perpanjangan dari ini adalah jaringan saraf AI, yang membuat keputusan baru dari pengalaman pembelajaran mesin hingga menyerupai orisinalitas pikiran manusia lebih akurat. Jaringan ini berisi transformer, yang mengurai hubungan antara titik data yang jauh. Ketika transformer menjadi serba salah, halusinasi dapat terjadi.

Bagaimana Halusinasi AI Memberikan Peluang bagi Peretas

Sayangnya, bukan rahasia umum bahwa AI berhalusinasi, dan AI akan terdengar percaya diri meskipun itu sepenuhnya salah. Ini semua berkontribusi untuk membuat pengguna lebih puas dan percaya dengan AI, dan pelaku ancaman mengandalkan perilaku pengguna ini untuk membuat mereka mengunduh atau memicu serangan mereka.

Misalnya, model AI mungkin berhalusinasi perpustakaan kode palsu dan merekomendasikan agar pengguna mengunduh perpustakaan itu. Kemungkinan model akan terus merekomendasikan perpustakaan halusinasi yang sama ini kepada banyak pengguna yang mengajukan pertanyaan serupa. Jika peretas menemukan halusinasi ini, mereka dapat membuat versi nyata dari pustaka imajiner—tetapi berisi kode berbahaya dan malware. Sekarang, ketika AI terus merekomendasikan pustaka kode, tanpa disadari pengguna akan mengunduh kode peretas.

Mengangkut kode dan program berbahaya dengan memanfaatkan halusinasi AI adalah langkah berikutnya yang tidak mengejutkan bagi pelaku ancaman. Peretas belum tentu menciptakan ancaman dunia maya baru yang tak terhitung jumlahnya—mereka hanya mencari cara baru untuk mengirimkannya tanpa kecurigaan. Halusinasi AI memangsa kenaifan manusia yang sama dengan mengklik tautan email (itulah sebabnya Anda harus melakukannya gunakan alat pemeriksa tautan untuk memverifikasi URL).

Peretas mungkin juga membawanya ke level berikutnya. Jika Anda mencari bantuan pengkodean dan mengunduh kode palsu yang berbahaya, pelaku ancaman juga dapat membuat kode tersebut benar-benar berfungsi, dengan program berbahaya berjalan di latar belakang. Hanya karena itu berfungsi seperti yang Anda perkirakan, bukan berarti itu tidak berbahaya.

Kurangnya pendidikan dapat mendorong Anda untuk mengunduh rekomendasi buatan AI karena perilaku autopilot online. Setiap sektor berada di bawah tekanan budaya untuk mengadopsi AI dalam praktik bisnisnya. Banyak organisasi dan industri yang jauh dari teknologi bermain dengan alat AI dengan sedikit pengalaman dan keamanan siber yang lebih jarang hanya untuk tetap kompetitif.

Cara Tetap Aman Dari Halusinasi AI Senjata

Kemajuan sudah di depan mata. Membuat malware dengan AI generatif mudah dilakukan sebelum perusahaan menyesuaikan kumpulan data serta syarat dan ketentuan untuk mencegah generasi yang tidak etis. Mengetahui kelemahan sosial, teknis, dan pribadi yang mungkin Anda miliki terhadap halusinasi AI yang berbahaya, apa saja cara untuk tetap aman?

Siapa pun di industri ini dapat bekerja untuk menyempurnakan teknologi jaringan saraf dan verifikasi perpustakaan. Harus ada pemeriksaan dan keseimbangan sebelum tanggapan mengenai pengguna akhir. Meskipun ini merupakan kemajuan industri yang diperlukan, Anda juga memiliki peran untuk melindungi diri Anda sendiri dan orang lain dari ancaman AI generatif.

Pengguna rata-rata dapat berlatih mengenali halusinasi AI dengan strategi ini:

  • Menemukan kesalahan ejaan dan tata bahasa.
  • Melihat saat konteks kueri tidak selaras dengan konteks respons.
  • Mengakui ketika gambar berbasis visi komputer tidak cocok dengan bagaimana mata manusia akan melihat konsep tersebut.

Selalu berhati-hati saat mengunduh konten dari internet, bahkan saat direkomendasikan oleh AI. Jika AI merekomendasikan mengunduh kode, jangan melakukannya secara membabi buta; periksa ulasan apa pun untuk memastikan kode tersebut sah dan lihat apakah Anda dapat menemukan informasi tentang pembuatnya.

Perlawanan terbaik terhadap serangan berbasis halusinasi AI adalah pendidikan. Berbicara tentang pengalaman Anda dan membaca bagaimana orang lain memicu halusinasi jahat, baik secara tidak sengaja atau pengujian yang disengaja, sangat berharga dalam menavigasi AI di masa mendatang.

Meningkatkan Keamanan Siber AI

Anda harus berhati-hati dengan apa yang Anda minta saat berbicara dengan AI. Batasi potensi hasil yang berbahaya dengan sespesifik mungkin dan mempertanyakan apa pun yang muncul di layar. Uji kode di lingkungan yang aman dan periksa fakta informasi lain yang tampaknya dapat dipercaya. Selain itu, berkolaborasi dengan orang lain, mendiskusikan pengalaman Anda, dan menyederhanakan jargon tentang AI halusinasi dan ancaman keamanan dunia maya dapat membantu massa menjadi lebih waspada dan tangguh hacker.