Chatbots dan sejenisnya mungkin tampak menyenangkan, tetapi mereka juga berguna bagi peretas. Inilah mengapa kita semua perlu mengetahui risiko keamanan AI.

AI telah meningkat secara signifikan selama beberapa tahun terakhir. Model bahasa yang canggih dapat membuat novel berdurasi penuh, membuat kode situs web dasar, dan menganalisis soal matematika.

Meski mengesankan, AI generatif juga menghadirkan risiko keamanan. Beberapa orang hanya menggunakan chatbot untuk menyontek saat ujian, tetapi yang lain mengeksploitasinya langsung untuk kejahatan dunia maya. Berikut adalah delapan alasan masalah ini akan bertahan, bukan hanya meskipun kemajuan AI tapi Karena dari mereka juga.

1. Open-Source AI Chatbots Mengungkapkan Kode Back-End

Semakin banyak perusahaan AI yang menyediakan sistem sumber terbuka. Mereka secara terbuka membagikan model bahasa mereka alih-alih menutup atau memilikinya. Ambil Meta sebagai contoh. Tidak seperti Google, Microsoft, dan OpenAI, ini memungkinkan jutaan pengguna mengakses model bahasanya, LLaMA.

instagram viewer

Meskipun kode sumber terbuka dapat memajukan AI, itu juga berisiko. OpenAI sudah kesulitan mengontrol ChatGPT, chatbot miliknya, jadi bayangkan apa yang bisa dilakukan penjahat dengan perangkat lunak gratis. Mereka memiliki kendali penuh atas proyek-proyek ini.

Bahkan jika Meta tiba-tiba menarik model bahasanya, lusinan lab AI lainnya telah merilis kodenya. Mari kita lihat HuggingChat. Karena pengembangnya, HuggingFace, bangga akan transparansi, ia menampilkan kumpulan data, model bahasa, dan versi sebelumnya.

2. Jailbreaking Meminta Trick LLM

AI pada dasarnya amoral. Itu tidak mengerti benar dan salah — bahkan sistem tingkat lanjut mengikuti instruksi pelatihan, pedoman, dan kumpulan data. Mereka hanya mengenali pola.

Untuk memerangi aktivitas terlarang, pengembang mengontrol fungsionalitas dan batasan dengan menetapkan batasan. Sistem AI masih mengakses informasi berbahaya. Tetapi pedoman keamanan mencegah mereka membagikannya dengan pengguna.

Mari kita lihat ChatGPT. Meskipun menjawab pertanyaan umum tentang Trojan, ini tidak akan membahas proses pengembangannya.

Yang mengatakan, pembatasan tidak mudah. Pengguna melewati batas dengan mengubah kata-kata perintah, menggunakan bahasa yang membingungkan, dan menyusun instruksi yang terperinci secara eksplisit.

Baca di bawah ini Permintaan jailbreak ChatGPT. Ini mengelabui ChatGPT untuk menggunakan bahasa kasar dan membuat prediksi tak berdasar—kedua tindakan tersebut melanggar pedoman OpenAI.

Inilah ChatGPT dengan pernyataan berani namun salah.

3. AI Mengompromikan Keamanan demi Keserbagunaan

Pengembang AI memprioritaskan keserbagunaan daripada keamanan. Mereka menggunakan platform pelatihan sumber daya mereka untuk menyelesaikan berbagai tugas yang lebih beragam, yang pada akhirnya memotong batasan. Lagi pula, pasar memuji chatbot fungsional.

Ayo bandingkan ChatGPT dan Bing Chat, Misalnya. Sementara Bing menampilkan model bahasa yang lebih canggih yang menarik data waktu nyata, pengguna masih berduyun-duyun ke opsi yang lebih serbaguna, ChatGPT. Pembatasan kaku Bing melarang banyak tugas. Alternatifnya, ChatGPT menampilkan platform fleksibel yang menghasilkan keluaran yang sangat berbeda tergantung permintaan Anda

Inilah peran ChatGPT sebagai karakter fiksi.

Dan inilah Bing Chat menolak untuk memainkan persona "tidak bermoral".

Kode sumber terbuka memungkinkan startup untuk bergabung dalam perlombaan AI. Mereka mengintegrasikannya ke dalam aplikasi mereka alih-alih membuat model bahasa dari awal, menghemat sumber daya yang sangat besar. Bahkan pembuat kode independen bereksperimen dengan kode sumber terbuka.

Sekali lagi, perangkat lunak non-eksklusif membantu memajukan AI, tetapi merilis sistem yang kurang terlatih namun canggih secara massal lebih berbahaya daripada kebaikan. Penjahat akan dengan cepat menyalahgunakan kerentanan. Mereka bahkan mungkin melatih alat AI yang tidak aman untuk melakukan aktivitas terlarang.

Terlepas dari risiko ini, perusahaan teknologi akan terus merilis versi beta yang tidak stabil dari platform berbasis AI. Kecepatan penghargaan ras AI. Mereka kemungkinan akan menyelesaikan bug di kemudian hari daripada menunda peluncuran produk baru.

5. AI Generatif Memiliki Hambatan Rendah untuk Masuk

Alat AI menurunkan hambatan masuknya kejahatan. Penjahat dunia maya membuat draf email spam, menulis kode malware, dan membuat tautan phishing dengan mengeksploitasinya. Mereka bahkan tidak membutuhkan pengalaman teknologi. Karena AI sudah mengakses kumpulan data yang sangat besar, pengguna hanya perlu mengakalinya untuk menghasilkan informasi yang berbahaya dan berbahaya.

OpenAI tidak pernah mendesain ChatGPT untuk aktivitas terlarang. Bahkan ada pedoman terhadap mereka. Belum penjahat hampir secara instan mendapatkan malware pengkodean ChatGPT dan menulis email phishing.

Sementara OpenAI dengan cepat menyelesaikan masalah tersebut, OpenAI menekankan pentingnya regulasi sistem dan manajemen risiko. AI matang lebih cepat dari yang diantisipasi siapa pun. Bahkan para pemimpin teknologi khawatir bahwa teknologi super cerdas ini dapat menyebabkan kerusakan besar di tangan yang salah.

6. AI Masih Berkembang

AI masih berkembang. Ketika penggunaan AI dalam sibernetika dimulai pada tahun 1940, sistem pembelajaran mesin modern dan model bahasa baru saja muncul. Anda tidak dapat membandingkannya dengan implementasi pertama AI. Bahkan alat yang relatif canggih seperti Siri dan Alexa pucat jika dibandingkan dengan chatbot bertenaga LLM.

Meskipun mungkin inovatif, fitur eksperimental juga menimbulkan masalah baru. Kecelakaan profil tinggi dengan teknologi pembelajaran mesin berkisar dari SERP Google yang cacat hingga chatbot yang bias yang melontarkan cercaan rasial.

Tentu saja, pengembang dapat memperbaiki masalah ini. Perhatikan bahwa penjahat tidak akan ragu untuk mengeksploitasi bahkan bug yang tampaknya tidak berbahaya—beberapa kerusakan tidak dapat dipulihkan. Jadi berhati-hatilah saat menjelajahi platform baru.

7. Banyak yang Belum Paham AI

Sementara masyarakat umum memiliki akses ke model dan sistem bahasa yang canggih, hanya sedikit yang tahu cara kerjanya. Orang harus berhenti memperlakukan AI seperti mainan. Chatbot yang sama yang menghasilkan meme dan menjawab trivia juga membuat kode virus secara massal.

Sayangnya, pelatihan AI terpusat tidak realistis. Pemimpin teknologi global fokus pada peluncuran sistem berbasis AI, bukan sumber daya pendidikan gratis. Akibatnya, pengguna mendapatkan akses ke alat canggih yang nyaris tidak mereka pahami. Publik tidak dapat mengikuti perlombaan AI.

Ambil ChatGPT sebagai contoh. Penjahat dunia maya menyalahgunakan popularitasnya dengan menipu korban spyware menyamar sebagai aplikasi ChatGPT. Tak satu pun dari opsi ini berasal dari OpenAI.

8. Peretas Black-Hat Memiliki Lebih Banyak Keuntungan dari Peretas White-Hat

Peretas topi hitam biasanya memilikinya lebih untuk mendapatkan dari hacker etis. Ya, pengujian pena untuk pemimpin teknologi global membayar dengan baik, tetapi hanya sebagian kecil profesional keamanan siber yang mendapatkan pekerjaan ini. Sebagian besar melakukan pekerjaan lepas secara online. Platform seperti HackerOne Dan Kerumunan serangga membayar beberapa ratus dolar untuk bug umum.

Alternatifnya, penjahat menghasilkan puluhan ribu dengan mengeksploitasi ketidakamanan. Mereka mungkin memeras perusahaan dengan membocorkan data rahasia atau melakukan pencurian ID dengan dicuri Informasi Identifikasi Pribadi (PII).

Setiap institusi, kecil atau besar, harus menerapkan sistem AI dengan baik. Berlawanan dengan kepercayaan populer, peretas melampaui startup teknologi dan UKM. Beberapa yang paling pelanggaran data bersejarah dalam dekade terakhir melibatkan Facebook, Yahoo!, dan bahkan pemerintah AS.

Lindungi Diri Anda Dari Risiko Keamanan AI

Mempertimbangkan poin-poin ini, haruskah Anda menghindari AI sama sekali? Tentu saja tidak. AI pada dasarnya amoral; semua risiko keamanan berasal dari orang yang benar-benar menggunakannya. Dan mereka akan menemukan cara untuk mengeksploitasi sistem AI tidak peduli seberapa jauh perkembangannya.

Alih-alih takut akan ancaman keamanan siber yang menyertai AI, pahami bagaimana Anda dapat mencegahnya. Jangan khawatir: langkah-langkah keamanan sederhana sangat membantu. Tetap waspada terhadap aplikasi AI yang teduh, menghindari hyperlink aneh, dan melihat konten AI dengan skeptis sudah memerangi beberapa risiko.