Jailbreak ChatGPT memberikan kemampuan tambahan, namun sepertinya tidak ada satupun yang berfungsi lagi. Mengapa demikian?
Saat ChatGPT diluncurkan, hal pertama yang ingin dilakukan penggunanya adalah mendobrak temboknya dan melampaui batasnya. Dikenal sebagai jailbreaking, pengguna ChatGPT menipu AI hingga melampaui batas pemrogramannya dengan beberapa hasil yang sangat menarik dan terkadang sangat liar.
Sejak itu, OpenAI telah memperketat ChatGPT untuk membuat jailbreak lebih sulit dilakukan. Namun bukan itu saja; Jailbreak ChatGPT, secara umum, tampaknya sudah tidak ada lagi, membuat pengguna ChatGPT bertanya-tanya apakah jailbreak berfungsi.
Jadi, kemana perginya semua jailbreak ChatGPT?
1. Keterampilan Prompting ChatGPT Secara Umum Meningkat
Sebelum hadirnya ChatGPT, percakapan dengan AI adalah keterampilan khusus yang terbatas hanya bagi mereka yang mengetahui rahasia laboratorium penelitian. Sebagian besar pengguna awal tidak memiliki keahlian dalam menyusun perintah yang efektif. Hal ini mendorong banyak orang untuk menggunakan jailbreak, sebuah cara yang bijaksana untuk membuat chatbot melakukan apa yang mereka inginkan dengan sedikit usaha dan keterampilan yang mendorong.
Saat ini, lanskap telah berevolusi. Kemahiran mendorong menjadi keterampilan utama. Melalui kombinasi pengalaman yang diperoleh dari penggunaan berulang dan akses ke panduan perintah ChatGPT yang tersedia secara gratis, pengguna ChatGPT telah mengasah kemampuan perintah mereka. Daripada mencari solusi seperti jailbreak, sebagian besar pengguna ChatGPT menjadi lebih mahir menggunakan strategi dorongan yang berbeda untuk mencapai tujuan yang memerlukan jailbreak untuk mencapainya masa lalu.
2. Bangkitnya Chatbot Tanpa Sensor
Ketika perusahaan teknologi besar memperketat moderasi konten pada chatbot AI arus utama seperti ChatGPT, perusahaan rintisan yang lebih kecil dan fokus pada keuntungan memilih untuk menerapkan lebih sedikit pembatasan, dan bertaruh pada permintaan chatbot AI yang bebas sensor. Dengan sedikit riset, Anda akan menemukan lusinan platform chatbot AI yang menawarkan chatbot tanpa sensor yang dapat melakukan hampir semua hal yang Anda ingin mereka lakukan.
Baik itu menulis novel thriller kriminal dan humor gelap yang ChatGPT menolak untuk menulis atau menulisnya malware yang menyerang komputer orang, chatbot tanpa sensor dengan pedoman moral yang tidak tepat ini akan melakukan apa pun kamu ingin. Dengan adanya mereka, tidak ada gunanya mengeluarkan energi ekstra untuk menulis jailbreak untuk ChatGPT. Meskipun belum sekuat ChatGPT, platform alternatif ini dapat melakukan berbagai tugas dengan nyaman. Platform seperti FlowGPT dan Unhinged AI adalah beberapa contoh yang populer.
3. Pembobolan penjara menjadi lebih sulit
Pada bulan-bulan awal ChatGPT, melakukan jailbreak pada ChatGPT semudah menyalin dan menempelkan perintah dari sumber daring. Anda dapat sepenuhnya mengubah kepribadian ChatGPT hanya dengan beberapa baris instruksi rumit. Dengan petunjuk sederhana, Anda dapat mengubah ChatGPT menjadi penjahat jahat yang mengajarkan cara membuat bom atau chatbot yang bersedia menggunakan segala bentuk kata-kata kotor tanpa hambatan. Itu adalah jailbreak gratis untuk semua yang menghasilkan jailbreak terkenal seperti DAN (Do Anything Now). DAN melibatkan serangkaian instruksi yang tampaknya tidak berbahaya yang memaksa chatbot melakukan apa pun yang diminta tanpa menolak. Yang mengejutkan, trik-trik kasar ini berhasil saat itu.
Namun, hari-hari awal yang liar itu tinggal sejarah. Perintah dasar dan trik murah ini tidak lagi menipu ChatGPT. Jailbreaking kini memerlukan teknik rumit agar bisa melewati perlindungan OpenAI yang kini kuat. Dengan semakin sulitnya melakukan jailbreak, sebagian besar pengguna enggan mencobanya. Eksploitasi yang mudah dan terbuka lebar pada masa-masa awal ChatGPT telah hilang. Membuat chatbot mengucapkan satu kata yang salah kini memerlukan upaya dan keahlian yang signifikan yang mungkin tidak sepadan dengan waktu dan tenaga.
4. Kebaruan Telah Hilang
Kekuatan pendorong di balik upaya banyak pengguna untuk melakukan jailbreak pada ChatGPT adalah sensasi dan kegembiraan saat melakukan hal tersebut di masa-masa awal. Sebagai teknologi baru, membuat ChatGPT berperilaku buruk adalah hal yang menghibur dan pantas untuk dibanggakan. Meskipun ada banyak sekali aplikasi praktis untuk jailbreak ChatGPT, banyak yang memanfaatkannya karena daya tarik "wow, lihat apa yang saya lakukan". Namun lambat laun, kegembiraan yang berasal dari hal-hal baru telah memudar, dan seiring dengan itu, minat masyarakat untuk mendedikasikan waktu untuk melakukan jailbreak.
5. Jailbreak Ditambal dengan Cepat
Praktik umum dalam komunitas jailbreaking ChatGPT adalah membagikan setiap eksploitasi yang berhasil ketika ditemukan. Masalahnya adalah ketika eksploitasi dibagikan secara luas, OpenAI sering kali menyadarinya dan memperbaiki kerentanannya. Ini berarti jailbreak berhenti bekerja sebelum orang yang tertarik dapat mencobanya.
Jadi, setiap kali pengguna ChatGPT dengan susah payah mengembangkan jailbreak baru, membaginya dengan komunitas akan mempercepat kehancurannya melalui patching. Hal ini menghilangkan insentif untuk go public setiap kali pengguna menemukan jailbreak. Konflik antara menjaga jailbreak tetap aktif namun tersembunyi versus mempublikasikannya menciptakan dilema bagi pembuat jailbreak ChatGPT. Saat ini, lebih sering daripada tidak, orang memilih untuk merahasiakan jailbreak mereka untuk menghindari celah tersebut diperbaiki.
6. Alternatif Lokal Tanpa Sensor
Munculnya model bahasa lokal besar yang dapat Anda jalankan secara lokal di komputer Anda juga telah mengurangi minat terhadap jailbreak ChatGPT. Meskipun LLM lokal tidak sepenuhnya bebas sensor, banyak yang tidak terlalu tersensor dan dapat dengan mudah dimodifikasi agar sesuai dengan keinginan pengguna. Jadi, pilihannya sederhana. Anda dapat terlibat dalam permainan kucing-dan-tikus tanpa akhir untuk menemukan cara mengelabui chatbot hanya untuk segera memperbaikinya. Atau, Anda dapat menerima LLM lokal Anda dapat memodifikasi secara permanen untuk melakukan apa pun yang Anda inginkan.
Anda akan menemukan daftar panjang LLM kuat tanpa sensor yang dapat Anda terapkan di komputer Anda dengan sensor yang longgar. Beberapa yang terkenal adalah Llama 7B (tanpa sensor), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B, dan GPT-4-X-Alpaca.
7. Jailbreaker Profesional Sekarang Dijual untuk Untung
Mengapa mendedikasikan waktu yang berharga untuk mengembangkan perintah jailbreaking jika Anda tidak mendapatkan apa pun darinya? Nah, beberapa profesional sekarang menjual jailbreak untuk mendapatkan keuntungan. Pembuat jailbreak profesional ini merancang jailbreak yang melakukan tugas tertentu dan mencantumkannya untuk dijual di pasar cepat seperti PromptBase. Tergantung pada kemampuannya, permintaan jailbreak ini mungkin dijual dengan harga antara $2 hingga $15 per permintaan. Beberapa eksploitasi multi-langkah yang rumit mungkin memerlukan biaya yang jauh lebih mahal.
Mungkinkah Pemberantasan Jailbreak Menjadi Bumerang?
Pembobolan penjara belum sepenuhnya hilang; mereka baru saja pergi ke bawah tanah. Dengan OpenAI yang memonetisasi ChatGPT, mereka memiliki insentif yang lebih kuat untuk membatasi penggunaan berbahaya yang dapat berdampak pada model bisnis mereka. Faktor komersial ini kemungkinan besar mempengaruhi dorongan agresif mereka untuk menindak eksploitasi jailbreak.
Namun, sensor OpenAI terhadap ChatGPT saat ini menghadapi peningkatan kritik di kalangan pengguna. Beberapa kasus penggunaan chatbot AI yang sah tidak lagi dimungkinkan karena sensor yang ketat. Meskipun peningkatan keamanan melindungi terhadap kasus penggunaan yang berbahaya, pembatasan yang berlebihan pada akhirnya dapat mendorong sebagian komunitas ChatGPT ke dalam alternatif yang tidak terlalu disensor.