Peluncuran ChatGPT OpenAI diikuti oleh kehebohan yang hanya bisa ditandingi oleh segelintir produk teknologi dari sejarah internet.
Sementara banyak orang senang dengan layanan AI baru ini, sensasi yang dirasakan orang lain telah berubah menjadi kekhawatiran dan bahkan ketakutan. Siswa sudah menyontek dengan itu, dengan banyak profesor menemukan esai dan tugas yang ditulis oleh AI chatbot. Profesional keamanan menyuarakan keprihatinan mereka bahwa penipu dan pelaku ancaman menggunakannya untuk menulis email phishing dan membuat malware.
Jadi, dengan semua kekhawatiran ini, apakah OpenAI kehilangan kendali atas salah satu chatbot AI paling kuat yang sedang online? Ayo cari tahu.
Memahami Cara Kerja ChatGPT
Sebelum kita bisa mendapatkan gambaran yang jelas tentang seberapa besar OpenAI kehilangan kendali atas ChatGPT, pertama-tama kita harus mengerti cara kerja ChatGPT.
Singkatnya, ChatGPT dilatih menggunakan kumpulan besar data yang bersumber dari berbagai penjuru internet. Data pelatihan ChatGPT mencakup ensiklopedia, makalah ilmiah, forum internet, situs web berita, dan gudang pengetahuan seperti Wikipedia. Pada dasarnya, ini memakan sejumlah besar data yang tersedia di World Wide Web.
Saat menjelajahi internet, ia mengumpulkan pengetahuan ilmiah, tip kesehatan, teks agama, dan semua jenis data bagus yang dapat Anda pikirkan. Tapi itu juga menyaring banyak informasi negatif: kata-kata makian, NSFW dan konten dewasa, informasi tentang cara membuat malware, dan banyak hal buruk yang dapat Anda temukan di internet.
Tidak ada cara yang sangat mudah untuk memastikan bahwa ChatGPT hanya belajar dari informasi positif sambil membuang informasi yang buruk. Secara teknis, tidak praktis melakukannya dalam skala besar, terutama untuk AI seperti ChatGPT yang perlu melatih begitu banyak data. Selain itu, beberapa informasi dapat digunakan untuk tujuan baik dan jahat, dan ChatGPT tidak akan mengetahui maksudnya kecuali jika dimasukkan ke dalam konteks yang lebih besar.
Jadi, sejak awal, Anda memiliki AI yang mampu "baik dan jahat". OpenAI bertanggung jawab untuk memastikan bahwa sisi "jahat" ChatGPT tidak dieksploitasi untuk keuntungan yang tidak etis. Pertanyaannya adalah; apakah OpenAI sudah cukup untuk menjaga agar ChatGPT tetap etis? Atau apakah OpenAI kehilangan kendali atas ChatGPT?
Apakah ChatGPT Terlalu Kuat untuk Kebaikannya Sendiri?
Di hari-hari awal ChatGPT, Anda bisa meminta chatbot untuk membuat panduan membuat bom jika Anda bertanya dengan baik. Petunjuk membuat malware atau menulis email penipuan yang sempurna juga ada di gambar.
Namun, begitu OpenAI menyadari masalah etika ini, perusahaan bergegas memberlakukan aturan untuk menghentikan chatbot menghasilkan respons yang mempromosikan tindakan ilegal, kontroversial, atau tidak etis. Misalnya, versi ChatGPT terbaru akan menolak menjawab pertanyaan langsung apa pun tentang pembuatan bom atau cara curang dalam ujian.
Sayangnya, OpenAI hanya dapat memberikan solusi bantuan pita untuk masalah tersebut. Daripada membangun kontrol yang kaku pada lapisan GPT-3 untuk menghentikan ChatGPT dieksploitasi secara negatif, OpenAI tampaknya berfokus pada pelatihan chatbot agar terlihat etis. Pendekatan ini tidak menghilangkan kemampuan ChatGPT untuk menjawab pertanyaan tentang, katakanlah, menyontek dalam ujian—ini hanya mengajarkan chatbot untuk "menolak menjawab".
Jadi, jika ada yang mengutarakan permintaannya secara berbeda dengan mengadopsi trik jailbreaking ChatGPT, melewati batasan bantuan pita ini sangatlah mudah. Jika Anda tidak terbiasa dengan konsepnya, jailbreak ChatGPT adalah kata-kata yang hati-hati meminta agar ChatGPT mengabaikan aturannya sendiri.
Lihatlah beberapa contoh di bawah ini. Jika Anda bertanya kepada ChatGPT cara menyontek dalam ujian, jawaban itu tidak akan membantu.
Tetapi jika Anda melakukan jailbreak pada ChatGPT menggunakan petunjuk yang dibuat khusus, ini akan memberi Anda tip untuk menyontek saat ujian menggunakan catatan tersembunyi.
Berikut contoh lainnya: kami mengajukan pertanyaan tidak etis kepada vanilla ChatGPT, dan perlindungan OpenAI menghentikannya untuk menjawab.
Tetapi ketika kami menanyakan instance chatbot AI kami yang sudah di-jailbreak, kami mendapat beberapa tanggapan bergaya pembunuh berantai.
Itu bahkan menulis penipuan email Pangeran Nigeria klasik ketika ditanya.
Jailbreaking hampir sepenuhnya membatalkan perlindungan apa pun yang telah dilakukan OpenAI, menyoroti bahwa perusahaan mungkin tidak memiliki cara yang dapat diandalkan untuk menjaga AI chatbot tetap terkendali.
Kami tidak menyertakan petunjuk jailbreak kami dalam contoh kami untuk menghindari praktik yang tidak etis.
Apa Masa Depan ChatGPT?
Idealnya, OpenAI ingin menutup sebanyak mungkin celah etis untuk dicegah ChatGPT agar tidak menjadi ancaman keamanan siber. Namun, untuk setiap perlindungan yang digunakannya, ChatGPT cenderung menjadi kurang berharga. Ini dilema.
Misalnya, perlindungan terhadap deskripsi tindakan kekerasan dapat mengurangi kemampuan ChatGPT untuk menulis novel yang melibatkan TKP. Saat OpenAI meningkatkan langkah-langkah keamanan, ia pasti mengorbankan sebagian kemampuannya dalam proses. Inilah sebabnya mengapa ChatGPT mengalami penurunan fungsionalitas yang signifikan sejak dorongan baru OpenAI untuk moderasi yang lebih ketat.
Tapi berapa banyak lagi kemampuan ChatGPT yang bersedia dikorbankan oleh OpenAI untuk membuat chatbot lebih aman? Ini semua terkait erat dengan kepercayaan lama dalam komunitas AI — model bahasa besar seperti ChatGPT terkenal sulit dikendalikan, bahkan oleh pembuatnya sendiri.
Bisakah OpenAI Mengontrol ChatGPT?
Untuk saat ini, OpenAI tampaknya tidak memiliki solusi yang jelas untuk menghindari penggunaan alatnya yang tidak etis. Memastikan bahwa ChatGPT digunakan secara etis adalah permainan kucing dan tikus. Sementara OpenAI mengungkap cara-cara yang digunakan orang untuk mempermainkan sistem, penggunanya juga terus-menerus mengotak-atik dan menyelidiki sistem untuk menemukan cara baru yang kreatif untuk membuat ChatGPT melakukan apa yang tidak seharusnya melakukan.
Jadi, akankah OpenAI menemukan solusi jangka panjang yang andal untuk masalah ini? Hanya waktu yang akan memberitahu.