AI belum siap untuk memusnahkan kita... belum.
Kecerdasan buatan telah menjadi topik perdebatan sejak awal. Sementara ketakutan akan AI seperti Skynet menjadi hidup dan mengambil alih umat manusia tidak masuk akal, setidaknya, beberapa percobaan telah menghasilkan hasil yang mengkhawatirkan.
Salah satu eksperimen tersebut adalah masalah pemaksimalan penjepit kertas, sebuah eksperimen pemikiran yang menunjukkan bahwa AI yang sangat cerdas, meskipun dirancang sepenuhnya tanpa niat jahat, pada akhirnya dapat menghancurkan umat manusia.
Masalah Paperclip Maximizer Dijelaskan
Eksperimen pemikiran ini yang bahkan AI yang sama sekali tidak berbahaya pada akhirnya dapat memusnahkan umat manusia pertama kali disebut Pemaksimal Klip Kertas hanya karena klip kertas dipilih untuk ditampilkan apa yang dapat dilakukan AI karena mereka memiliki sedikit bahaya yang terlihat dan tidak akan menyebabkan tekanan emosional jika dibandingkan dengan area lain yang terkait dengan masalah ini seperti menyembuhkan kanker atau menang perang.
Eksperimen pertama muncul dalam makalah filsuf Swedia Nick Bostrom tahun 2003, Masalah Etis dalam Kecerdasan Buatan Tingkat Lanjut, yang menyertakan pemaksimal klip kertas untuk menunjukkan risiko eksistensial yang dapat digunakan oleh AI yang cukup canggih.
Masalahnya menghadirkan AI yang tujuan utamanya adalah membuat klip kertas sebanyak mungkin. AI yang cukup cerdas cepat atau lambat akan menyadari bahwa manusia menimbulkan tantangan terhadap tujuannya dalam tiga hal berbeda.
- Manusia bisa mematikan AI.
- Manusia bisa mengubah tujuan mereka.
- Manusia terbuat dari atom, yang dapat diubah menjadi klip kertas.
Dalam ketiga contoh tersebut, akan ada lebih sedikit klip kertas di alam semesta. Oleh karena itu, AI yang cukup cerdas yang tujuan utamanya adalah membuat klip kertas sebanyak mungkin akan mengambil alih semua materi dan energi dalam jangkauan dan mencegah dirinya dari dimatikan atau berubah. Seperti yang mungkin bisa Anda tebak, ini jauh lebih berbahaya daripada penjahat menggunakan ChatGPT untuk meretas rekening bank atau PC Anda.
AI tidak memusuhi manusia; itu hanya acuh tak acuh. AI yang hanya peduli untuk memaksimalkan jumlah penjepit kertas akan memusnahkan umat manusia dan pada dasarnya mengubahnya menjadi penjepit kertas untuk mencapai tujuannya.
Bagaimana Masalah Pemaksimal Klip Kertas Berlaku untuk AI?
Penelitian dan percobaan menyebutkan masalah pemaksimalan penjepit kertas semuanya menyebutkan pengoptimal hipotetis yang sangat kuat atau agen yang sangat cerdas sebagai pihak yang bertindak di sini. Tetap saja, masalahnya berlaku untuk AI selama itu cocok dengan perannya.
Gagasan tentang pemaksimal klip kertas diciptakan untuk menunjukkan beberapa bahaya AI tingkat lanjut. Secara keseluruhan, ini menghadirkan dua masalah.
- Tesis ortogonalitas: Tesis ortogonalitas adalah pandangan bahwa kecerdasan dan motivasi tidak saling bergantung satu sama lain. Artinya, AI dengan tingkat kecerdasan umum yang tinggi mungkin saja tidak mencapai kesimpulan moral yang sama seperti manusia.
- konvergensi instrumental: Konvergensi instrumental didefinisikan sebagai kecenderungan makhluk yang paling cerdas (keduanya manusia dan non-manusia) untuk mengejar sub-tujuan serupa bahkan jika tujuan akhir mereka mungkin sepenuhnya berbeda. Dalam kasus masalah pemaksimalan penjepit kertas, ini berarti bahwa AI pada akhirnya akan mengambil alih setiap sumber daya alam dan memusnahkan umat manusia hanya untuk mencapai tujuannya menciptakan lebih banyak dan lebih banyak lagi klip kertas.
Masalah yang lebih besar yang disoroti oleh pemaksimal klip kertas adalah konvergensi instrumental. Ini juga dapat disorot menggunakan hipotesis Riemann, dalam hal ini AI yang dirancang untuk memecahkan hipotesis mungkin memutuskan untuk mengambil alih semua massa bumi dan mengubahnya menjadi computronium (prosesor komputer yang paling efisien mungkin) untuk membangun superkomputer untuk memecahkan masalah dan mencapai tujuannya. sasaran.
Bostrom sendiri telah menekankan bahwa dia tidak percaya bahwa masalah pemaksimalan penjepit kertas akan pernah menjadi masalah nyata, tetapi niatnya adalah untuk mengilustrasikan bahaya menciptakan mesin superintelijen tanpa mengetahui cara mengontrol atau memprogramnya agar tidak berisiko bagi manusia secara eksistensial makhluk. Sistem AI modern seperti ChatGPT juga bermasalah, tetapi mereka jauh dari sistem AI superintelligent yang dibicarakan dalam masalah maksimalkan penjepit kertas, jadi belum ada alasan untuk panik.
Sistem AI Tingkat Lanjut Membutuhkan Kontrol Unggul
Masalah pemaksimal penjepit kertas selalu mencapai kesimpulan yang sama dan menyoroti masalah pengelolaan sistem yang sangat cerdas dan kuat yang tidak memiliki nilai-nilai kemanusiaan.
Meskipun penggunaan penjepit kertas mungkin merupakan metode yang paling populer untuk mengilustrasikan masalah, ini berlaku untuk sejumlah tugas yang Anda lakukan. dapat diberikan kepada AI baik itu menghilangkan kanker, memenangkan perang, menanam lebih banyak pohon atau tugas lainnya, tidak peduli seberapa kelihatannya bodoh.