Gagasan bahwa teknologi AI harus diatur adalah sentimen umum. Sebagian besar pemerintah, pengembang produk AI, dan bahkan pengguna biasa produk AI menyetujui hal ini. Sayangnya, cara terbaik untuk mengatur bidang yang berkembang pesat ini adalah teka-teki yang belum terpecahkan.
Jika dibiarkan, teknologi AI dapat mengganggu cara hidup kita secara negatif dan mengancam keberadaan kita. Tapi bagaimana pemerintah dapat menavigasi labirin tantangan yang datang dengan bidang yang berkembang pesat ini?
1. Peraturan Privasi dan Perlindungan Data
Salah satu perhatian utama dengan teknologi AI adalah privasi dan keamanan data. Sistem kecerdasan buatan adalah mesin yang haus data. Mereka membutuhkan data untuk beroperasi, lebih banyak data agar efisien, dan bahkan lebih banyak data untuk ditingkatkan. Meskipun ini bukan masalah, cara sumber data ini, sifatnya, dan cara pemrosesan serta penyimpanannya adalah salah satu poin pembicaraan terbesar seputar regulasi AI.
Mempertimbangkan hal ini, jalur logis yang harus diambil adalah menerapkan peraturan privasi data yang ketat yang mengatur data pengumpulan, penyimpanan, dan pemrosesan, serta hak individu—yang datanya digunakan—untuk mengakses dan mengontrol data mereka. Pertanyaan yang mungkin akan dijawab oleh peraturan ini adalah:
- Data seperti apa yang bisa dikumpulkan?
- Haruskah beberapa data pribadi dianggap tabu di AI?
- Bagaimana seharusnya perusahaan AI menangani data pribadi yang sensitif, seperti catatan kesehatan atau informasi biometrik?
- Haruskah perusahaan AI diharuskan menerapkan mekanisme bagi individu untuk meminta penghapusan atau koreksi data pribadi mereka dengan mudah?
- Apa konsekuensi bagi perusahaan AI yang gagal mematuhi peraturan privasi data? Bagaimana kepatuhan harus dipantau, dan bagaimana penegakan harus dipastikan?
- Mungkin yang paling penting, standar apa yang harus diterapkan oleh perusahaan AI untuk memastikan keamanan sifat sensitif dari informasi yang mereka miliki?
Pertanyaan-pertanyaan ini dan beberapa lainnya membentuk inti dari mengapa ChatGPT untuk sementara dilarang di Italia. Kecuali kekhawatiran ini ditangani, ruang kecerdasan buatan mungkin menjadi tempat liar untuk privasi data, dan larangan Italia mungkin berubah menjadi template untuk larangan oleh negara lain di seluruh dunia.
2. Pengembangan Kerangka AI Etis
Perusahaan AI sering membual tentang komitmen mereka terhadap pedoman etika dalam mengembangkan sistem AI. Setidaknya di atas kertas, mereka semua adalah pendukung pengembangan AI yang bertanggung jawab. Di media, eksekutif Google telah menekankan bagaimana perusahaan menganggap serius keselamatan dan etika AI. Demikian pula, "AI yang aman dan etis" adalah mantra untuk CEO OpenAI, Sam Altman. Ini cukup bertepuk tangan.
Tapi siapa yang membuat aturan? Siapa yang memutuskan pedoman etis AI mana yang cukup baik? Siapa yang memutuskan seperti apa pengembangan AI yang aman itu? Saat ini, setiap perusahaan AI tampaknya memiliki putarannya sendiri dalam pengembangan AI yang bertanggung jawab dan etis. OpenAI, Antropik, Google, Meta, Microsoft, semuanya. Hanya mengandalkan perusahaan AI untuk melakukan hal yang benar itu berbahaya.
Itu konsekuensi dari ruang AI yang tidak terkendali dapat menjadi bencana besar. Membiarkan masing-masing perusahaan memutuskan pedoman etika apa yang akan diadopsi dan mana yang harus dibuang sama dengan berjalan dalam tidur menuju kiamat AI. Solusinya? Kerangka kerja AI etis yang jelas yang memastikan:
- Sistem AI tidak merugikan atau mendiskriminasi individu atau kelompok tertentu secara tidak adil berdasarkan ras, jenis kelamin, atau status sosial ekonomi.
- Sistem AI aman, terjamin, dan andal, serta meminimalkan risiko konsekuensi yang tidak diinginkan atau perilaku berbahaya.
- Sistem AI dibangun dengan mempertimbangkan dampak sosial yang lebih luas dari teknologi AI.
- Bahwa manusia mempertahankan kendali penuh atas sistem AI dan pengambilan keputusan mereka secara transparan.
- Sistem AI sengaja dibatasi dengan cara yang menguntungkan bagi manusia.
3. Badan Regulasi Khusus
Karena potensi dampaknya terhadap peradaban manusia, diskusi seputar keamanan AI biasanya sejalan dengan risiko krisis kesehatan atau bencana nuklir. Menghindari potensi insiden nuklir memerlukan badan khusus seperti NRC (Komisi Pengaturan Nuklir) AS. Menghindari risiko krisis kesehatan yang berbahaya mengharuskan pembentukan FDA (Food and Drug Administration)
Demikian pula, untuk memastikan bahwa tidak ada yang salah di ruang AI, diperlukan badan khusus seperti FDA dan NRC karena AI terus membuat terobosan agresif ke semua bidang kehidupan kita. Sayangnya, masalah regulasi AI dalam negeri cukup rumit. Pekerjaan badan pengatur khusus mana pun kemungkinan besar akan sangat sulit tanpa kerja sama lintas batas. Sama seperti NRC (Komisi Pengaturan Nuklir) AS perlu bekerja sama dengan Energi Atom Internasional Agency (IAEA) untuk menjadi yang terbaik, badan pengawas AI dalam negeri yang berdedikasi juga memerlukan analog internasional.
Badan semacam itu akan bertanggung jawab untuk hal-hal berikut:
- Pengembangan regulasi AI
- Memastikan kepatuhan dan penegakan hukum
- Mengawasi proses tinjauan etis proyek AI
- Kolaborasi dan kerja sama lintas negara tentang keamanan dan etika AI
4. Mengatasi Masalah Hak Cipta dan Kekayaan Intelektual
Undang-undang hak cipta dan kerangka hukum yang ada runtuh di hadapan Kecerdasan Buatan. Cara alat AI, terutama alat AI generatif, dirancang membuatnya tampak seperti mesin pelanggaran hak cipta yang didukung secara publik sehingga Anda tidak dapat berbuat apa-apa.
Bagaimana? Nah, banyak sistem AI saat ini dilatih menggunakan materi berhak cipta. Anda tahu, artikel berhak cipta, lagu berhak cipta, gambar berhak cipta, dll. Seperti itulah alat ChatGPT, Bing AI, dan Google Bard dapat melakukan hal-hal mengagumkan yang mereka lakukan.
Meskipun sistem ini jelas memanfaatkan kekayaan intelektual orang, cara sistem AI ini melakukannya tidak ada bedanya dengan manusia yang membaca buku berhak cipta, mendengarkan lagu berhak cipta, atau melihat hak cipta gambar-gambar.
Anda dapat membaca buku berhak cipta, mempelajari fakta-fakta baru darinya, dan menggunakan fakta tersebut sebagai dasar untuk buku Anda sendiri. Anda juga dapat mendengarkan lagu berhak cipta untuk inspirasi membuat musik Anda sendiri. Dalam kedua kasus tersebut, Anda menggunakan materi berhak cipta, tetapi tidak berarti produk turunannya melanggar hak cipta dari materi asli.
Meskipun ini adalah penjelasan logis untuk menjelaskan kekacauan yang dibuat oleh AI terhadap undang-undang hak cipta, hal itu tetap merugikan pemilik hak cipta dan kekayaan intelektual. Mengingat hal tersebut, diperlukan pengaturan untuk:
- Tetapkan dengan jelas tanggung jawab dan tanggung jawab semua pihak yang terlibat dalam siklus hidup sistem AI. Ini termasuk mengklarifikasi peran setiap pihak, mulai dari pengembang AI hingga pengguna akhir, untuk memastikan bahwa mereka bertanggung jawab pihak dimintai pertanggungjawaban atas pelanggaran hak cipta atau pelanggaran kekayaan intelektual yang dilakukan oleh AI sistem.
- Perkuat kerangka kerja hak cipta yang ada dan mungkin perkenalkan undang-undang hak cipta khusus AI.
- Untuk memastikan inovasi di ruang AI sekaligus melindungi hak pencipta asli, AI peraturan harus mendefinisikan kembali konsep penggunaan yang adil dan karya transformatif dalam konteks konten yang dihasilkan AI. Definisi dan pedoman yang lebih jelas diperlukan untuk memastikan bahwa ruang AI dapat terus berkembang dengan tetap menghormati batasan hak cipta. Sangat penting untuk mencapai keseimbangan antara inovasi dan menjaga hak pembuat konten.
- Bersihkan jalur untuk kolaborasi dengan pemegang hak. Jika sistem AI akan menggunakan kekayaan intelektual orang, harus ada jalur atau kerangka kerja yang jelas untuk pengembang AI dan pemilik hak untuk berkolaborasi, terutama dalam hal kompensasi finansial, jika karya turunan dari kekayaan intelektual tersebut dikomersialkan.
Regulasi AI Adalah Perbaikan yang Sangat Dibutuhkan
Sementara kecerdasan buatan telah muncul sebagai perbaikan yang menjanjikan untuk banyak masalah sosial kita, AI sendiri dengan cepat menjadi masalah yang membutuhkan perbaikan segera. Saatnya untuk mundur selangkah, merenung, dan melakukan perbaikan yang diperlukan untuk memastikan dampak positif AI pada masyarakat. Kami sangat membutuhkan kalibrasi ulang mendesak dari pendekatan kami untuk membangun dan menggunakan sistem AI.