Para ahli berpikir AI akan mengakhiri umat manusia seperti yang kita ketahui, jadi apa yang dilakukan untuk menghentikannya?
Sekali lagi, sekelompok peneliti AI dan perusahaan teknologi terkemuka telah memperingatkan bahwa perkembangan pesat kecerdasan buatan saat ini dapat menimbulkan bencana bagi umat manusia.
Risikonya mencakup konflik nuklir, penyakit, informasi yang salah, dan AI yang tidak terkendali tanpa pengawasan, yang semuanya menghadirkan ancaman langsung bagi kelangsungan hidup manusia.
Tetapi tidak akan hilang bahwa banyak dari peringatan itu berasal dari orang yang sama yang memimpin pengembangan AI dan mendorong alat dan program kecerdasan buatan di perusahaan masing-masing.
Mengapa Perusahaan Teknologi dan Ilmuwan AI Memperingatkan tentang Risiko AI?
Pada tanggal 30 Mei 2023, lebih dari 350 peneliti, pengembang, dan insinyur AI merilis pernyataan peringatan terhadap ancaman AI terhadap umat manusia.
Mitigasi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir.
Penandatangan ke Pernyataan Safe.ai termasuk Sam Altman dari OpenAI, Demis Hassabis dari Google DeepMind, dan Dario Amodei dari Anthropic, bersama dengan Turing Pemenang penghargaan Geoffrey Hinton dan Yoshua Bengio (meskipun Yann LeCun, yang juga memenangkan penghargaan yang sama, lalai untuk menandatangani). Daftarnya hampir merupakan siapa dari dunia pengembangan AI — orang-orang yang memimpin dengan AI — namun di sinilah mereka semua, memperingatkan bahwa AI dapat menyebabkan bencana bagi umat manusia.
Ini adalah pernyataan singkat yang memperjelas ancaman tersebut, secara khusus mengutip dua bidang utama yang dapat membahayakan dunia seperti yang kita ketahui: perang nuklir dan masalah kesehatan global. Sementara ancaman konflik nuklir mengkhawatirkan, risiko pandemi merupakan ancaman yang lebih nyata bagi kebanyakan orang.
Namun, bukan hanya pandemi global yang dapat menyebabkan masalah kesehatan terkait AI. Penjaga melaporkan beberapa masalah kesehatan AI lainnya yang dapat berdampak pada manusia jika tidak diperiksa sebelum digunakan secara luas. Salah satu contoh terkait dengan penggunaan oksimeter bertenaga AI yang "melebih-lebihkan kadar oksigen darah pada pasien dengan kulit lebih gelap, mengakibatkan hipoksia mereka tidak ditangani dengan baik."
Selain itu, ini bukan pertama kalinya sekelompok pemimpin teknologi menyerukan jeda atau penilaian ulang yang serius terhadap pengembangan AI. Pada Maret 2023, Elon Musk dan peneliti AI lainnya menandatangani ajakan bertindak serupa meminta moratorium pengembangan AI sampai lebih banyak peraturan dapat diterapkan untuk membantu memandu proses tersebut.
Apa Risiko AI?
Sebagian besar risiko yang terkait dengan AI, setidaknya dalam konteks ini, terkait dengan pengembangan teknologi AI yang tidak terkendali yang melebihi kemampuan manusia, yang akhirnya menghidupkan penciptanya dan memusnahkan kehidupan seperti yang kita ketahui dia. Ini adalah cerita yang diliput berkali-kali dalam penulisan fiksi ilmiah, tetapi kenyataannya sekarang lebih dekat dari yang kita kira.
Model bahasa besar (yang mendukung alat seperti ChatGPT) secara drastis meningkatkan kemampuannya. Namun, alat seperti ChatGPT memiliki banyak masalah, seperti bias yang melekat, masalah privasi, dan halusinasi AI, apalagi kemampuannya untuk di-jailbreak untuk bertindak di luar batas syarat dan ketentuan terprogramnya.
Seiring bertambahnya model bahasa besar dan memiliki lebih banyak poin data untuk dipanggil, bersama dengan akses internet dan lebih besar pemahaman tentang peristiwa terkini, para peneliti AI khawatir suatu hari nanti, dalam kata-kata CEO OpenAI Sam Altman, "berjalan cukup salah."
Bagaimana Pemerintah Mengatur Pengembangan AI untuk Menghentikan Risiko?
Regulasi AI adalah kunci untuk mencegah risiko. Pada awal Mei 2023, Sam Altman menyerukan lebih banyak regulasi AI, menyatakan bahwa "intervensi regulasi oleh pemerintah akan sangat penting untuk memitigasi risiko model yang semakin kuat."
Kemudian, Uni Eropa mengumumkan AI Act, sebuah peraturan yang dirancang untuk menyediakan kerangka kerja yang lebih kuat untuk pengembangan AI di seluruh UE (dengan banyak peraturan yang menyebar ke yurisdiksi lain). Altman awalnya mengancam akan menarik OpenAI keluar dari UE, tetapi kemudian membatalkan ancamannya dan setuju bahwa perusahaan akan mematuhi peraturan AI yang dia minta sebelumnya.
Terlepas dari itu, jelas bahwa pengaturan pengembangan dan penggunaan AI itu penting.
Akankah AI Mengakhiri Kemanusiaan?
Karena sebagian besar perdebatan seputar topik ini dibangun di atas hipotetis tentang kekuatan AI versi masa depan, ada masalah seputar umur panjang dan kekuatan yang dapat dimiliki oleh regulasi AI mana pun. Cara terbaik untuk mengatur industri yang sudah bergerak dengan kecepatan ribuan mil per menit dan terobosan dalam pembangunan terjadi setiap hari?
Selain itu, masih ada keraguan tentang kemampuan AI secara umum dan akan berakhir di mana. Sementara mereka yang takut akan titik terburuk kecerdasan umum buatan menjadi penguasa manusia, yang lain menunjuk ke fakta bahwa versi AI saat ini bahkan tidak dapat mengerjakan soal matematika dasar dan bahwa mobil self-driving masih merupakan cara mati.
Sulit untuk tidak setuju dengan mereka yang melihat ke masa depan. Banyak orang yang berteriak paling keras tentang masalah yang mungkin ditimbulkan oleh AI ada di kursi pengemudi, melihat ke mana kita akan menuju. Jika mereka yang menuntut regulasi AI untuk melindungi kita dari masa depan yang berpotensi menghebohkan, mungkin inilah saatnya untuk mendengarkan.