Kecerdasan Buatan (AI) sama kontroversialnya dengan mengesankan. Ini dapat membuat banyak bagian pekerjaan dan kehidupan sehari-hari menjadi lebih mudah, tetapi juga menimbulkan beberapa pertanyaan etis. Penggunaan AI oleh pemerintah AS, khususnya, membuat beberapa orang merasa tidak nyaman.

Ada banyak proyek AI pemerintah yang digunakan atau dikembangkan saat ini, dan beberapa telah melakukan banyak hal baik. Pada saat yang sama, mereka mengangkat banyak masalah privasi kecerdasan buatan. Berikut ini adalah melihat lebih dekat pada proyek-proyek ini dan apa artinya bagi privasi publik.

Contoh Proyek AI dan Otomasi Pemerintah

Contoh paling dasar dari kecerdasan buatan yang digunakan oleh pemerintah AS melibatkan otomatisasi pekerjaan kantor rutin. Pada tahun 2019, Seattle menggunakan Otomatisasi Proses Robotik (RPA) untuk mengurus entri data dan aplikasi pengolahan. Sejak itu, kota ini berhasil melewati lebih dari 6.000 aplikasi yang tertunda dan menghemat ratusan jam kerja.

Proyek AI pemerintah lainnya lebih menarik. Departemen Pemadam Kebakaran New York sedang menguji anjing robot dari

instagram viewer
Dinamika Boston untuk mengukur kerusakan struktural dan asap beracun sebelum petugas pemadam kebakaran masuk. Sebelum proyek robot pemadam kebakaran, Departemen Kepolisian New York telah merencanakan untuk mengimplementasikan robot yang sama.

Departemen kepolisian dan lembaga pemerintah lainnya di seluruh negeri sedang mempertimbangkan untuk menggunakan teknologi serupa. Namun, saat proyek AI pemerintah ini diluncurkan, potensi kekurangan privasi mereka menjadi lebih jelas.

Apakah Kecerdasan Buatan Ancaman terhadap Privasi dan Keamanan?

Apakah Anda akan melihat robot polisi di masa depan masih belum pasti, tetapi hal-hal tampaknya menuju ke arah itu. Proyek-proyek ini memiliki banyak manfaat, tetapi masalah privasi kecerdasan buatan menjadi lebih serius ketika berhadapan dengan pemerintah. Berikut adalah beberapa masalah terbesar dengan teknologi ini.

Kecerdasan buatan bergantung pada pengumpulan dan analisis data. Akibatnya, semakin banyak proyek AI pemerintah berarti lembaga-lembaga ini akan mengumpulkan dan menyimpan informasi tambahan tentang warganya. Beberapa orang merasa seperti mengumpulkan semua informasi ini melanggar privasi mereka dan melanggar haknya.

Teknologi seperti proyek anjing pemadam kebakaran sangat memprihatinkan karena dapat membuat pengawasan pemerintah menyesatkan. Agen mengatakan robot itu ada untuk memeriksa masalah keamanan, tetapi tidak ada cara bagi orang untuk memberi tahu data apa yang dikumpulkannya. Itu bisa memiliki kamera dan sensor yang memindai wajah mereka atau melacak ponsel mereka tanpa mereka sadari.

Beberapa orang khawatir bahwa "faktor keren" robot akan menyembunyikan potensi pengawasan mereka. Robot polisi di masa depan dapat memata-matai warga tanpa menimbulkan banyak kecurigaan karena orang hanya melihat teknologi baru alih-alih melanggar privasi mereka.

Tanggung Jawab Tidak Jelas

Proyek AI dan otomatisasi ini juga menimbulkan pertanyaan tentang akuntabilitas. Jika robot melakukan kesalahan yang mengakibatkan kerugian, siapa yang bertanggung jawab? Ketika seorang pegawai pemerintah melampaui batas dan melanggar hak seseorang, pengadilan dapat meminta pertanggungjawaban mereka, tetapi bagaimana dengan robot?

Anda dapat melihat masalah ini di mobil self-driving. Orang-orang telah menagih produsen di bawah klaim kewajiban produk dalam beberapa kasus kecelakaan autopilot, sementara yang lain menyalahkan pengemudi. Dalam satu contoh, Dewan Keselamatan Transportasi Nasional menempatkan tanggung jawab pada produsen dan pengemudi, tetapi pada akhirnya harus diputuskan berdasarkan kasus per kasus. Robot polisi mengeruhkan air dengan cara yang sama. Jika mereka melanggar privasi Anda, tidak jelas apakah harus menyalahkan pabrikan, departemen kepolisian, atau pengawas manusia.

Kebingungan ini dapat memperlambat dan mempersulit proses hukum. Mungkin butuh beberapa saat bagi korban pelanggaran privasi atau pelanggaran hak mereka untuk mendapatkan keadilan yang layak mereka dapatkan. Undang-undang baru dan preseden hukum dapat mengklarifikasi banyak hal dan menyelesaikan masalah ini, tetapi saat ini, itu tidak pasti.

Risiko Pelanggaran Data

Kecerdasan buatan yang digunakan oleh pemerintah AS juga dapat memperluas masalah privasi AI yang Anda lihat di sektor swasta. Mengumpulkan beberapa data mungkin benar-benar legal, tetapi semakin banyak organisasi mengumpulkan, semakin berisiko. Perusahaan atau pemerintah tidak boleh menggunakan informasi tersebut untuk hal-hal yang ilegal, tetapi dapat membuat orang rentan terhadap kejahatan dunia maya.

Ada lebih dari 28.000 serangan siber melawan pemerintah AS pada tahun 2019 saja. Jika lembaga menyimpan lebih banyak informasi pribadi warga, serangan ini dapat memengaruhi lebih dari sekadar pemerintah. Pelanggaran data yang berhasil dapat membahayakan banyak orang tanpa mereka sadari. Pelanggaran sering tidak diperhatikan, jadi Anda perlu periksa data Anda belum dijual.

Misalnya, jika robot polisi di masa depan menggunakan pengenalan wajah untuk mencari penjahat yang dicari, mungkin menyimpan banyak data biometrik warga. Peretas yang masuk ke sistem dapat mencuri informasi itu dan menggunakannya untuk membobol rekening bank orang. Proyek AI pemerintah harus memiliki langkah keamanan siber yang kuat jika tidak ingin membahayakan data orang.

AI Pemerintah Memiliki Manfaat tetapi Menimbulkan Kekhawatiran

Masih belum jelas bagaimana pemerintah Amerika akan menggunakan kecerdasan buatan di masa depan. Perlindungan dan undang-undang baru dapat menyelesaikan masalah ini dan memberikan semua manfaat AI tanpa risikonya. Namun, untuk saat ini, kekhawatiran ini menimbulkan beberapa kekhawatiran.

Masalah privasi berlimpah di mana pun AI bekerja. Pertanyaan-pertanyaan ini menjadi lebih serius karena memainkan peran yang lebih besar di pemerintahan. Proyek AI negara dapat melakukan banyak hal baik, tetapi mereka juga memiliki potensi bahaya yang besar.

Microsoft Memperingatkan Bahwa "1984" Dapat Menjadi Kenyataan dalam Waktu Tiga Tahun

Baca Selanjutnya

MembagikanMenciakMembagikanSurel

Topik-topik yang berkaitan

  • Keamanan
  • Kecerdasan buatan
  • Privasi Daring

Tentang Penulis

Shannon Flynn (79 Artikel Diterbitkan)

Shannon adalah pembuat konten yang berlokasi di Philly, PA. Dia telah menulis di bidang teknologi selama sekitar 5 tahun setelah lulus dengan gelar di bidang IT. Shannon adalah Managing Editor Majalah ReHack dan membahas topik-topik seperti keamanan siber, game, dan teknologi bisnis.

More From Shannon Flynn

Berlangganan newsletter kami

Bergabunglah dengan buletin kami untuk kiat teknologi, ulasan, ebook gratis, dan penawaran eksklusif!

Klik di sini untuk berlangganan