Pada Agustus 2021, Apple mengungkapkan rencananya untuk memindai iPhone untuk gambar pelecehan seksual anak. Langkah tersebut mendapat tepuk tangan dari kelompok perlindungan anak tetapi menimbulkan kekhawatiran di antara pakar privasi dan keamanan bahwa fitur tersebut dapat disalahgunakan.
Apple awalnya berencana untuk memasukkan teknologi pemindaian Materi Pelecehan Seksual Anak (CSAM) di iOS 15; itu malah menunda peluncuran fitur tanpa batas untuk meminta umpan balik sebelum rilis penuhnya.
Jadi mengapa fitur deteksi CSAM menjadi bahan perdebatan sengit, dan apa yang membuat Apple menunda peluncurannya?
Apa Fungsi Fitur Pemindaian Foto Apple?
Apple mengumumkan untuk menerapkan fitur pemindaian foto dengan harapan dapat memerangi pelecehan seksual terhadap anak. Semua foto di perangkat pengguna Apple akan dipindai untuk konten pedofilia menggunakan algoritma "NueralHash" yang dibuat oleh Apple.
Selain itu, setiap perangkat Apple yang digunakan oleh anak-anak akan memiliki fitur keamanan yang akan otomatis mengaburkan gambar dewasa jika diterima oleh seorang anak, dan pengguna akan diperingatkan dua kali jika mereka mencoba membuka mereka.
Selain meminimalkan paparan konten dewasa, jika orang tua mendaftarkan perangkat milik anaknya untuk keamanan tambahan, orang tua akan diberi tahu jika anak menerima konten eksplisit dari siapa pun on line.
Baca selengkapnya: Yang Perlu Anda Ketahui Tentang Perlindungan Keamanan Anak Apple
Sedangkan untuk orang dewasa yang menggunakan Siri untuk mencari apa pun yang menseksualisasikan anak-anak, Siri tidak akan melakukan pencarian itu dan menyarankan alternatif lain.
Data dari perangkat apa pun yang berisi 10 foto atau lebih yang dianggap mencurigakan oleh algoritme akan didekripsi dan ditinjau oleh manusia.
Jika foto-foto itu atau lainnya di perangkat ternyata cocok dengan apa pun dari database yang disediakan oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi, itu akan dilaporkan ke pihak berwenang dan akun pengguna akan ditangguhkan.
Kekhawatiran Utama Mengenai Fitur Pemindaian Foto
Fitur deteksi CSAM akan ditayangkan dengan peluncuran iOS 15 pada September 2021, tetapi di muka protes luas, Apple memutuskan untuk mengambil lebih banyak waktu untuk mengumpulkan umpan balik dan membuat perbaikan ini fitur. Di sini adalah Pernyataan lengkap Apple pada penundaan:
"Bulan lalu kami mengumumkan rencana untuk fitur yang dimaksudkan untuk membantu melindungi anak-anak dari pemangsa yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka, dan membatasi penyebaran Pelecehan Seksual Anak Bahan.
Berdasarkan umpan balik dari pelanggan, kelompok advokasi, peneliti, dan lainnya, kami telah memutuskan untuk mengambil waktu tambahan bulan-bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis keselamatan anak yang sangat penting ini fitur".
Hampir setengah dari kekhawatiran terkait fitur pemindaian foto Apple berkisar pada privasi; argumen lainnya termasuk kemungkinan ketidakakuratan algoritma dan potensi penyalahgunaan sistem atau celahnya.
Mari kita bagi menjadi empat bagian.
Potensi Penyalahgunaan
Mengetahui bahwa materi apa pun yang cocok dengan pornografi anak atau gambar pelecehan seksual anak yang diketahui akan memasukkan perangkat ke dalam daftar "mencurigakan" dapat membuat penjahat dunia maya bergerak.
Mereka dapat dengan sengaja membombardir seseorang dengan konten yang tidak pantas melalui iMessage, WhatsApp, atau cara lain apa pun dan membuat akun orang tersebut ditangguhkan.
Apple telah meyakinkan bahwa pengguna dapat mengajukan banding jika akun mereka ditangguhkan karena kesalahpahaman.
Penyalahgunaan Orang Dalam
Meskipun dirancang untuk tujuan yang baik, fitur ini dapat berubah menjadi bencana total bagi orang-orang tertentu jika perangkat mereka terdaftar ke dalam sistem, dengan atau tanpa sepengetahuan mereka, oleh kerabat yang tertarik untuk memantau komunikasi mereka.
Bahkan jika itu tidak terjadi, Apple telah membuat pintu belakang untuk membuat data pengguna dapat diakses di penghujung hari. Sekarang ini masalah motivasi dan tekad orang untuk mengakses informasi pribadi orang lain.
Terkait: Apa Itu Backdoor dan Apa Fungsinya?
Itu tidak hanya memfasilitasi pelanggaran besar terhadap privasi, tetapi juga membuka jalan bagi penyalahgunaan, racun, atau pengendalian kerabat, wali, teman, kekasih, pengasuh, dan mantan untuk lebih menyerang ruang pribadi seseorang atau membatasi mereka kebebasan.
Di satu sisi, ini dimaksudkan untuk memerangi pelecehan seksual terhadap anak; di sisi lain, itu dapat digunakan untuk lebih melanggengkan jenis pelecehan lainnya.
Pengawasan Pemerintah
Apple selalu menggembar-gemborkan dirinya sebagai merek yang lebih sadar privasi daripada pesaingnya. Tapi sekarang, mungkin memasuki lereng licin karena harus memenuhi tuntutan transparansi yang tidak pernah berakhir di data pengguna oleh pemerintah.
Sistem yang dibuatnya untuk mendeteksi konten pedofilia dapat digunakan untuk mendeteksi konten apa pun di ponsel. Itu berarti pemerintah dengan mentalitas kultus dapat memantau pengguna pada tingkat yang lebih pribadi jika mereka mendapatkannya.
Menindas atau tidak, keterlibatan pemerintah dalam kehidupan sehari-hari dan pribadi Anda bisa menakutkan, dan merupakan pelanggaran privasi Anda. Gagasan bahwa Anda hanya perlu khawatir tentang invasi seperti itu jika Anda telah melakukan sesuatu yang salah adalah pemikiran yang salah, dan gagal untuk melihat lereng licin yang disebutkan di atas.
Alarm Palsu
Salah satu kekhawatiran terbesar dalam menggunakan algoritme untuk mencocokkan gambar dengan database adalah alarm palsu. Algoritme hash dapat salah mengidentifikasi dua foto sebagai kecocokan meskipun keduanya tidak sama. Kesalahan ini, yang disebut "tabrakan", sangat mengkhawatirkan dalam konteks konten pelecehan seksual terhadap anak.
Para peneliti menemukan beberapa tabrakan di "NeuralHash" setelah Apple mengumumkan akan menggunakan algoritma untuk memindai gambar. Apple menjawab pertanyaan tentang alarm palsu dengan menunjukkan bahwa hasilnya akan ditinjau oleh manusia pada akhirnya, sehingga orang tidak perlu khawatir tentang hal itu.
Apakah Jeda CSAM Apple Permanen?
Ada banyak pro dan kontra dari fitur yang diusulkan Apple. Masing-masing dari mereka asli dan memiliki bobot. Masih belum jelas perubahan spesifik apa yang dapat diperkenalkan Apple pada fitur pemindaian CSAM untuk memuaskan para pengkritiknya.
Itu bisa membatasi pemindaian ke album iCloud bersama alih-alih melibatkan perangkat pengguna. Sangat tidak mungkin bagi Apple untuk membatalkan rencana ini sama sekali karena perusahaan biasanya tidak cenderung menyerah pada rencananya.
Namun, jelas dari reaksi yang meluas dan Apple menunda rencananya, bahwa perusahaan harus memasukkan komunitas riset sejak awal, terutama untuk yang belum teruji teknologi.
Anak-anak adalah target utama predator online dan cyberbullies. Kiat praktis ini dapat mengajari orang tua cara menjaga mereka tetap aman saat online.
Baca Selanjutnya
- Keamanan
- iPhone
- Privasi Ponsel Cerdas
- apel
- Privasi Daring
- Pengawasan
Fawad adalah seorang insinyur IT & Komunikasi, calon pengusaha, dan seorang penulis. Dia memasuki arena penulisan konten pada tahun 2017 dan telah bekerja dengan dua agensi pemasaran digital dan banyak klien B2B & B2C sejak saat itu. Dia menulis tentang Keamanan dan Teknologi di MUO, dengan tujuan untuk mendidik, menghibur, dan melibatkan penonton.
Berlangganan newsletter kami
Bergabunglah dengan buletin kami untuk kiat teknologi, ulasan, ebook gratis, dan penawaran eksklusif!
Klik di sini untuk berlangganan