Apple mengumumkan rencana untuk memindai konten iCloud Anda untuk materi pelecehan seksual anak (CSAM) pada Agustus 2021 untuk melindungi anak-anak dari pelecehan oleh predator.
Perusahaan berencana meluncurkan fitur deteksi CSAM baru di Foto iCloud yang akan memindai konten tersebut dan melaporkan gambar yang cocok ke Apple dengan tetap menjaga privasi pengguna.
Namun, fitur baru itu mendapat reaksi beragam. Lebih dari setahun sejak pengumuman awal, Apple secara resmi membatalkan rencananya untuk memindai Foto iCloud untuk CSAM.
Apple Menghentikan Rencananya untuk Memindai iCloud untuk Materi Pelecehan Anak
Menurut laporan oleh KABEL, Apple berjalan menjauh dari rencananya untuk memindai iCloud Anda untuk konten pelecehan anak. Alat tersebut akan memindai foto yang disimpan di iCloud untuk menemukan foto yang cocok dengan gambar CSAM yang diketahui seperti yang diidentifikasi oleh organisasi keselamatan anak. Itu kemudian dapat melaporkan gambar-gambar itu karena memiliki gambar CSAM adalah ilegal di sebagian besar yurisdiksi, termasuk AS.
Mengapa Apple Membatalkan Rencananya untuk Memindai Foto iCloud
Setelah pengumuman awal pada tahun 2021, Apple menghadapi reaksi balik dari pelanggan, grup, dan individu yang mendukung privasi dan keamanan digital di seluruh dunia. iPhone biasanya menawarkan keamanan lebih dari perangkat Android, dan banyak yang memandang ini sebagai langkah mundur. Meskipun ini merupakan kemenangan bagi organisasi keselamatan anak, lebih dari 90 kelompok kebijakan menulis surat terbuka kepada Apple di akhir bulan yang sama, memberi tahu perusahaan tersebut untuk membatalkan rencana tersebut.
Surat itu berpendapat bahwa sementara alat itu bermaksud melindungi anak dari kekerasan, itu dapat dimanfaatkan untuk menyensor kebebasan berbicara dan mengancam privasi dan keamanan pengguna. Karena tekanan yang meningkat, Apple menghentikan rencana peluncurannya untuk mengumpulkan umpan balik dan melakukan penyesuaian yang diperlukan pada fitur tersebut. Namun, umpan balik tidak mendukung rencana Apple untuk memindai Foto iCloud, sehingga perusahaan secara resmi menghentikan rencana tersebut untuk selamanya.
Dalam sebuah pernyataan kepada WIRED, perusahaan mengatakan:
"Kita punya... memutuskan untuk tidak melanjutkan dengan alat deteksi CSAM yang kami usulkan sebelumnya untuk Foto iCloud. Anak-anak dapat dilindungi tanpa perusahaan menyisir data pribadi, dan kami akan terus bekerja sama dengan pemerintah, pembela anak, dan perusahaan lain untuk membantu melindungi kaum muda, melindungi hak privasi mereka, dan menjadikan internet sebagai tempat yang lebih aman bagi anak-anak dan bagi kita semua."
Rencana Baru Apple untuk Melindungi Anak-anak
Apple mengalihkan upayanya untuk meningkatkan fitur Keamanan Komunikasi yang diumumkan pada Agustus 2021 dan diluncurkan pada Desember di tahun yang sama.
Keamanan Komunikasi bersifat opsional dan dapat digunakan oleh orang tua dan wali untuk melindungi anak-anak dari mengirim dan menerima gambar seksual eksplisit di iMessage. Fitur ini secara otomatis memburamkan foto tersebut, dan anak akan diperingatkan tentang bahayanya. Itu juga memperingatkan siapa pun jika mereka mencoba mencari CSAM di perangkat Apple.
Dengan dibatalkannya rencana peluncuran alat pendeteksi CSAM, perusahaan berharap dapat meningkatkan fitur ini lebih lanjut dan memperluasnya ke lebih banyak aplikasi komunikasi.