JAKARTA : Apple akan memperkenalkan sistem baru. Sistem ini akan memindai foto di iPhone untuk mendeteksi imagery pelecehan terhadap anak. Apple telah mengonfirmasi rencana itu yang memperkuat klaim sebelumnya, di mana pemindaian akan dilakukan pada perangkat, bukan di cloud.
Memindai foto dianggap masih teras seperti pelangaran privasi, namun setidaknya itu dilakukan di perangkat Anda. “Metode Apple untuk mendeteksi CSAM yang diketahui dirancang dengan mempertimbangkan privasi pengguna. Alih-alih memindai gambar di cloud, sistem melakukan pencocokan di perangkat menggunakan database hash gambar CSAM yang diketahui yang disediakan oleh NCMEC dan organisasi keselamatan anak lainnya. Apple selanjutnya mengubah basis data ini menjadi kumpulan hash yang tidak dapat dibaca yang disimpan dengan aman di perangkat pengguna," kata Apple.
BACA JUGA : Rossi Pensiun dari MotoGP, Ungkap Hal yang Dirindukan
Apple juga mengklaim sistem lain yang mereka gunakan juga akan mengurangi kemungkinan akun salah ditandai. “Menggunakan teknologi lain yang disebut berbagi rahasia ambang batas, sistem memastikan isi voucher keamanan tidak dapat ditafsirkan oleh Apple kecuali akun Foto iCloud melewati ambang batas konten CSAM yang diketahui. Ambang ditetapkan untuk memberikan tingkat akurasi yang sangat tinggi dan memastikan kurang dari satu dalam satu triliun peluang per tahun untuk salah menandai akun tertentu,” terangnya.
Perusahaan mengklaim setelah konten ditandai, mereka kemudian akan meninjaunya secara manual untuk memastikannya cocok dengan gambar sebelum mengirimnya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi.
(ADI)