
Ilustrasi
Ilustrasi
Cyberthreat.id - Meskipun mendapat reaksi keras dari pelanggan dan pendukung privasi, Apple bertahan pada rencananya untuk tetap memindai ponsel pengguna guna mencari materi pelecehan seksual anak (CSAM).
Teknologi yang disebut neuralMatch, akan memindai gambar sebelum diunggah ke penyimpanan iCloud. Sistem akan mencocoknya dengan materi penyalahgunaan yang pernah terjadi sebelumnya dan telah diperkenalkan untuk melatih sistem kecerdasan buatan Apple.
Para kritikus telah memperingatkan, upaya itu bisa menjadi semacam "pintu belakang" untuk memata-matai orang, dan lebih dari 5.000 orang dan organisasi telah menandatangani surat terbuka menentang teknologi tersebut, tulis BBC.
Akibatnya, Apple telah berjanji untuk tidak "memperluas" sistem dengan alasan apa pun.
Pekan lalu, juru kampanye privasi digital memperingatkan bahwa pemerintah otoriter dapat menggunakan teknologi tersebut untuk mendukung rezim anti-LGBT, atau menindak pembangkang politik di negara-negara di mana protes dianggap ilegal.
Namun Apple mengatakan akan "tidak akan menyetujui permintaan pemerintah mana pun untuk memperluas" sistem tersebut.
Apple lalu menerbitkan dokumen tanya-jawab, mengatakan sistem barunya itu memiliki banyak perlindungan di tempat untuk menghentikan sistemnya digunakan untuk apa pun selain deteksi citra pelecehan anak.
"Kami telah menghadapi tuntutan untuk membangun dan menerapkan perubahan yang diamanatkan pemerintah yang menurunkan privasi pengguna sebelumnya, dan dengan tegas menolak tuntutan itu. Kami akan terus menolaknya di masa depan," katanya.
Namun, Apple telah membuat beberapa konsesi di masa lalu agar tetap beroperasi di sejumlah negara otoriter.
Malam Tahun Baru lalu, raksasa teknologi itu menghapus 39.000 aplikasi dari App Store China di tengah tindakan keras terhadap game tanpa izin oleh pihak berwenang di negara tersebut.
Apple juga mengatakan alat anti-CSAM tidak akan memungkinkan perusahaan melihat atau memindai album foto pengguna, melainkan hanya akan memindai foto yang dibagikan di iCloud.
"Sistem akan mencari kecocokan, dengan aman di perangkat, berdasarkan database hash dari gambar CSAM yang diketahui yang disediakan oleh organisasi keselamatan anak," kata Apple.
Apple juga mengklaim hampir tidak mungkin untuk secara tidak benar menandai orang yang tidak bersalah ke polisi.
"Kemungkinan bahwa sistem akan salah menandai akun tertentu kurang dari satu dalam satu triliun per tahun," katanya.
Selain itu, kata Apple, akan ada peninjauan lanjutan oleh manusia untuk setiap kecocokan yang ditemukan oleh mesin pemindai.
Pendukung privasi, bagaimanapun, berpendapat bahwa satu-satunya hal yang mencegah teknologi itu disalahgunakan adalah janji Apple bahwa itu tidak akan terjadi.
Kelompok hak digital Electronic Frontier Foundation, misalnya, mengatakan bahwa "yang diperlukan adalah perluasan parameter pembelajaran mesin untuk mencari jenis konten tambahan".
"Itu bukan lereng yang licin; itu adalah sistem yang dibangun sepenuhnya hanya menunggu tekanan eksternal untuk membuat perubahan sekecil apa pun."
Apple juga memberikan jaminan mengenai fitur baru lainnya yang akan memperingatkan anak-anak dan orang tua mereka menggunakan akun keluarga yang ditautkan, ketika foto seksual eksplisit dikirim atau diterima.
Perusahaan mengatakan dua fitur barunya tidak menggunakan teknologi yang sama, dan mengatakan "tidak akan pernah" mendapatkan akses ke komunikasi pribadi pengguna.
Meskipun ada reaksi keras terkait pengumuman Apple dari para pendukung privasi, beberapa politisi menyambut baik teknologi baru tersebut.
Menteri Kesehatan Inggris Sajid Javid mengatakan sudah waktunya bagi perusahaan teknologi lain, terutama Facebook, untuk mengikutinya.[]
Share: