Apple Batalkan Rencana Fitur Scan CSAM iPhone
loading...
A
A
A
LAS VEGAS - Rencana Apple untuk bisa memindai gambar di iCloud dengan dalih memberangus penyebaran konten Child Sexual Abuse Material (CSAM) atau pelecehan anak resmi dibatalkan.
Perusahaan telah memastikan bahwa pengembangan rencana kontroversial itu telah dihentikan.
"Kami memutuskan untuk tidak melanjutkan alat deteksi CSAM yang kami usulkan sebelumnya untuk Foto iCloud. Anak-anak dapat dilindungi dengan cara lain tanpa perusahaan harus menyisir data pribadi pengguna," kata Apple dalam sebuah pernyataan dikutip dari Metro, Jumat (9/12/2022).
Lebih lanjut, Apple menyebut akan terus bekerja sama dengan pemerintah, pembela anak, dan bnyak pihak lain untuk membantu melindungi anak dari pelecehan.
Perusahaan asal Cupertino, AS itu juga berjanji akan menjaga hak privasi pengguna dan menjadikan internet tempat yang ramah bagi anak.
Untuk diketahui, pada Agustus 2021, Apple mengumumkan bahkwa pihaknya sedang dalam proses mengembangkan sistem yang akan secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. Rencana ini pun mendapat kecaman dari banyak pihak.
Ini tak lain karena jika rencana tersebut dijalankan, maka Apple dapat melihat isi dari iCloud seseorang dan punya kendali atasnya.
Hal ini jelas bertentangan dengan hak privasi pengguna, meskipun ada juga pihak yang sangat mendukung upaya Apple tersebut.
"Sangat mengecewakan bahwa Apple membatalkan rencana untuk memindai gambar pelecehan seksual anak yang diunggah ke iCloud. Memprihatinkan ketika perusahaan juga menutup mata terhadap materi pelecehan anak yang disimpan dan dibagikan melalui iCloud, kata Richard Collard, Manajer Kebijakan Daring Keselamatan Anak di badan amal anak-anak Inggris, NSPCC.
Perusahaan telah memastikan bahwa pengembangan rencana kontroversial itu telah dihentikan.
"Kami memutuskan untuk tidak melanjutkan alat deteksi CSAM yang kami usulkan sebelumnya untuk Foto iCloud. Anak-anak dapat dilindungi dengan cara lain tanpa perusahaan harus menyisir data pribadi pengguna," kata Apple dalam sebuah pernyataan dikutip dari Metro, Jumat (9/12/2022).
Lebih lanjut, Apple menyebut akan terus bekerja sama dengan pemerintah, pembela anak, dan bnyak pihak lain untuk membantu melindungi anak dari pelecehan.
Perusahaan asal Cupertino, AS itu juga berjanji akan menjaga hak privasi pengguna dan menjadikan internet tempat yang ramah bagi anak.
Untuk diketahui, pada Agustus 2021, Apple mengumumkan bahkwa pihaknya sedang dalam proses mengembangkan sistem yang akan secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. Rencana ini pun mendapat kecaman dari banyak pihak.
Ini tak lain karena jika rencana tersebut dijalankan, maka Apple dapat melihat isi dari iCloud seseorang dan punya kendali atasnya.
Hal ini jelas bertentangan dengan hak privasi pengguna, meskipun ada juga pihak yang sangat mendukung upaya Apple tersebut.
"Sangat mengecewakan bahwa Apple membatalkan rencana untuk memindai gambar pelecehan seksual anak yang diunggah ke iCloud. Memprihatinkan ketika perusahaan juga menutup mata terhadap materi pelecehan anak yang disimpan dan dibagikan melalui iCloud, kata Richard Collard, Manajer Kebijakan Daring Keselamatan Anak di badan amal anak-anak Inggris, NSPCC.