Apple Batalkan Rencana Fitur Scan CSAM iPhone

Jum'at, 09 Desember 2022 - 17:36 WIB
loading...
Apple Batalkan Rencana...
Apple mengumumkan bahkwa pihaknya sedang dalam proses mengembangkan sistem yang akan secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. FOTO/ IST
A A A
LAS VEGAS - Rencana Apple untuk bisa memindai gambar di iCloud dengan dalih memberangus penyebaran konten Child Sexual Abuse Material (CSAM) atau pelecehan anak resmi dibatalkan.



Perusahaan telah memastikan bahwa pengembangan rencana kontroversial itu telah dihentikan.

"Kami memutuskan untuk tidak melanjutkan alat deteksi CSAM yang kami usulkan sebelumnya untuk Foto iCloud. Anak-anak dapat dilindungi dengan cara lain tanpa perusahaan harus menyisir data pribadi pengguna," kata Apple dalam sebuah pernyataan dikutip dari Metro, Jumat (9/12/2022).

Lebih lanjut, Apple menyebut akan terus bekerja sama dengan pemerintah, pembela anak, dan bnyak pihak lain untuk membantu melindungi anak dari pelecehan.

Perusahaan asal Cupertino, AS itu juga berjanji akan menjaga hak privasi pengguna dan menjadikan internet tempat yang ramah bagi anak.

Untuk diketahui, pada Agustus 2021, Apple mengumumkan bahkwa pihaknya sedang dalam proses mengembangkan sistem yang akan secara otomatis mengenali gambar ilegal saat diunggah ke iCloud dan memberi tahu pihak berwenang. Rencana ini pun mendapat kecaman dari banyak pihak.

Ini tak lain karena jika rencana tersebut dijalankan, maka Apple dapat melihat isi dari iCloud seseorang dan punya kendali atasnya.

Hal ini jelas bertentangan dengan hak privasi pengguna, meskipun ada juga pihak yang sangat mendukung upaya Apple tersebut.

"Sangat mengecewakan bahwa Apple membatalkan rencana untuk memindai gambar pelecehan seksual anak yang diunggah ke iCloud. Memprihatinkan ketika perusahaan juga menutup mata terhadap materi pelecehan anak yang disimpan dan dibagikan melalui iCloud, kata Richard Collard, Manajer Kebijakan Daring Keselamatan Anak di badan amal anak-anak Inggris, NSPCC.

Apple sendiri pada bulan April, telah merilis fitur keselamatan anak untuk mendeteksi ketelanjangan dalam pesan menggunakan kecerdasan buatan (AI).

Fitur ini diluncurkan di AS dan kemudian diperluas ke aplikasi Pesan di iOS, iPadOS, dan macOS di Inggris, Kanada, Selandia Baru, dan Australia.

Apple juga telah memungkinkan orang tua untuk bisa mengaktifkan peringatan pada iPhone anak-anak mereka sehingga semua foto yang dikirim atau diterima oleh anak di Pesan Apple akan dipindai.

Fitur ini juga membuat gambar ketelanjangan akan diblur jika masuk ke perangkat anak.

Apple mungkin menganggap kedua fitur sudah cukup untuk menangkal konten pelecehan anak. Jadi cara yang lebih ekstrim seperti memindai privasi pengguna lewat iCloud dirasa tak perlu lagi dilakukan.
(wbs)
Dapatkan berita terkini dan kejutan menarik dari SINDOnews.com, Klik Disini untuk mendaftarkan diri anda sekarang juga!
Baca Berita Terkait Lainnya
Copyright ©2024 SINDOnews.com
All Rights Reserved
read/ rendering in 0.2709 seconds (0.1#10.140)