Meresahkan, Aplikasi AI untuk Menelanjangi Wanita Semakin Marak

Sabtu, 09 Desember 2023 - 18:00 WIB
loading...
Meresahkan, Aplikasi AI untuk Menelanjangi Wanita Semakin Marak
Hanya pada bulan September 2023 saja, sebanyak 24 juta orang mengunjungi situs web penelanjangan. (Foto: Hindustan Times)
A A A
JAKARTA - Aplikasi dan situs web yang menggunakan kecerdasan buatan (AI) untuk menelanjangi wanita dalam foto semakin populer. Tren yang mengkhawatirkan ini masuk dalam kategori pornografi non-consensual.

Menurut hasil riset terbaru perusahaan analisis jaringan sosial Graphika, hanya pada bulan September 2023 saja, sebanyak 24 juta orang mengunjungi situs web penelanjangan.

Banyak dari layanan penelanjangan atau nudify ini menggunakan jaringan sosial populer untuk pemasaran. Sebagai contoh, sejak awal tahun ini, jumlah tautan yang mengiklankan aplikasi penelanjangan meningkat lebih dari 2.400 persen di media sosial. “Termasuk di X dan Reddit,” kata para peneliti dikutip dari Hindustan Times, Sabtu (9/12/2023).

Layanan-layanan ini menggunakan kecerdasan buatan untuk merekonstruksi gambar sehingga perempuan yang diambil fotonya tampak telanjang. Deepfake pornography ini sering diambil dari media sosial dan didistribusikan tanpa persetujuan, kendali, atau pengetahuan subjek.



Peningkatan popularitas aplikasi dan situs web untuk menelanjangi wanita ini sejalan dengan dirilisnya beberapa model difusi open source, atau kecerdasan buatan yang dapat menciptakan gambar yang jauh lebih baik daripada yang dibuat beberapa tahun lalu. Karena open source, model-model yang digunakan pengembang aplikasi tersedia secara gratis.

"Anda dapat membuat sesuatu yang benar-benar terlihat realistis," kata Santiago Lakatos, seorang analis di Graphika. Dia mencatat bahwa deepfake sebelumnya seringkali buram.

Salah satu gambar yang diposting di X yang mengiklankan aplikasi penelanjangan menggunakan bahasa yang menunjukkan pelanggan dapat membuat gambar telanjang dan kemudian mengirimkannya kepada orang yang gambarnya di-'undress' secara digital, mendorong pelecehan.

Salah satu aplikasi bahkan membayar konten berbayar di YouTube milik Google dan muncul pertama ketika orang mencari dengan kata nudify.



Juru bicara Google mengatakan perusahaan tidak mengizinkan iklan yang mengandung konten secara eksplisit seksual. “Kami telah meninjau iklan yang bersangkutan dan menghapus yang melanggar kebijakan kami." Sementara X maupun Reddit tidak merespons permintaan komentar.

Selain peningkatan lalu lintas, layanan-layanan ini, beberapa di antaranya membebankan biaya USD9,99 per bulan, mengklaim di situs web mereka memiliki banyak pelanggan. "Mereka melakukan banyak bisnis," kata Lakatos.

Pornografi non-consensual dari figur publik telah lama menjadi momok internet, tetapi para ahli semakin khawatir kemajuan dalam teknologi kecerdasan buatan telah membuat perangkat lunak deepfake lebih mudah dan lebih efektif.

"Kami melihat semakin banyak dari ini dilakukan oleh orang biasa dengan target biasa," kata Eva Galperin, direktur keamanan siber di Electronic Frontier Foundation. "Anda melihat itu di kalangan pelajar sekolah menengah dan orang-orang yang berada di perguruan tinggi."

Banyak korban tidak pernah mengetahui tentang gambar-gambar tersebut, tetapi bahkan bagi yang mengetahuinya mungkin kesulitan untuk membuat penegakan hukum menyelidiki atau menemukan dana untuk menempuh tindakan hukum.

Saat ini belum ada undang-undang federal yang melarang pembuatan pornografi deepfake, meskipun pemerintah AS melarang pembuatan gambar-gambar semacam itu yang melibatkan anak-anak.
Pada November, seorang psikiater anak di Carolina Utara dihukum 40 tahun penjara karena menggunakan aplikasi penelanjangan pada foto-foto pasiennya. Hal ini adalah penuntutan pertama kali dalam undang-undang yang melarang pembuatan deepfake berupa materi pelecehan seksual anak.

TikTok telah memblokir kata kunci undress, istilah pencarian populer yang terkait dengan layanan-layanan ini. Meta Platforms Inc. juga mulai memblokir kata kunci yang terkait dengan pencarian aplikasi penelanjangan.
(msf)
Baca Berita Terkait Lainnya
Copyright ©2024 SINDOnews.com
All Rights Reserved
read/ rendering in 0.2199 seconds (0.1#10.140)