Pakar Ingatkan Bahaya Penyalahgunakan Modifikasi Suara lewat Teknologi AI Voice Generator
loading...
A
A
A
JAKARTA - Teknologi AI cover belakangan viral, karena memungkinkan modifikasi suara seseorang. Misalnya, suara mirip Presiden Jokowi yang menyanyikan (mengkover) lagu seperti Cintamu Sepahit Topi Miring hingga Asmalibrasi. Begitu realistisnya teknologi AI generator ini ternyata justru membuat warganet khawatir.
“Kalau seperti ini justru bikin bahaya nggak sih?” ungkap pemilik akun @sneakeart di Instagram.
“Hati-hati, harus jagain orang tua kalian yang punya WhatsApp dan Facebook, bisa jadi fitnah,” tambah @mart.ibrahim.
“AI meresahkan. Harus ada sistem yang bisa bedain, mana yang bener dan mana yang hoaks (buatan AI),” beber warganet lainnya.
”Tunggu saja 2024, bakal keluar banyak ‘rekaman’ suara seperti ini. Ditambah hype Pilpres, masyarakat gampang diadu domba dan minim literasi, juga ngecek keaslian sesuatu,” curhat @rhafilmrh.
Cara kerja teknologi AI voice generators beragam. Pengguna, misalnya, bisa mengubah tulisan menjadi suara atau audio dalam hitungan detik (model text-to-speech). Atau, bisa juga mengubah suara apapun menjadi mirip dengan suara public figure seperti Presiden atau penyanyi.
Pengguna juga bisa langsung memasukkan suara AI ke dalam video sebagai narasi. Tentu saja, sangat mungkin suara tokoh terkenal nantinya digunakan untuk menyebarkan ujaran kebencian (hate speech), propaganda politik, hingga melakukan penipuan.
Hal tersebut yang dikhawatirkan oleh pakar keamanan siber dan pendiri Vaksincom Alfons Tanujaya. Alfons mengatakan, teknologi AI ini sangat berbahaya apabila disalahgunakan untuk memalsukan atau memanipulasi video.
“Kemampuan AI ini sudah mencapai taraf yang sangat tinggi dan sulit bagi orang awam atau yang tidak berpengalaman membedakan konten media yang dimanipulasi dengan aslinya,” ujar Alfons saat dihubungi SINDONews.
Hal tersebut, menurut Alfons, mencakup kemampuan menyesuaikan mimik dan gerak bibir dengan audio. “Karena itu sangat rentan disalahgunakan untuk kepentingan negatif seperti memanipulasi konten video dan membuat konten yg memutar balikkan fakta atau tidak sesuai fakta,” bebernya.
Lalu, warganet harus bagaimana menyingkapi AI untuk suara ini? Menurut Alfons, bagi pengguna medsos yg menerima konten media jangan mudah memforward konten yg tidak anda ketahui pasti kebenarannya.
”Justru kalau makin bombastis kontennya harus makin waspada dan lakukan crosscheck yang ketat sebelum meneruskan,”ungkapnya.
“Kalau seperti ini justru bikin bahaya nggak sih?” ungkap pemilik akun @sneakeart di Instagram.
“Hati-hati, harus jagain orang tua kalian yang punya WhatsApp dan Facebook, bisa jadi fitnah,” tambah @mart.ibrahim.
“AI meresahkan. Harus ada sistem yang bisa bedain, mana yang bener dan mana yang hoaks (buatan AI),” beber warganet lainnya.
”Tunggu saja 2024, bakal keluar banyak ‘rekaman’ suara seperti ini. Ditambah hype Pilpres, masyarakat gampang diadu domba dan minim literasi, juga ngecek keaslian sesuatu,” curhat @rhafilmrh.
Cara kerja teknologi AI voice generators beragam. Pengguna, misalnya, bisa mengubah tulisan menjadi suara atau audio dalam hitungan detik (model text-to-speech). Atau, bisa juga mengubah suara apapun menjadi mirip dengan suara public figure seperti Presiden atau penyanyi.
Pengguna juga bisa langsung memasukkan suara AI ke dalam video sebagai narasi. Tentu saja, sangat mungkin suara tokoh terkenal nantinya digunakan untuk menyebarkan ujaran kebencian (hate speech), propaganda politik, hingga melakukan penipuan.
Hal tersebut yang dikhawatirkan oleh pakar keamanan siber dan pendiri Vaksincom Alfons Tanujaya. Alfons mengatakan, teknologi AI ini sangat berbahaya apabila disalahgunakan untuk memalsukan atau memanipulasi video.
“Kemampuan AI ini sudah mencapai taraf yang sangat tinggi dan sulit bagi orang awam atau yang tidak berpengalaman membedakan konten media yang dimanipulasi dengan aslinya,” ujar Alfons saat dihubungi SINDONews.
Baca Juga
Hal tersebut, menurut Alfons, mencakup kemampuan menyesuaikan mimik dan gerak bibir dengan audio. “Karena itu sangat rentan disalahgunakan untuk kepentingan negatif seperti memanipulasi konten video dan membuat konten yg memutar balikkan fakta atau tidak sesuai fakta,” bebernya.
Lalu, warganet harus bagaimana menyingkapi AI untuk suara ini? Menurut Alfons, bagi pengguna medsos yg menerima konten media jangan mudah memforward konten yg tidak anda ketahui pasti kebenarannya.
”Justru kalau makin bombastis kontennya harus makin waspada dan lakukan crosscheck yang ketat sebelum meneruskan,”ungkapnya.
(dan)