Ahli Beberkan Bahaya Terbesar Video Kecerdasan Buatan Sora
Minggu, 15 Desember 2024 - 22:05 WIB
Tony Elkins, seorang penulis di Poynter dan anggota pendiri News Product Alliance, berkata : “Sekarang kita harus bertanya apa yang nyata. Kita harus melakukannya untuk foto. Kita harus melakukannya untuk teks. Kita harus melakukannya untuk video. Dan itu menciptakan begitu banyak tanggung jawab pada konsumen yang sebelumnya tidak pernah ada.”
Di situs webnya, pencipta Sora, OpenAI, menyinggung masalah keselamatan terkait Sora.
Situs web perusahaan tersebut mengatakan : “Kami akan mengambil beberapa langkah keamanan penting sebelum menyediakan Sora dalam produk OpenAI. Kami bekerja sama dengan red teamer — pakar domain di bidang seperti misinformasi, konten yang mengandung kebencian, dan bias — yang akan menguji model tersebut secara berlawanan.”
Dikatakan pula bahwa pihaknya berencana untuk menggunakan beberapa fitur keamanan yang sama yang saat ini tersedia untuk generator gambarnya, bernama Dall-E , yang tersedia untuk memastikan bahwa perintah teks tidak melanggar aturan terhadap "kekerasan ekstrem, konten seksual, gambar yang mengandung kebencian, kemiripan dengan selebriti, atau IP milik orang lain".
Namun, beberapa pihak di industri telah menunjukkan bahwa AI dilatih pada data manusia, yang berarti kemungkinan besar memiliki bias yang sama dengan manusia.
“Ada bias dalam masyarakat dan bias tersebut akan tercermin dalam sistem ini,” kata Kristian Hammond, seorang profesor ilmu komputer di Universitas Northwestern .
Di situs webnya, pencipta Sora, OpenAI, menyinggung masalah keselamatan terkait Sora.
Situs web perusahaan tersebut mengatakan : “Kami akan mengambil beberapa langkah keamanan penting sebelum menyediakan Sora dalam produk OpenAI. Kami bekerja sama dengan red teamer — pakar domain di bidang seperti misinformasi, konten yang mengandung kebencian, dan bias — yang akan menguji model tersebut secara berlawanan.”
Dikatakan pula bahwa pihaknya berencana untuk menggunakan beberapa fitur keamanan yang sama yang saat ini tersedia untuk generator gambarnya, bernama Dall-E , yang tersedia untuk memastikan bahwa perintah teks tidak melanggar aturan terhadap "kekerasan ekstrem, konten seksual, gambar yang mengandung kebencian, kemiripan dengan selebriti, atau IP milik orang lain".
Namun, beberapa pihak di industri telah menunjukkan bahwa AI dilatih pada data manusia, yang berarti kemungkinan besar memiliki bias yang sama dengan manusia.
“Ada bias dalam masyarakat dan bias tersebut akan tercermin dalam sistem ini,” kata Kristian Hammond, seorang profesor ilmu komputer di Universitas Northwestern .
(wbs)
Lihat Juga :
tulis komentar anda