ChatGPT Dapat Dikelabui untuk Hasilkan Kode Berbahaya, Ilmuwan Waspadai Serangan Siber

Rabu, 25 Oktober 2023 - 22:40 WIB
loading...
ChatGPT Dapat Dikelabui...
ChatGPT dapat diakali atau ditipu pengguna untuk menulis kode berbahaya yang dapat meretas database dan mencuri informasi sensitif. Foto/Reuters
A A A
WASHINGTON - ChatGPT dapat diakali atau ditipu pengguna untuk menulis kode berbahaya yang dapat meretas database dan mencuri informasi sensitif. Kerentanan ini memungkinkan dapat digunakan untuk melakukan serangan siber oleh orang-orang biasa.

Tim dari Universitas Sheffield mengatakan bahwa chatbots sangat kompleks sehingga banyak orang, termasuk perusahaan yang memproduksinya, tidak menyadari ancaman yang ditimbulkan. Studi ini telah diterbitkan sekitar seminggu sebelum KTT Keamanan AI pemerintah tentang cara menerapkan teknologi dengan aman.

OpenAI, perusahaan rintisan AS di balik ChatGPT, mengatakan telah memperbaiki celah spesifik tersebut setelah masalah tersebut ditandai. Namun tim di Departemen Ilmu Komputer Sheffield mengatakan kemungkinan akan ada lebih banyak lagi dan meminta industri keamanan siber untuk melihat masalah ini secara lebih rinci.



Makalah ini adalah yang pertama menunjukkan bahwa apa yang disebut Sistem Text-to-SQL, yaitu AI yang dapat mencari database dengan mengajukan pertanyaan dalam bahasa sederhana. Kemudian dapat dieksploitasi untuk menyerang sistem komputer di dunia nyata.

Para peneliti menganalisis total lima alat AI komersial dan menemukan bahwa semuanya mampu menghasilkan kode berbahaya yang, setelah dijalankan, dapat membocorkan informasi rahasia dan mengganggu atau bahkan menghancurkan layanan sepenuhnya. Temuan ini menunjukkan bahwa serangan semacam ini tidak hanya dapat dilakukan oleh peretas ahli, namun juga orang awam.

Para peneliti khawatir hal ini dapat menyebabkan pengguna yang tidak bersalah tidak menyadari bahwa mereka telah melakukannya dan secara tidak sengaja menginfeksi sistem komputer.

“Pada kenyataannya, banyak perusahaan tidak menyadari jenis ancaman ini dan karena kompleksitas chatbots, bahkan di dalam komunitas, terdapat ancaman-ancaman seperti ini, yang belum sepenuhnya dipahami. Saat ini, ChatGPT mendapat banyak perhatian,” kata Xutan Peng, mahasiswa PhD di University of Sheffield dikutip SINDOnews dari laman Daily Mail, Rabu (25/10/2023).



Dia menambahkan bahwa risiko AI seperti ChatGPT adalah semakin banyak orang yang menggunakannya sebagai alat produktivitas, bukan sebagai bot percakapan. Dari sinilah sumber keretanan berawal.

“Misalnya, seorang perawat dapat meminta ChatGPT untuk menulis perintah SQL sehingga dapat berinteraksi dengan database, seperti database yang menyimpan catatan klinis. Kode SQL yang dihasilkan oleh ChatGPT dalam banyak kasus dapat membahayakan database, sehingga dapat menyebabkan kesalahan manajemen data yang serius,” tuturnya.

Temuan ini dipresentasikan pada Simposium Internasional tentang Rekayasa Keandalan Perangkat Lunak (ISSRE) di Florence, Italia, awal bulan ini. Para peneliti juga memperingatkan bahwa orang yang menggunakan AI untuk mempelajari bahasa pemrograman adalah sebuah bahaya, karena secara tidak sengaja dapat membuat kode yang merusak.

“Ini adalah sistem yang berdiri sendiri, sehingga risiko terhadap layanan itu minimal. Namun, yang kami temukan adalah sistem ini dapat ditipu untuk menghasilkan kode berbahaya yang dapat menimbulkan kerugian serius pada layanan lain,” ujar Dr Mark Stevenson, dari Universitas Sheffield.
(wib)
Dapatkan berita terkini dan kejutan menarik dari SINDOnews.com, Klik Disini untuk mendaftarkan diri anda sekarang juga!
Baca Berita Terkait Lainnya
Copyright ©2024 SINDOnews.com
All Rights Reserved
read/ rendering in 0.1627 seconds (0.1#10.140)