Bahaya! ChatGPT Bisa Bongkar Rahasia Perusahaan dan Sebar Informasi Pribadi Anda

Senin, 10 April 2023 - 08:39 WIB
loading...
Bahaya! ChatGPT Bisa Bongkar Rahasia Perusahaan dan Sebar Informasi Pribadi Anda
ChatGPT akan menyimpan informasi, dan menjadikannya sebagai model pembelajaran. Foto: dok Cyber Security Connect
A A A
JAKARTA - Jangan pernah memasukkan rahasia, informasi, atau kode sumber penting ke ChatGPT . Sebab, Anda sama saja membuka rahasia tersebut ke seluruh pengguna internet.

Ya, ChatGPT terlihat sebagai alat yang sangat berguna untuk melakukan berbagai tugas kerja. Meski demikian, sebelum Anda meminta chatbot tersebut untuk meringkas memo penting atau memeriksa kesalahan pekerjaan, tetap ada hal-hal yang perlu diperhatikan.

Perlu diingat bahwa apapun yang Anda bagikan lewat ChatGPT bisa digunakan oleh chatbot tersebut untuk melatih sistem mereka. Dampaknya, kode sumber atau rahasia perusahaan Anda mungkin akan muncul di tanggapan pengguna lainnya.

Hal itu yang seharusnya diketahui oleh beberapa karyawan Samsung, sebelum akhirnya mereka dilaporkan membagikan informasi rahasia lewat ChatGPT.

Tapi, kesalahan ini memang tidak bisa dihindari. Samsung sendiri mengizinkan para insinyur/engineer mereka untuk menggunakan ChatGPT. Namun, yang tidak disangka-sangka adalah ada tiga kali kebocoran rahasia perusahaan.

Seperti yang dilansir dari engadget, kebocoran pertama karena seorang karyawan meminta ChatGPT untuk memeriksa kode sumber database sensitif untuk mencari kesalahan. ChatGPT memang bisa melakukan hal tersebut.

Yang kedua, ada engineer yang meminta ChatGPT untuk mengoptimalkan sebuah kode. Sementara yang ketiga adalah memasukkan rekaman rapat ke ChatGPT dan memintanya untuk menghasilkan rangkuman.

Gara-gara itu, Samsung langsung memberikan aturan ketat terhadap penggunaan ChatGPT. Caranya, dengan membatasi panjang permintaan ChatGPT karyawan hingga satu kilobyte atau 1024 karakter teks.

Selain itu, Samsung juga dikabarkan tengah menyelidiki ketiga karyawan tersebut, dan membangun chatbot sendiri untuk mencegah kecelakaan serupa.
Sebagai informasi, kebijakan data ChatGPT menyatakan, kecuali pengguna memilih keluar secara eksplisit, ChatGPT akan menggunakan permintaan pengguna untuk melatih model bahasa mereka.



OpenAI selaku pemilik ChatGPT sendiri sudah mengimbau pengguna agar tidak membagikan rahasia dengan ChatGPT dalam percakapan, karena tidak bisa menghapus petunjuk tertentu dari riwayat penggunanya.

Adapun satu-satunya cara untuk menghilangkan informasi pengenal pribadi di ChatGPT, yakni dengan cara menghapus akun, dan proses tersebut bisa memakan waktu hinggaempatminggu.
(dan)
Baca Berita Terkait Lainnya
Copyright ©2024 SINDOnews.com
All Rights Reserved
read/ rendering in 0.3164 seconds (0.1#10.140)