Karena Kecerobohan Karyawan, Data Rahasia Samsung Bocor ke ChatGPT

Ilustrasi berita

Karena Kecerobohan Karyawan, Data Rahasia Samsung Bocor ke ChatGPT

 

Tiga karyawan Samsung secara tidak sengaja membocorkan informasi rahasia perusahaan ke ChatGPT. Itu terjadi ketika karyawan menggunakan ChatGPT untuk membantu pekerjaan mereka. Dari kecerobohan mereka diduga beberapa data penting seperti kode sumber rahasia dari perusahaan tersebut bocor.

Mengutip dari Mashable, ketiga karyawan tersebut berasal dari divisi semikonduktor Samsung. Departemen mengizinkan teknisi mereka menggunakan ChatGPT untuk meninjau kode sumber. Sayangnya, tiga karyawan menggunakan ChatGPT secara sembarangan. Antara lain, mereka menyerahkan kode sumber rahasia ke ruang obrolan ChatGPT untuk menguji bug. Karyawan lainnya bahkan sempat membagikan rekaman data rapat ke dalam obrolan ChatGPT untuk membuatnya menjadi bahan presentasi.

 

 

Baca Juga : Penjahat Siber Pakai Teknologi AI, Serangan Siber Jadi Lebih Mudah Dilakukan!

 

Mengetahui hal ini Samsung pun bergerak dengan cepat untuk mengatasi kasus tersebut. Perusahaan teknologi asal Korea Selatan tersebut kemudian melakukan pembatasan kapasitas unggahan ke dalam ChatGPT hingga 1024 byte per orang. Selanjutnya, mereka juga menyelidiki tiga karyawan yang terlibat dalam kebocoran tersebut. Dalam antisipasi jangka panjang, Samsung bahkan sedang mempertimbangkan untuk membangun ruang obrolan selayaknya AI chatbot untuk kebutuhan internalnya sendiri.

Meskipun demikian, Samsung mengembalikan data yang bocor ke ChatGPT. Memang pada dasarnya pemilik ChatGPT, OpenAI telah meminta pengguna untuk tidak membagikan informasi sensitif atau rahasia apa pun dengan ChatGPT. Alasannya, ChatGPT “tidak bisa menghapus perintah tertentu dari data penggunanya”. Selain itu, ChatGPT juga menggunakan informasi yang diberikan oleh pengguna untuk contoh materi pelatihannya. Satu-satunya cara untuk menghapus informasi ini dari ChatGPT adalah dengan menghapus akun masing-masing. Proses ini memakan waktu hampir empat minggu. Kebocoran informasi sensitif di ChatGPT menjadi salah satu masalah bagi para ahli. Ini karena tidak sedikit pengguna yang sembarangan memasukkan informasi sensitif ke dalam platform AI. Contohnya saja adalah saat pengguna membagikan dokumen hukum rahasia atau informasi medis dengan ChatGPT untuk dilakukan analisis. Menurut para ahli, hal-hal tersebut dapat melanggar Peraturan Perlindungan Data Umum (GDPR) yang ada di Eropa.

 

Baca Juga : Kepolisian Spanyol Berhasil Tangkap Hacker Paling Berbahaya di Negaranya

 

Kehadiran ChatGPT memang sangat membantu dalam mengatasi kesulitan dalam pekerjaan. Namun, harus kembali lagi diingat bahwa tidak ada teknologi yang 100% aman. Masing-masing dari pengguna harus lebih pintar dan berhati-hati dalam memanfaatkan dari perkembangan teknologi yang ada, jangan sampai membuat kerugian baru di masa yang akan datang.

Kasus kebocoran informasi rahasia Samsung ke ChatGPT kembali mengingatkan kita akan pentingnya kesadaran akan risiko yang mungkin terjadi ketika menggunakan teknologi. Penggunaan teknologi yang sembarangan dapat membawa dampak yang tidak diinginkan, seperti hilangnya data rahasia yang dapat merugikan perusahaan. Oleh karena itu, perlu adanya peningkatan kesadaran dan edukasi mengenai penggunaan teknologi yang bijak dan bertanggung jawab. Dengan memperhatikan hal ini, kita dapat mengurangi risiko terjadinya kebocoran informasi rahasia atau kerugian lainnya akibat kecerobohan dalam penggunaan teknologi.

 

Andhika R.

Andhika R.

Digital Marketing at Fourtrezz
Artikel Teratas