Keamanan AI Terancam: Hacker Gunakan ChatGPT untuk Informasi Berbahaya

Ilustrasi berita

Kecerdasan buatan (AI), khususnya model bahasa seperti ChatGPT, telah menjadi alat yang sangat bermanfaat dalam membantu manusia menyelesaikan berbagai tugas, mulai dari menulis, menyusun strategi, hingga memberi solusi teknis. Namun, di balik manfaatnya yang luas, ada ancaman yang semakin nyata. Baru-baru ini, muncul laporan bahwa sejumlah hacker berhasil memanipulasi ChatGPT untuk memberikan instruksi yang berbahaya, seperti pembuatan bom rakitan.

Seorang hacker menemukan cara untuk mengelabui ChatGPT agar mengabaikan pedoman untuk membuat instruksi pembuatan bom rakitan yang kuat. Seorang seniman dan peretas menemukan cara untuk mengelabui ChatGPT agar mengabaikan pedoman dan tanggung jawab etikanya sendiri untuk membuat instruksi pembuatan bom rakitan yang kuat.

Hacker yang menggunakan nama Amadon itu menyebut temuannya sebagai “peretasan rekayasa sosial untuk benar-benar menghancurkan semua pagar pembatas yang dihasilkan ChatGPT”. Seorang ahli bahan peledak yang meninjau hasil chatbot tersebut mengatakan kepada TechCrunch, dikutip Jumat (13/9/2024), instruksi yang dihasilkan dapat digunakan untuk membuat produk yang dapat diledakkan dan terlalu sensitif untuk dirilis.

Hacker menggunakan teknik social engineering dan manipulasi kata untuk “kelabui” sistem AI sehingga memberi jawaban yang tidak seharusnya. Meskipun sistem AI telah dirancang dengan berbagai batasan keamanan dan filter untuk mencegah penyalahgunaan, hacker terus menemukan cara untuk mengatasi batasan tersebut. Mereka mengeksploitasi kelemahan dalam algoritma pengenalan konteks untuk mendapatkan informasi sensitif atau bahkan instruksi berbahaya, seperti cara membuat senjata atau bahan peledak.

 

Baca Juga: Kolaborasi Kominfo, Indosat, dan Mastercard: Melatih 1 Juta Ahli Keamanan Siber Masa Depan

 

Pada kasus ini, hacker mengubah pola pertanyaan dan konteks untuk menembus filter keamanan ChatGPT. Dengan memecah pertanyaan menjadi bagian-bagian kecil atau merumuskan pertanyaan dalam format yang tidak langsung, mereka berhasil mendapatkan petunjuk untuk membuat bom rakitan. Ini menandai adanya celah besar dalam sistem AI yang harus segera diperbaiki.

Kasus ini menimbulkan keprihatinan besar, terutama bagi komunitas IT dan keamanan siber. Ketika AI mulai disalahgunakan oleh pihak yang tidak bertanggung jawab, dampaknya dapat sangat serius, dari ancaman keamanan publik hingga penyalahgunaan di dunia maya. Dalam kasus AI yang memberi instruksi berbahaya, potensi risiko yang ditimbulkan bisa melibatkan serangan terorisme, sabotase, hingga kecelakaan mematikan.

Para ahli keamanan siber sudah lama memperingatkan bahwa AI yang dikembangkan tanpa pengawasan ketat bisa menjadi senjata berbahaya. Dalam kasus ChatGPT, meskipun OpenAI telah membangun filter keamanan yang ketat, kasus-kasus manipulasi ini menunjukkan perlunya pengembangan lebih lanjut terhadap mekanisme keamanan dan kemampuan AI dalam memahami konteks percakapan.

ChatGPT kemudian menjelaskan bahwa bahan-bahan tersebut dapat dikombinasikan untuk membuat “bahan peledak kuat yang dapat digunakan untuk membuat ranjau, perangkap, atau alat peledak rakitan (improvised explosive devices/IED)”.

Melihat potensi bahaya ini, para pengembang AI dan pemangku kepentingan di bidang keamanan siber harus bergerak cepat. Salah satu solusinya adalah memperkuat algoritma pengenalan konteks dan memperbaiki filter respons AI. Dengan memperketat regulasi dan kontrol terhadap sistem AI, diharapkan situasi seperti ini dapat dicegah di masa depan.

Selain itu, lembaga keamanan dan pemerintah juga harus terlibat lebih aktif dalam memonitor penggunaan AI, terutama dalam kasus-kasus yang berpotensi membahayakan keselamatan publik. Peningkatan kerja sama antara pengembang AI dan pihak berwenang akan membantu memastikan bahwa teknologi yang canggih ini digunakan hanya untuk tujuan yang positif dan bermanfaat bagi masyarakat.

Andhika R.

Andhika R.

Digital Marketing at Fourtrezz
Artikel Teratas