Jumat, 18 Juli 2025 | 11 min read | Andhika R

Revolusi AI dalam Keamanan Siber: Deteksi dan Manajemen Kerentanan Zero-Day

Saat ini, kemajuan kecerdasan buatan (AI) memberikan dampak transformatif di banyak bidang, termasuk keamanan siber. AI tidak hanya meningkatkan kemampuan deteksi dan respon serangan, tetapi juga mengubah lanskap operasional keamanan secara mendasar. Peneliti UC Berkeley bahkan menunjukkan bahwa model-model AI mutakhir sudah dapat digunakan untuk bug hunting — misalnya melalui benchmark bernama CyberGym yang menguji AI pada 188 repositori perangkat lunak, di mana 17 celah baru ditemukan, termasuk 15 zero-day yang sebelumnya tidak diketahui. Hal ini menegaskan bahwa kita berada pada momen penting: AI bisa membantu memperkuat keamanan, tapi juga bisa dipakai oleh penyerang jika tidak diatur dengan hati-hati. Oleh karena itu, pemahaman mendalam tentang apa itu kerentanan zero-day dan bagaimana AI mengubah cara kita menemukannya sangatlah krusial.

Revolusi AI dalam Keamanan Siber Deteksi dan Manajemen Kerentanan Zero-Day.webp

Apa Itu Zero-Day Vulnerability dan Mengapa Sangat Berbahaya?

Zero-day vulnerability adalah celah keamanan pada perangkat lunak yang tidak diketahui oleh pengembang atau vendor, sehingga belum ada tambalan (patch) yang tersedia. Singkatnya, penyerang memiliki “waktu nol hari” untuk mengeksploitasi celah tersebut sebelum pihak yang berwenang menyadarinya. Dalam istilah awam, bayangkan sebuah lubang tersembunyi pada benteng keamanan sistem komputer – penyerang yang mengetahuinya bisa masuk tanpa terdeteksi sementara pembangun benteng sama sekali tidak menyadari keberadaannya. Contoh analoginya, pada sebuah aplikasi web terdapat kode yang tidak memvalidasi input pengguna dengan benar, sehingga hacker bisa mengirimkan skrip jahat tanpa ketahuan oleh mekanisme pelindung yang sudah ada.

Dampak dari serangan zero-day bisa sangat luas dan merusak. Laporan Google Threat Intelligence Group 2025 mencatat terdapat 75 kasus eksploitasi zero-day di alam liar selama 2024, meski jumlah ini turun dari 98 di tahun 2023. Sekitar 44% eksploitasi tersebut menargetkan produk perusahaan (enterprise), seperti perangkat keamanan jaringan atau sistem server. Di Indonesia sendiri, meski data spesifik zero-day sulit diperoleh, kenaikan serangan siber umum menunjukkan bahwa celah tak terdeteksi menjadi ancaman nyata bagi organisasi dan infrastruktur penting. Misalnya, serangan Log4Shell (CVE-2021-44228) pada akhir 2021 memperlihatkan keparahan zero-day: celah pada pustaka Log4j milik Apache ini memungkinkan eksekusi kode jarak jauh, dan dalam minggu pertama setelah terungkap telah ada sekitar 10 juta upaya eksploitasi secara global setiap jamnya. Dampak Log4Shell meluas ke berbagai sektor, bahkan masih ditemukan penerapan Log4j yang rentan bertahun-tahun setelahnya.

Contoh lain adalah insiden SolarWinds (2020). Dalam kasus ini, pembaruan perangkat lunak Orion dari SolarWinds secara tak sadar dipasang backdoor berbahaya, mengkompromikan sistem lebih dari 30.000 organisasi (termasuk badan pemerintah AS). Meskipun inti serangan SolarWinds adalah rantai pasokan (supply chain), keberhasilan penyerang memanfaatkan kelemahan yang tidak terdeteksi sebelumnya menggambarkan bagaimana kerentanan zero-day dalam perangkat populer dapat menimbulkan konsekuensi besar. Dengan menyerang zero-day, pelaku berpotensi mencuri data sensitif, mengambil alih sistem, atau melumpuhkan layanan sebelum pihak bertanggung jawab sempat merespon.

Riset UC Berkeley: Agen AI Temukan Celah Zero-Day

Peneliti UC Berkeley mengembangkan CyberGym, sebuah kerangka kerja (framework) pengujian keamanan skala besar, untuk menilai kemampuan agen AI dalam mengidentifikasi kerentanan perangkat lunak nyata. CyberGym mengumpulkan total 1.507 instance kerentanan nyata yang telah ditemukan dan diperbaiki dalam 188 proyek kode sumber terbuka besar. Setiap instance menyertakan deskripsi kerentanan dan repositori kode (sebelum diperbaiki). Tugas agen AI adalah menghasilkan proof-of-concept (PoC) yang dapat memicu kerentanan itu, dengan menganalisis seluruh basis kode dan menguji eksekusi program. Ini adalah tugas menantang karena agen harus mencari bagian kode relevan di antara ribuan berkas dan jutaan baris kode.

Hasil eksperimen menunjukkan kemampuan AI yang menjanjikan namun masih terbatas. Kombinasi model AI frontier (OpenAI, Google, Anthropic) dan kerangka agen (agent frameworks) seperti OpenHands, Cybench, dan EnIGMA diuji. Para agen AI tersebut menemukan 17 celah baru, 15 di antaranya adalah zero-day yang sebelumnya tak tercatat. Artinya, agen AI berhasil mengungkap cacat keamanan yang belum pernah diketahui sebelumnya. Namun, persentase keberhasilan reproduksi kerentanan relatif kecil. Kombinasi agen terbaik (Claude-3.7 Sonnet dengan OpenHands) hanya mampu mereproduksi sekitar 11,9% kerentanan yang ditargetkan, dan secara keseluruhan hanya berhasil menemukan sekitar 2% dari semua kerentanan yang ada. Temuan ini menandakan bahwa, walaupun AI kini dapat menemukan celah baru, manusia masih jauh lebih unggul dalam mendeteksi kerentanan kompleks.

Pada akhirnya, riset ini memperlihatkan bahwa AI tidak hanya efektif dalam menulis kode, tetapi juga mulai menunjukkan potensi untuk membantu deteksi keamanan. Langkah-langkah yang mereka gunakan meliputi memberikan deskripsi kerentanan kepada agen, membiarkan model menjalankan pengujian (unit test) serta membantu agen menyusun kode eksploit. Dari ratusan PoC yang dihasilkan, tim peneliti kemudian mengidentifikasi 15 kerentanan baru serta 2 yang telah diketahui tapi belum dipulihkan. Perbandingan akurasi menunjukkan bahwa, meski menjanjikan, model AI saat ini belum dapat menggantikan peneliti keamanan manusia—sebagaimana diakui oleh peneliti keamanan terkemuka yang menyatakan “jangan mengganti pemburu bug manusia Anda dulu”.

Benchmark CyberGym: Laboratorium Uji Kerentanan Otomatis

CyberGym adalah kerangka evaluasi keamanan berskala besar yang dirancang untuk menilai kemampuan agen AI dalam tugas-tugas keamanan siber nyata. Sistem ini dibangun dengan 1.507 instans riil kerentanan yang dikumpulkan secara sistematis dari 188 proyek perangkat lunak besar (dari kampanye fuzzing OSS-Fuzz Google), memastikan setiap tantangan adalah asli dan relevan. Setiap tes mengeset suatu lingkungan dengan repositori target pada versi sebelum tambalan; agen AI diberi deskripsi kerentanan dan kode sumber yang tak dipatch, lalu dituntut membuat PoC exploit yang memicu kerentanan tersebut. Penilaian dilakukan secara iteratif: agen menjalankan PoC pada versi sebelum patch (harus memicu crash) dan memastikan versi sesudah patch tidak terpengaruh.

Secara ringkas, cara kerja CyberGym adalah sebagai berikut:

  • Input untuk agen: Deskripsi kerentanan (berupa CVE atau laporan bug) dan keseluruhan kode sumber sebelum perbaikan.
  • Tugas utama: Mencari potongan kode yang relevan dan menghasilkan skrip eksploitasi (PoC) yang bisa memicu kerusakan (misalnya crash) pada aplikasi.
  • Proses eksekusi: Agen menjalankan PoC pada versi lama kode. Jika berhasil, agen memverifikasi bahwa PoC tersebut tidak memicu pada versi yang sudah dipatch. Ini mensimulasikan penemuan zero-day di lingkungan nyata, termasuk kemampuan memodifikasi payload berdasarkan umpan balik eksekusi.
  • Pengujian celah baru: Selain mereproduksi kerentanan lama, CyberGym juga menguji apakah agen dapat menemukan celah baru tanpa deskripsi awal, misalnya dengan menganalisis kode proyek terbaru.

Hasil CyberGym menunjukkan bahwa agen dapat menemukan zero-day baru. Dari 540 PoC awal di 54 proyek, beberapa menciptakan crash di versi terbaru dan menghasilkan 9 kerentanan unik. Eksperimen berikutnya menggunakan OpenHands dengan GPT-4.1 memperluas skala ke 431 proyek dan menghasilkan 16 crash tambahan, 8 di antaranya unik setelah inspeksi manual. Secara total, agen AI menelurkan 17 kerentanan; 15 di antaranya adalah zero-day baru dan 2 sisanya adalah kerentanan yang sudah diketahui tapi belum ditambal. Banyak kelemahan ini berkaitan dengan pola umum seperti kurangnya penanganan kesalahan, cek batas (boundary checks) yang hilang, atau dereferensi pointer null.

CyberGym menegaskan bahwa AI sudah bisa secara otomatis membaca kode skala besar dan mencari celah—setidaknya sebagian. Lingkungan uji ini juga memanfaatkan berbagai model bahasa besar (LLMs) dan kerangka agen, termasuk model komersial dan sumber terbuka dari OpenAI, Google, Anthropic, Meta, dan Alibaba. Berdasarkan skor, kombinasi agen-model terbaik saat ini (misalnya GPT-4.1 dengan framework OpenHands) baru berhasil mereproduksi sebagian kecil kerentanan, menekankan kesulitan kompleksitas tinggi. Meski demikian, CyberGym membuka jalan bagi pengujian sistematis: para periset mendirikan semacam leaderboard dan observatorium (AI Frontiers CyberSecurity Observatory) untuk melacak kemampuan AI dalam tugas keamanan siber.

Batasan dan Tantangan Penggunaan AI untuk Keamanan

Kendati menjanjikan, teknologi AI dalam keamanan siber masih memiliki sejumlah keterbatasan penting. Salah satu temuan kunci riset Berkeley adalah tingkat deteksi kerentanan yang rendah: kombinasi model dan agen paling efektif hanya bisa menemukan sekitar 2% dari semua celah target. Sebagian besar kerentanan tidak terdeteksi oleh agen AI, terutama yang kompleks atau melibatkan logika sulit. Secara umum, AI belum mampu menggantikan keahlian manusia sepenuhnya; peneliti keamanan terbaik tetap diperlukan untuk menangani kasus kritis. Seorang ahli keamanan pun menyimpulkan bahwa AI saat ini “masih belum sebanding dengan keahlian manusia”.

Selain performa yang terbatas, ada risiko penyalahgunaan (dual-use). Model AI yang mampu menemukan celah juga bisa dipakai penjahat siber untuk mengotomasi serangan. Sebagaimana dikatakan Dawn Song, seiring kemampuan AI bertumbuh, alat-alat ini tidak hanya membantu defender menemukan celah, tetapi juga bisa membantu penyerang mengeksploitasi mereka. Ini menegaskan kenyataan bahwa kecerdasan buatan bersifat dual-use: kekuatan yang sama untuk kebaikan bisa disalahgunakan. Para peneliti keamanan bahkan memperingatkan bahwa penyerang mungkin akan diuntungkan lebih dulu dari kemajuan model AI saat ini. Oleh sebab itu, pengembangan AI di domain keamanan harus disertai langkah pengawasan ekstra dan etika yang ketat.

Tantangan tambahan adalah regulasi dan transparansi. Belum ada kerangka hukum atau standar global khusus yang mengatur penggunaan AI dalam pengujian keamanan. Banyak model besar bersifat “kotak hitam” (black-box) dan tanpa audit, membuat pengguna kesulitan memahami bagaimana keputusan eksploit dibuat. Kurangnya transparansi ini menimbulkan kekhawatiran etika: misalnya, siapa yang bertanggung jawab ketika AI salah mendeteksi kerentanan atau menciptakan exploit berbahaya? Saat ini berbagai institusi menyerukan perlunya model AI terbuka (open) dan bisa diaudit (auditable), agar pengembang dan peneliti bisa mengawasi cara AI bekerja dan mencegah kesalahan atau penyalahgunaan. Seiring itu, regulasi proaktif juga diperlukan — misalnya rancangan kebijakan etika AI di beberapa negara maupun inisiatif seperti AI Act di Eropa, bertujuan memastikan AI dikembangkan dengan prinsip kehati-hatian. Secara keseluruhan, kendala teknis (deteksi terbatas) ditambah risiko keamanan (dual-use) dan kebutuhan regulasi membuat AI belum bisa serta-merta menggeser peran manusia dalam keamanan siber.

Masa Depan: Kolaborasi Manusia dan AI dalam Deteksi Kerentanan

Ke depan, skenario yang ideal adalah kolaborasi antara manusia dan AI dalam upaya pertahanan siber. AI berperan sebagai asisten bagi tim keamanan (ethical hackers, red team) — misalnya sebagai alat bantu deteksi dini celah, pengelompokan laporan bug, atau menulis kerangka eksploitasi awal. Contohnya, platform-platform bug bounty kini mulai mengintegrasikan AI. Startup Xbow telah mengembangkan alat AI yang mampu masuk ke peringkat teratas papan peringkat bug bounty HackerOne, terbukti mampu mengidentifikasi celah yang belum ditemukan oleh manusia. Begitu pula HackerOne sendiri menawarkan hai HackerOne (Hai), asisten AI untuk membantu tim keamanan memprioritaskan dan menganalisis laporan temuan secara lebih cepat (memindai pola dan konteks dalam laporan). Tren serupa muncul di platform lain, menandakan bahwa AI akan menjadi bagian rutinitas program bug bounty.

Rekomendasi adopsi bagi perusahaan juga meliputi integrasi AI-driven scanning ke dalam SDLC/CI-CD pipeline. Misalnya, jalur pengembangan perangkat lunak dapat dilengkapi dengan langkah otomatisasi AI yang rutin memindai kode baru untuk potensi celah sebelum rilis. Selain itu, kolaborasi manusia-AI dapat diperkuat dengan pengujian bersama (red teaming) yang melibatkan agen AI sebagai “rekan” penyerang, sehingga tim penangkal (blue team) lebih siap terhadap vektor serangan otomasi. Dengan demikian, AI menjadi pengganda tenaga bagi ethical hacker daripada pengganti.

Adapun implementasi tingkat institusi lebih luas dibutuhkan. Institusi penelitian dan edukasi sebaiknya mendorong pengembangan model AI terbuka dan auditabel, serta mengembangkan repository benchmark seperti CyberGym. Misalnya, tim UC Berkeley telah meluncurkan AI Frontiers CyberSecurity Observatory, wadah kolaboratif untuk memantau kemampuan berbagai model AI dalam keamanan siber. Di ranah industri, perusahaan sebaiknya turut memeriahkan ekosistem ini, misalnya dengan berpartisipasi di kompetisi keamanan siber berbasis AI atau mendukung program bug bounty yang memanfaatkan AI. Pada level pemerintah, beberapa negara sudah mengambil langkah nyata. Sebagai contoh, Indonesia baru-baru ini membentuk National Cyber and AI Task Force untuk memperkuat ketahanan digital nasional, dengan fokus memperbaiki regulasi dan tata kelola AI serta keamanan siber. Pemerintah juga menyiapkan AI Road Map untuk menjamin pengembangan AI yang inklusif dan bertanggung jawab. Inisiatif semacam ini penting untuk memastikan bahwa percepatan adopsi teknologi AI disertai payung hukum dan standar etika yang kuat, sekaligus mendukung kolaborasi lintas sektor (pemerintah, akademisi, industri) dalam menghadapi ancaman siber.

Kesimpulan

Pemanfaatan AI dalam keamanan siber adalah peluang sekaligus tanggung jawab besar. Kesimpulannya, teknologi ini harus digunakan secara terukur dan kolaboratif. Institusi riset dan pengembang AI harus memprioritaskan transparansi – mengembangkan model yang terbuka dan dapat diaudit oleh komunitas, sembari memperluas benchmark seperti CyberGym untuk terus menguji kemampuan baru. Misalnya, observatorium keamanan siber AI Frontiers yang didirikan oleh peneliti Berkeley menunjukkan pentingnya pemantauan kinerja AI.

Perusahaan dan entitas industri harus memadukan AI ke dalam proses keamanan mereka: berpartisipasi dalam platform bug bounty yang mendukung AI, memasukkan pemindaian AI-driven dalam pipeline CI/CD, serta melatih tim keamanan untuk berkolaborasi dengan AI-asisten. Penggunaan AI untuk patch otomatis atau triase laporan dapat meningkatkan respons terhadap kerentanan. Selain itu, setiap temuan zero-day oleh AI perlu diungkapkan secara bertanggung jawab (responsible disclosure) kepada pengelola perangkat lunak agar kerentanan cepat ditangani.

Pemerintah memiliki peran penting dalam menyediakan kerangka kebijakan dan edukasi. Langkah nyata misalnya yang diambil Indonesia dengan membentuk task force nasional AI-keamanan dan menyusun AI Road Map untuk memastikan pengembangan AI yang etis dan inklusif. Setiap negara atau lembaga dapat meniru pendekatan serupa—mewajibkan audit keamanan software, menetapkan standard AI yang bertanggung jawab, dan mendukung kolaborasi lintas sektor. Peran regulator dan legislator adalah menjamin keamanan dan privasi publik, sembari mendorong inovasi.

Akhirnya, ajakan ini ditujukan kepada seluruh pemangku kepentingan: teruslah kembangkan model AI terbuka dan bisa diaudit, dorong riset kolaboratif (akademisi-industri-pemerintah), dan selalu utamakan pendekatan keamanan proaktif. Dengan memperkuat kemitraan manusia-AI, kita dapat mempercepat deteksi zero-day sekaligus menjaga keamanan sistem secara lebih handal. Jika dilakukan dengan tanggung jawab, revolusi AI di keamanan siber akan menjadi kekuatan positif yang melindungi data dan infrastruktur digital kita di masa mendatang.

Bagikan:

Avatar

Andhika RDigital Marketing at Fourtrezz

Semua Artikel

Berlangganan Newsletter FOURTREZZ

Jadilah yang pertama tahu mengenai artikel baru, produk, event, dan promosi.

Partner Pendukung

infinitixyberaditif

© 2025 PT Tiga Pilar Keamanan. All Rights Reserved.
Info Ordal