Claim Missing Document
Check
Articles

Found 1 Documents
Search

Analisis Perbandingan Kinerja Fine-Tuning Varian Pretrained BERT untuk Deteksi Intrusi Berbasis Host pada Dataset ADFA-LD Radinka Akmal, Salsa Zufar; Noor Fatyanosa, Tirana; Data, Mahendra
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 9 No 12 (2025): Desember 2025
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Deteksi intrusi berbasis host merupakan komponen penting dalam menjaga keamanan sistem karena mampu menganalisis aktivitas internal host melalui urutan system call, sehingga dapat mendeteksi perilaku intrusi yang tidak dapat diidentifikasi oleh Network-based Intrusion Detection System (NIDS). Namun seiring perkembangan zaman, muncul tantangan karena pola serangan modern tidak lagi ditandai sebagai peristiwa atau event tunggal, melainkan sebagai deviasi sekuensial yang sulit dibedakan dari aktivitas normal. Berbagai pendekatan machine learning dan deep learning sebelumnya menunjukkan keterbatasan karena memerlukan pelatihan dari awal dan tidak mampu memanfaatkan pengetahuan lintas domain. Untuk menjawab permasalahan tersebut, berbagai penelitian telah memanfaatkan model BERT untuk tugas deteksi intrusi berbasis host, namun studi komprehensif mengenai perbedaan kinerja antar variannya masih terbatas. Celah tersebut menjadi landasan penelitian ini, yang bertujuan mengevaluasi performa beberapa varian pretrained BERT serta mengidentifikasi konfigurasi pelatihan yang paling efektif untuk deteksi intrusi pada dataset ADFA-LD. Penelitian dilakukan melalui tahapan pra proses data, fine-tuning model, dan eksplorasi hyperparameter untuk menilai pengaruh masing-masing komponen terhadap kualitas deteksi. Hasil penelitian menunjukkan adanya variasi trade-off antara performa akurasi dan efisiensi komputasi pada tiap varian BERT, sementara metode pra proses dan pemilihan hyperparameter terbukti memengaruhi performa secara signifikan. BERT-BASE mencapai F1-score tertinggi sebesar 0,9552, sementara DistilBERT mampu menurunkan waktu inferensi hingga lebih dari 60% (44,97 detik) dan penggunaan memori GPU hingga sekitar 37% (274,94 MB) dibandingkan BERT-BASE, dengan penurunan F1-score yang relatif kecil, yaitu sekitar 0,6%. Temuan ini memberikan dasar untuk pemilihan arsitektur dan strategi pelatihan yang lebih tepat dalam pengembangan HIDS berbasis model transformer.