Claim Missing Document
Check
Articles

Found 13 Documents
Search

USING K-MEANS FOR DISTRICT-CITY POVERTY CLUSTERING IN INDONESIA Abdul Mukhyidin; Ahmad Faqih; Ade Rizki Rinald
NUANSA INFORMATIKA Vol. 19 No. 1 (2025): Nuansa Informatika 19.1 Januari 2025
Publisher : FKOM UNIKU

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25134/ilkom.v19i1.300

Abstract

Poverty is one of the main challenges faced by the government in its efforts to improve people's welfare. Identifying regions based on the poverty line level is an important step to ensure well-targeted interventions. This study aims to categorize districts/cities based on poverty levels using the K-Means Algorithm, so that it can be a guide in data-based policy making. The research method starts with data collection, data selection process to handle missing values using the replacement method. Determination of the optimal number of clusters was done using Within Sum of Squares (WSS) to ensure that each region was grouped into clusters based on their level of similarity, which showed that three clusters were the ideal number. An evaluation of the clustering results was conducted to ensure the stability and accuracy of the clustering. The results show that the districts/municipalities are divided into three clusters based on the poverty line level, namely cluster 0 with a high poverty line level (241 regions), cluster 1 with a medium poverty line level (247 regions), and cluster 2 with a low poverty line level (90 regions). This study concludes that the K-Means Algorithm is effective in clustering regions based on poverty levels, providing a strong basis for data-driven decision-making. Future research is recommended to use more diverse data and cover more indicators, such as education level, access to health services, or infrastructure quality.
Mengoptimalkan Kinerja Naïve Bayes Pada Ancaman Modern Dengan Menggunakan PCA Pada Data Intrusion Detection System (IDS) Kevin Salsabil Arlandy; Ahmad Faqih; Ade Rizki Rinaldi
Jurnal Ilmiah ILKOMINFO - Ilmu Komputer & Informatika Vol 8, No 1 (2025): Januari
Publisher : Akademi Ilmu Komputer Ternate

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.47324/ilkominfo.v8i1.303

Abstract

Abstrak: Intrusion Detection System (IDS) digunakan untuk mendeteksi serangan atau aktivitas mencurigakan dalam jaringan. Dengan meningkatnya ancaman siber modern, penelitian ini mengusulkan kombinasi metode Naïve Bayes dan Principal Component Analysis (PCA) untuk meningkatkan akurasi dan efisiensi deteksi. Metode tambahan PCA dapet mereduksi dimensi dataset menjadi 30 komponen utama tanpa kehilangan informasi penting, menggunakan dataset UNSW-NB15. Proses melibatkan standarisasi data dengan StandardScaler, reduksi dimensi menggunakan PCA, serta evaluasi model Naïve Bayes pada dataset dengan dan tanpa PCA. Analisis ini menggunakan program Python yang di eksekusi dengan Google Collab, dengan hasil menunjukkan bahwa model dengan PCA mencapai akurasi sebesar 96.65% dengan recall 1.00 untuk kelas ancaman, meskipun presisi masih rendah (0.49). Sebaliknya, tanpa PCA, akurasi hanya mencapai 92.72% dengan presisi 0.31 untuk kelas yang sama. Selain itu, penggunaan PCA berhasil mengurangi waktu komputasi dari 1 menit menjadi 30 detik. Kombinasi dengan teknik reduksi dimensi Principal Component Analysis (PCA) menunjukkan kinerja yang lebih baik dalam mengklasifikasikan data pada sistem Intrusion Detection System (IDS). PCA dan Naïve Bayes terbukti menjanjikan dalam mendeteksi ancaman modern, meskipun masih diperlukan perbaikan untuk mencapai kinerja yang lebih optimal.Kata kunci: Intrusion Detection System, Naïve Bayes, PCA, Keamanan JaringanAbstract:An Intrusion Detection System (IDS) is used to detect attacks or suspicious activities in the network. With the increase of modern cyber threats, this research proposes a combination of Naïve Bayes and Principal Component Analysis (PCA) methods to improve detection accuracy and efficiency. The additional PCA method can reduce the dataset dimension to 30 principal components without losing important information, using the UNSW-NB15 dataset. The process involves data standardization with Standard-Scaler, dimensionality reduction using PCA, and Naïve Bayes model evaluation on the dataset with and without PCA. This analysis used a Python program executed with Google Collab, with the results showing that the model with PCA achieved an accuracy of 96.65% with a recall of 1.00 for the threat class. However, the precision was still low (0.49). In contrast, without PCA, the accuracy only reached 92.72% with a precision of 0.31 for the same class. In addition, the use of PCA successfully reduced the computation time from 1 minute to 30 seconds combination with the Principal Component Analysis (PCA) dimension reduction technique shows better performance in classifying data in the Intrusion Detection System (IDS). PCA and Naïve Bayes proved promising in detecting modern threats, although improvements are still needed to achieve more optimal performance.Keywords: Intrusion Detection System, Naïve Bayes, PCA, Network Security
Analisis Sentimen Ulasan Pengguna Aplikasi Kredivo Menggunakan Algoritma Support Vector Machine (SVM) dengan Metode TF–IDF Ariska Sari; Bambang Irawan; Ahmad Faqih; Arif Rinaldi Dikananda; Fathurrohman Fathurrohman
LINIER: Literatur Informatika dan Komputer Vol 2, No 4 (2025)
Publisher : Universitas Muslim Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.33096/linier.v2i4.3344

Abstract

Perkembangan teknologi informasi telah mendorong peningkatan substansial dalam jumlah data teks yang dihasilkan melalui berbagai interaksi pengguna pada platform digital, khususnya di bidang layanan keuangan online. Data ulasan konsumen mengandung informasi berharga terkait tingkat kepuasan dan pandangan pelanggan terhadap suatu produk atau jasa. Kajian ini mengkhususkan diri pada penerapan analisis sentimen terhadap ulasan pengguna aplikasi Kredivo, dengan memanfaatkan algoritma Support Vector Machine (SVM) serta serangkaian langkah pra-pemrosesan teks yang komprehensif. Langkah-langkah tersebut meliputi case folding, pembersihan data, tokenisasi, penghapusan kata-kata berhenti, dan stemming dengan bantuan pustaka Sastrawi yang dirancang untuk Bahasa Indonesia. Fitur teks diekstraksi menggunakan pendekatan Term Frequency–Inverse Document Frequency (TF–IDF), kemudian diklasifikasikan melalui model SVM dengan kernel Radial Basis Function (RBF). Hasil percobaan menunjukkan bahwa model SVM menunjukkan kinerja klasifikasi yang superior, dengan tingkat akurasi yang tinggi dalam membedakan sentimen positif, negatif, dan netral. Temuan ini konsisten dengan studi sebelumnya yang menekankan bahwa penggabungan stemming, penghapusan kata-kata berhenti, dan SVM dapat meningkatkan akurasi analisis sentimen secara bermakna. Secara keseluruhan, penelitian ini memberikan sumbangan bagi pengembangan teknik analisis sentimen dalam Bahasa Indonesia, terutama di sektor teknologi keuangan, dengan membuktikan bahwa integrasi antara SVM dan TF–IDF, yang didukung oleh pra-pemrosesan yang sesuai, mampu menghasilkan model klasifikasi opini pelanggan yang efektif dan mampu menyesuaikan diri dengan nuansa linguistik Bahasa Indonesia