Claim Missing Document
Check
Articles

Found 19 Documents
Search

Deteksi Ujaran Kebencian dengan Metode Klasifikasi Naïve Bayes dan Metode N-Gram pada Dataset Multi-Label Twitter Berbahasa Indonesia Yazid, Rija Muhamad; Umbara, Fajri Rakhmat; Sabrina, Puspita Nurul
Informatics and Digital Expert (INDEX) Vol. 4 No. 2 (2022): INDEX, November 2022
Publisher : LPPM Universitas Perjuangan Tasikmalaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.36423/index.v4i2.894

Abstract

Ujaran kebencian adalah ungkapan atau bahasa yang digunakan untuk mengekspresikan kebencian terhadap seseorang atau sekelompok orang. Ujaran kebencian juga memiliki tingkatan ancaman, semakin tinggi tingkat ancaman ujaran kebencian maka akan semakin luas dan cepat penyebarannya sehingga dapat menimbulkan konflik antar individu sampai konflik antar kelompok. Untuk dapat mendeteksi dan mengklasifikasikan ujaran kebencian sekaligus tingkat ancamannya dalam penelitian ini digunakan dataset multi-label dari penelitian sebelumnya dengan menggunakan label yang masuk kedalam topik ujaran kebencian dan tingkat ancaman dengan total sebanyak 4 label. Dalam menyelesaikan permasalahan multi-label tersebut digunakan metode Naïve Bayes sebagai metode klasifikasi dan metode Label Power-set sebagai metode transformasi data, dalam penelitian ini juga digunakan pembobotan TF-IDF sekaligus melakukan beberapa skenario penelitian berdasarkan metode ekstraksi fitur n-gram. Hasil terbaik yang didapatkan berdasarkan hasil evaluasi F-score adalah sebesar 64,957% ketika menggunakan kombinasi metode ekstraksi fitur word unigram, word bigram dan character quadgram. Dari penelitian ini juga didapatkan bahwa semakin banyak fitur yang digunakan maka semakin baik nilai hasil evaluasinya terhadap jenis dataset yang digunakan.
Klasifikasi Daftar Ulang Calon Mahasiswa Baru Dengan Menggunakan Metode Klasifikasi Naive Bayes Pikriyansah, Reji; Umbara, Fajri Rahmat; Sabrina, Puspita Nurul
Informatics and Digital Expert (INDEX) Vol. 4 No. 2 (2022): INDEX, November 2022
Publisher : LPPM Universitas Perjuangan Tasikmalaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.36423/index.v4i2.912

Abstract

Registrasi ulang merupakan prosedur yang wajib dilakukan oleh calon mahasiswa yang berkeinginan menjadi mahasiwa aktif dan sudah lulus seleksi. Kebanyakan mahasiswa yang tidak ingin melanjutkan proses registrasi ulang memilih menunggu batas akhir registrasi ulang daripada menghubungi pihak Universitas. Untuk memprediksi calon mahasiwa yang akan melakukan registrasi ulang penellitian ini menggunakan metode Naïve Bayes tehadap dataset calon mahasiwa. Penelitian ini menggunakan dua dataset yang mana merupakan dataset dengan kelas yang tidak seimbang dan dataset dengan kelas yang seimbang yang diseimbangkan menggunakan metode Undersampling, ditambah dengan beberapa skenario klasifikasi dengan melakukan penyeleksian atribut menggunakan metode Mutual information. Hasil akurasi tertinggi yang didapat adalah 63.83% pada dataset dengan kelas yang tidak seimbang dengan menggunakan 14-16 atribut dan 63.53% pada dataset dengan kelas yang seimbang dengan menggunakan 15-16 atribut. Nilai Mutual Information kedua dataset sangatlah rendah yaitu dibawah 0.09. Berdasarkan hasil yang di dapat dari setiap pengujian skenario nilai Mutual Information yang rendah dan rentang nilai yang berdekatan kemungkinan besar mengakibatkan tingkat akurasi menurun setiap dilakukan proses penyeleksian atribut.
Prediksi Jangka Pendek Harga Bahan Pokok Dki Jakarta Menggunakan Metode Weighted Exponential Moving Average Junior, Rifqi Pratama; Umbara, Fajri Rakhmat; Sabrina, Puspita Nurul
Jurnal Ilmiah Matrik Vol. 25 No. 3 (2023): Jurnal Ilmiah Matrik
Publisher : Direktorat Riset dan Pengabdian Pada Masyarakat (DRPM) Universitas Bina Darma

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.33557/jurnalmatrik.v25i3.2575

Abstract

Weighted Exponential Moving Average (WEMA) is a new method that combines WMA and EMA, predicting data based on the future and calculating the value of the data weighting factor over time. Commodities are goods that can be sold freely in the market, one of which is staple food to meet daily needs. This study implements the WEMA method in the short-term prediction of staple food prices, with pre-processing stages using data selection and imputation to overcome missing values. Then the data is divided into training data (75%), and test data (25%), on sugar attribute data, chicken eggs, cooking oil, chicken, and beef. A mean absolute percentage error (MAPE) evaluation was carried out on training data and test data to measure prediction accuracy. The experimental and evaluation results show that accuracy depends on the range and length of the data used. The use of span 2 for both data shows the best results on all evaluated attributes; the results of the MAPE evaluation are below 10%.
Optimasi Parameter DBSCAN menggunakan Metode Differential Evolution untuk Deteksi Anomali pada Data Transaksi Bank Ibadirachman, Rifqi Karunia; Chrisnanto, Yulison Herry; Sabrina, Puspita Nurul
Jurnal Teknologi Terpadu Vol 10 No 1 (2024): Juli, 2024
Publisher : LPPM STT Terpadu Nurul Fikri

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.54914/jtt.v10i1.1189

Abstract

Anomalies in bank transaction data often indicate fraudulent activity or errors. This research aims to detect anomalies in bank transaction data by optimizing DBSCAN parameters using the Differential Evolution (DE) method because there are shortcomings, namely the difficulty of determining the right parameters to create the right cluster in order to detect anomalies in bank transaction data properly. The data used is transaction data from Bank XYZ with more than 1011 data records. The research stages include data collection, data preprocessing (data cleaning, normalization, and transformation), system design, algorithm implementation, and analysis and testing using the Silhouette score and Z-score methods. The DE method is used to automatically determine the optimal parameters of MinPts and Epsilon. The results show that the use of DE can produce optimal parameters, with increased anomaly detection accuracy using DBSCAN. Evaluation with Silhouette score shows an average accuracy of 0.7916 and using DBI reaches 0.19791 at the lowest, while Z-score and MSE measurements show high cluster density with anomaly detection accuracy reaching 98.41% and 0.555537. The DE approach to parameter selection is effective in improving the performance of DBSCAN in detecting anomalies in bank transaction data. Suggestions for future research are to increase the number of data records and conduct experiments on a wider variety of data attributes.
Peningkatan Kualitas Maintainability Sistem PPID DINKES Cimahi Menggunakan Metode Refactoring Wirianto, Rahmadi Dimas; Sabrina, Puspita Nurul; Ashaury, Herdi
Jurnal Tekno Kompak Vol 19, No 1 (2025): FEBRUARI
Publisher : Universitas Teknokrat Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.33365/jtk.v19i1.4673

Abstract

Kemajuan teknologi informasi yang pesat telah mendorong pengembangan sistem informasi yang lebih kompleks, termasuk dalam sektor kesehatan. Sistem informasi puskesmas yang berfungsi untuk mengelola data pasien, informasi pegawai, dan layanan kesehatan memerlukan kualitas perangkat lunak yang tinggi agar mudah dipelihara dan dikembangkan. Salah satu tantangan dalam pengembangan sistem ini adalah menjaga maintainability kode, terutama dala menghadapi kompleksitas yang semakin meningkat dan munculnya code smell. Penelitian ini bertujuan untuk meningkatkan maintainability sistem informasi puskesmas melalui penerapan teknik refactoring serta mengevaluasi dampaknya terhadap metrik kualitas kode seperti kompleksitas siklomatik, ukuran kelas, dan penggunaan metode. Penelitian ini dilakukan melalui beberapa tahapan, termasuk identifikasi masalah, analisis kode sumber, penentuan ruang lingkup refactoring, pengukuran kualitas kode sebelum dan sesudah refactoring, implementasi refactoring, validasi hasil, serta evaluasi keseluruhan proses. Pengukuran kualitas kode menggunakan alat PHP Metrics untuk membandingkan data awal dengan hasil setelah refactoring. Hasil penelitian menunjukkan bahwa pengujian kualitas perangkat lunak memberikan peningkatan yang signifikan melalui perbaikan pada Object Oriented Metrics. Kompleksitas siklomatik rata-rata mengalami penurunan sebesar 41,25%, sedangkan Weighted Metods per Class (WMC) rata-rata berkurang sebesar 2,41%, dan efisiensi penggunaan metode meningkat. Analisis terhadap struktur kode mengidentifikasi kerentanan dan memberikan indikasi adanya code smell melalui pengujian menggunakan Object Oriented Metrics. Selanjutnya, dilakukan refactoring untuk memperbaiki struktur internal perangkat lunak dengan tujuan meningkatkan maintainability kode, mengurangi kompleksitas, meningkatkan keterbacaan, dan meminimalkan risiko kesalahan. Dampak dari refactoring ini secara langsung mendukung kelancaran operasional puskesmas dalam jangka panjang, memperkuat kehandalan sistem untuk mendukung kebutuhan pengelolaan data kesehatan yang lebih baik.
Metode Refactoring Untuk Meningkatkan Kualitas Maintainability Pada Sistem Informasi Puskesmas Andriani, Ria; Sabrina, Puspita Nurul; Ashaury, Herdi
Jurnal Tekno Kompak Vol 19, No 1 (2025): FEBRUARI
Publisher : Universitas Teknokrat Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.33365/jtk.v19i1.4686

Abstract

Kemajuan teknologi informasi yang pesat telah mendorong pengembangan sistem informasi yang lebih kompleks, termasuk dalam sektor kesehatan. Sistem informasi puskesmas yang berfungsi untuk mengelola data pasien, informasi pegawai, dan layanan kesehatan memerlukan kualitas perangkat lunak yang tinggi agar mudah dipelihara dan dikembangkan. Salah satu tantangan dalam pengembangan sistem ini adalah menjaga maintainability kode, terutama dala menghadapi kompleksitas yang semakin meningkat dan munculnya code smell. Penelitian ini bertujuan untuk meningkatkan maintainability sistem informasi puskesmas melalui penerapan teknik refactoring serta mengevaluasi dampaknya terhadap metrik kualitas kode seperti kompleksitas siklomatik, ukuran kelas, dan penggunaan metode. Penelitian ini dilakukan melalui beberapa tahapan, termasuk identifikasi masalah, analisis kode sumber, penentuan ruang lingkup refactoring, pengukuran kualitas kode sebelum dan sesudah refactoring, implementasi refactoring, validasi hasil, serta evaluasi keseluruhan proses. Pengukuran kualitas kode menggunakan alat PHP Metrics untuk membandingkan data awal dengan hasil setelah refactoring. Hasil penelitian menunjukkan bahwa pengujian kualitas perangkat lunak memberikan peningkatan yang signifikan melalui perbaikan pada Object Oriented Metrics. Kompleksitas siklomatik rata-rata mengalami penurunan sebesar 41,25%, sedangkan Weighted Metods per Class (WMC) rata-rata berkurang sebesar 2,41%, dan efisiensi penggunaan metode meningkat. Analisis terhadap struktur kode mengidentifikasi kerentanan dan memberikan indikasi adanya code smell melalui pengujian menggunakan Object Oriented Metrics. Selanjutnya, dilakukan refactoring untuk memperbaiki struktur internal perangkat lunak dengan tujuan meningkatkan maintainability kode, mengurangi kompleksitas, meningkatkan keterbacaan, dan meminimalkan risiko kesalahan. Dampak dari refactoring ini secara langsung mendukung kelancaran operasional puskesmas dalam jangka panjang, memperkuat kehandalan sistem untuk mendukung kebutuhan pengelolaan data kesehatan yang lebih baik.
K-Means Clustering with KNN and Mean Imputation on CPU Benchmark Compilation Data Syauqi, Rofiq Muhammad; Sabrina, Puspita Nurul; Santikarama, Irma
Journal of Applied Informatics and Computing Vol. 7 No. 2 (2023): December 2023
Publisher : Politeknik Negeri Batam

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.30871/jaic.v7i2.6491

Abstract

In the rapidly evolving digital age, data is becoming a valuable source for decision-making and analysis. Clustering, as an important technique in data analysis, has a key role in organizing and understanding complex datasets. One of the effective clustering algorithms is k-means. However, this algorithm is prone to the problem of missing values, which can significantly affect the quality of the resulting clusters. To overcome this challenge, imputation methods are used, including mean imputation and K-Nearest Neighbor (KNN) imputation. This study aims to analyze the impact of imputation methods on CPU Benchmark Compilation clustering results. Evaluation of the clustering results using the silhouette coefficient showed that clustering with mean imputation achieved a score of 0.782, while with KNN imputation it achieved a score of 0.777. In addition, the cluster interpretation results show that the KNN method produces more information that is easier for users to understand. This research provides valuable insights into the effectiveness of imputation methods in improving the quality of data clustering results in assisting CPU selection decisions on CPU Benchmark Compilation data.
Implementasi Algoritma Enkripsi Blowfish dan Rijndael dalam Pengamanan File Text Ramadhani, Desnantia Eka; Sabrina, Puspita Nurul; Ashaury, Herdi
Jurnal Locus Penelitian dan Pengabdian Vol. 4 No. 8 (2025): JURNAL LOCUS: Penelitian dan Pengabdian
Publisher : Riviera Publishing

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.58344/locus.v4i8.4356

Abstract

Kemajuan teknologi informasi mempermudah proses penyimpanan dan pertukaran data digital, termasuk file teks. Namun, kemudahan ini juga membuka peluang terhadap ancaman keamanan data seperti pencurian atau manipulasi informasi. Untuk mengatasi hal tersebut, diperlukan metode pengamanan yang efektif, salah satunya melalui enkripsi. Penelitian ini membahas implementasi dan analisis dua algoritma kriptografi simetris, yaitu Blowfish dan Rijndael (AES), dalam menjaga keamanan file teks. Implementasi dilakukan menggunakan bahasa pemrograman Python, dengan pengujian terhadap efisiensi waktu proses enkripsi-dekripsi dan perubahan ukuran file. Hasil penelitian menunjukkan bahwa kedua algoritma mampu menjaga kerahasiaan data, namun memiliki perbedaan performa. Algoritma Blowfish lebih cepat dalam memproses file berukuran kecil, sedangkan Rijndael menunjukkan performa yang lebih konsisten untuk file yang lebih besar. Oleh karena itu, pemilihan algoritma enkripsi sebaiknya disesuaikan dengan kebutuhan sistem dan karakteristik data yang akan diamankan.
Klasifikasi Website Phishing Menggunakan Metode X-Gboost dengan Teknik Penyeimbang Data Radial Based Undersampling Yoga, Yoga; Umbara, Fajri Rakhmat; Sabrina, Puspita Nurul
Building of Informatics, Technology and Science (BITS) Vol 7 No 2 (2025): September 2025
Publisher : Forum Kerjasama Pendidikan Tinggi

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.47065/bits.v7i2.7920

Abstract

Phishing websites are one of the most prevalent forms of cyberattacks and have the potential to cause significant losses, both financially and non-financially. Automatic phishing detection using machine learning algorithms has become an effective solution to address this threat. This study aims to classify phishing websites using the Extreme Gradient Boosting (XGBoost) algorithm and to address the issue of class imbalance by applying the Radial Based Undersampling (RBU) method. In addition, hyperparameter tuning was performed using the Random Search method to optimize the model's performance. The dataset used was obtained from the Kaggle platform and exhibits an imbalanced class distribution, where the number of non-phishing instances far exceeds phishing instances. This imbalance can lead to a biased model and reduce its ability to detect minority class patterns. Based on the evaluation results, the application of RBU significantly improved the model’s capability in detecting phishing instances, while hyperparameter tuning further enhanced its accuracy. The best model was achieved through a combination of RBU and Random Search, reaching an accuracy of 90.39% on the test data. These findings indicate that the combined approach of data balancing and model optimization provides an effective solution for phishing website classification and can be applied to similar cases in the field of cybersecurity.
Analisis Sentimen Terhadap Cyberbullying di Twitter (X) Menggunakan Improved Word Vectors dan Bert Nusantara, Madya Dharma; Umbara, Fajri Rakhmat; Sabrina, Puspita Nurul
Building of Informatics, Technology and Science (BITS) Vol 7 No 2 (2025): September 2025
Publisher : Forum Kerjasama Pendidikan Tinggi

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.47065/bits.v7i2.7968

Abstract

Text mining is an important approach in analyzing text data, particularly for detecting negative sentiments such as cyberbullying on social media. Twitter (X), as an open platform, often serves as a space for the proliferation of hate speech and abusive behavior recorded in text form. This study aims to improve the performance of sentiment classification models on Twitter (X) data by combining the Improved Word Vector (IWV) and Bidirectional Encoder Representations from Transformers (BERT) methods, evaluated using precision, recall, and F1-score metrics. The dataset used consists of 9,874 Indonesian-language tweets labeled into three categories: Hate Speech (HS), Abusive, and Neutral. This data is sourced from previous research and is the result of re-annotation of the original dataset of 13,169 tweets. IWV is formed from a combination of Word2Vec, GloVe, POS tagging, and emotion lexicon features designed to enrich word representation semantically. The preprocessing process is carried out through several important stages, namely tokenization, filtering, stemming/lemmatization, and normalization. The IWV extraction results were then combined with BERT embedding through concatenation to produce high-dimensional vector representations. Evaluation was performed using precision, recall, and F1-score metrics. The test results showed that the combined IWV+BERT model was able to produce better performance than BERT alone. The use of data that has been balanced through balancing techniques also contributed to the improvement in accuracy, with the highest accuracy value reaching 91%. This finding indicates that the integration of word representation features from IWV and sentence context from BERT can improve the effectiveness of text mining in sentiment analysis related to cyberbullying on social media