Claim Missing Document
Check
Articles

Found 3 Documents
Search
Journal : Buffer Informatika

Prediksi Angka Perceraian Menggunakan Machine Learning Kemal Pasha; Kusrini
Buffer Informatika Vol. 11 No. 1 (2025): Buffer Informatika
Publisher : Department of Informatics Engineering, Faculty of Computer Science, University of Kuningan, Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Peningkatan jumlah perceraian telah menjadi masalah sosial yang signifikan di berbagai negara, termasuk Indonesia dan Malaysia. Berdasarkan laporan Badan Pusat Statistik Indonesia, terdapat 516.334 kasus perceraian pada tahun 2022, yang meningkat sebesar 15,3% dibandingkan 447.743 kasus pada tahun 2021. Penelitian ini bertujuan untuk mengembangkan model prediksi jumlah perceraian di Indonesia menggunakan metode Long Short-Term Memory (LSTM), yang dikenal dengan kemampuannya dalam menangkap pola temporal pada data berurutan. Dataset penelitian mencakup data selama 10 tahun (2015–2024) yang diperoleh dari Pengadilan Agama Tanjung Pati dan Badan Pusat Statistik, meliputi empat variabel utama: Upah Minimum Regional (UMR), harga beras, perkara cerai talak, dan perkara cerai gugat. Data diproses menggunakan MinMaxScaler dan dibagi menjadi data latih (80%) dan data uji (20%). Model LSTM dibangun dengan 64 unit pada layer LSTM dan 32 unit pada dense layer, serta dilatih selama 100 epoch. Hasil penelitian menunjukkan bahwa model LSTM mencapai Mean Squared Error (MSE) sebesar 0,00002033 ,yang merupakan performa terbaik dibandingkan metode lainnya. Support Vector Regression (SVR) menghasilkan MSE sebesar 0,01022, diikuti oleh Multilayer Perceptron (MLP) dengan MSE 0,01144, dan Extreme Learning Machine (ELM) dengan MSE 0,02969. Penelitian sebelumnya oleh Aimran et al. juga menunjukkan bahwa Decision Tree (C5.0) memiliki akurasi sebesar 77,96%,Penelitian ini menyimpulkan bahwa LSTM adalah pendekatan yang sangat menjanjikan untuk memprediksi angka perceraian di Indonesia, dengan potensi untuk diterapkan pada dataset yang lebih besar dan seimbang. Hasil ini memberikan kontribusi penting dalam analisis data sosial dan dapat menjadi dasar dalam perencanaan kebijakan untuk mengatasi peningkatan angka perceraian.
Optimalisasi Smart home IoT Melalui Edge Computing Dan Fuzzy Q-Learning Secara Real-Time Andri, Agung; Kusrini; Agatstya, I Made Artha
Buffer Informatika Vol. 11 No. 1 (2025): Buffer Informatika
Publisher : Department of Informatics Engineering, Faculty of Computer Science, University of Kuningan, Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Penelitian ini mengoptimalkan sistem Smart home IoT dengan menggabungkan Fuzzy Q-Learning dan komputasi Edge untuk meningkatkan efisiensi energi, mengurangi latensi, dan mempercepat waktu respons. Implementasi sistem mencakup penggunaan sensor PIR, LDR, dan DHT untuk mendeteksi gerakan, intensitas cahaya, serta suhu dan kelembaban, yang kemudian diproses menggunakan Edge Computing sebelum dikirim ke cloud. Pengujian dilakukan dalam tiga skenario: sistem tanpa optimasi berbasis cloud, sistem berbasis Edge tanpa Fuzzy Q-Learning, dan sistem berbasis Edge dengan Fuzzy Q-Learning. Hasil menunjukkan bahwa rata-rata latensi ke cloud menggunakan Ngrok adalah 17,43 ms, sementara latensi melalui Edge Computing hanya 1,67 ms. Efisiensi energi meningkat signifikan, dari konsumsi awal 700 W menjadi 453,17 W setelah optimasi. Waktu respons sistem berbasis cloud mencapai 535,71 ms, sedangkan sistem berbasis Edge dengan Fuzzy Q-Learning berhasil menurunkan waktu respons menjadi 507,33 ms. Perbandingan dengan penelitian sebelumnya menunjukkan bahwa pendekatan ini lebih efisien dalam pengelolaan daya dan latensi dibandingkan dengan metode konvensional berbasis cloud atau Edge tanpa optimasi. Dengan demikian, kombinasi Fuzzy Q-Learning dan komputasi Edge terbukti meningkatkan performa sistem Smart home IoT secara signifikan, menjadikannya solusi optimal untuk pemrosesan data real-time dengan efisiensi energi yang lebih baik.
Perbandingan Kinerja Algoritma Machine Learning dalam Deteksi Potensi Risiko HIV Ilmi, M. Bahril; Kusrini
Buffer Informatika Vol. 11 No. 1 (2025): Buffer Informatika
Publisher : Department of Informatics Engineering, Faculty of Computer Science, University of Kuningan, Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

HIV/AIDS masih menjadi tantangan kesehatan masyarakat yang signifikan di seluruh dunia, yang memengaruhi jutaan orang dan menimbulkan beban substansial pada sistem perawatan kesehatan. Identifikasi dini individu yang berisiko tinggi terinfeksi HIV sangat penting untuk menerapkan intervensi pencegahan. Studi ini berfokus pada prediksi risiko infeksi HIV menggunakan model machine learning tingkat lanjut, yaitu LightGBM, CatBoost, dan XGBoost. Model-model ini dipilih karena kinerjanya yang tinggi dalam menangani kumpulan data yang kompleks dan tidak seimbang yang merupakan ciri khas studi epidemiologi. Penelitian ini memanfaatkan fitur klinis dan demografi untuk mengembangkan model prediktif, menggunakan teknik seperti cross-validation, regularization, dan oversampling (misalnya, SMOTE) untuk mengatasi masalah umum seperti overfitting dan ketidakseimbangan data. Hasilnya menunjukkan bahwa model-model ini dapat mencapai akurasi tinggi, menawarkan alat yang berharga untuk penilaian risiko dini dan membantu dalam penerapan intervensi yang ditargetkan untuk mengendalikan penyebaran HIV