Claim Missing Document
Check
Articles

Found 40 Documents
Search

Integrasi Metode Sample Bootstrapping dan Weighted Principal Component Analysis untuk Meningkatkan Performa k Nearest Neighbor pada Dataset Besar Setiawan, Tri Agus; Wahono, Romi Satria; Syukur, Abdul
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (684.42 KB)

Abstract

Abstract: Algoritma k Nearest Neighbor (kNN) merupakan metode untuk melakukan klasifikasi terhadap objek baru berdasarkan k tetangga terdekatnya. Algoritma kNN memiliki kelebihan karena sederhana, efektif dan telah banyak digunakan pada banyak masalah klasifikasi. Namun algoritma kNN memiliki kelemahan jika digunakan pada dataset yang besar karena membutuhkan waktu komputasi cukup tinggi. Pada penelitian ini integrasi metode Sample Bootstrapping dan Weighted Principal Component Analysis (PCA) diusulkan untuk meningkatkan akurasi dan waktu komputasi yang optimal pada algoritma kNN. Metode Sample Bootstrapping digunakan untuk mengurangi jumlah data training yang akan diproses. Metode Weighted PCA digunakan dalam mengurangi atribut. Dalam penelitian ini menggunakan dataset yang memiliki dataset training yang besar yaitu Landsat Satellite sebesar 4435 data dan Tyroid sebesar 3772 data. Dari hasil penelitian, integrasi algoritma kNN dengan Sample Bootstrapping dan Weighted PCA pada dataset Landsat Satellite akurasinya meningkat 0.77% (91.40%-90.63%) dengan selisih waktu 9 (1-10) detik dibandingkan algoritma kNN standar. Integrasi algoritma kNN dengan Sample Bootstrapping dan Weighted PCA pada dataset Thyroid akurasinya meningkat 3.10% (89.31%-86.21%) dengan selisih waktu 11 (1-12) detik dibandingkan algoritma kNN standar. Dari hasil penelitian yang dilakukan, dapat disimpulkan bahwa integrasi algoritma kNN dengan Sample Bootstrapping dan Weighted PCA menghasilkan akurasi dan waktu komputasi yang lebih baik daripada algoritma kNN standar. Keywords: algoritma kNN, Sample Bootstrapping, Weighted PCA
Pendekatan Level Data untuk Menangani Ketidakseimbangan Kelas pada Prediksi Cacat Software Saifudin, Aries; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1146.976 KB)

Abstract

Dataset software metrics secara umum bersifat tidak seimbang, hal ini dapat menurunkan kinerja model prediksi cacat software karena cenderung menghasilkan prediksi kelas mayoritas. Secara umum ketidakseimbangan kelas dapat ditangani dengan dua pendekatan, yaitu level data dan level algoritma. Pendekatan level data ditujukan untuk memperbaiki keseimbangan kelas, sedangkan pendekatan level algoritma ditujukan untuk memperbaiki algoritma atau menggabungkan (ensemble) pengklasifikasi agar lebih konduktif terhadap kelas minoritas. Pada penelitian ini diusulkan pendekatan level data dengan resampling, yaitu random oversampling (ROS), dan random undersampling (RUS), dan mensintesis menggunakan algoritma FSMOTE. Pengklasifikasi yang digunakan adalah Naϊve Bayes.  Hasil penelitian menunjukkan bahwa model FSMOTE+NB merupakan model pendekatan level data terbaik pada prediksi cacat software karena nilai sensitivitas dan G-Mean model FSMOTE+NB meningkat secara signifikan, sedangkan model ROS+NB dan RUS+NB tidak meningkat secara signifikan.
Pemilihan Parameter Smoothing pada Probabilistic Neural Network dengan Menggunakan Particle Swarm Optimization untuk Pendeteksian Teks Pada Citra Saputri, Endah Ekasanti; Wahono, Romi Satria; Suhartono, Vincent
Journal of Intelligent Systems Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (563.973 KB)

Abstract

Teks sering dijumpai di berbagai tempat seperti nama jalan, nama toko, spanduk, penunjuk jalan, peringatan, dan lain sebagainya. Deteksi teks terbagi menjadi tiga pendekatan yaitu pendekatan tekstur, pendekatan edge, dan pendekatan Connected Component. Pendekatan tekstur dapat mendeteksi teks dengan baik, namun membutuhkan data training yang banyak. Probabilistic Neural Netwok (PNN) dapat mengatasi permasalahan tersebut. Namun PNN memiliki permasalahan dalam menentukan nilai parameter smoothing yang biasanya dilakukan secara trial and error. Particle Swarm Optimization (PSO) merupakan algoritma optimasi yang dapat menangani permasalahan pada PNN. Pada penelitian ini, PNN digunakan pada pendekatan tekstur guna menangani permasalahan pada pendekatan tekstur, yaitu banyaknya data training yang dibutuhkan. Selain itu, digunakan PSO untuk menentukan parameter smoothing pada PNN agar akurasi yang dihasilkan PNN-PSO lebih baik dari PNN tradisional. Hasil eksperimen menunjukkan PNN dapat mendeteksi teks dengan akurasi 75,42% hanya dengan mengunakan 300 data training, dan menghasilkan 77,75% dengan menggunakan 1500 data training. Sedangkan PNN-PSO dapat menghasilkan akurasi 76,91% dengan menggunakan 300 data training dan 77,89% dengan menggunakan  1500 data training. Maka dapat disimpulkan bahwa PNN dapat mendeteksi teks dengan baik walaupun data training yang digunakan sedikit dan dapat mengatasi permasalahan pada pendekatan tekstur. Sedangkan, PSO dapat menentukan nilai parameter smoothing pada PNN dan menghasilkan akurasi yang lebih baik dari PNN tradisional, yaitu dengan peningkatan akurasi sekitar 0,1% hingga 1,5%. Selain itu, penggunaan PSO pada PNN dapat digunakan dalam menentukan nilai parameter smoothing  secara otomatis pada dataset yang berbeda. 
Integrasi Pareto Fitness, Multiple-Population dan Temporary Population pada Algoritma Genetika untuk Pembangkitan Data Tes pada Pengujian Perangkat Lunak Maulana, Mohammad Reza; Wahono, Romi Satria; Supriyanto, Catur
Journal of Software Engineering Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (571.276 KB)

Abstract

Pengujian perangkat lunak memerlukan biaya yang mahal dan sering kali lebih dari 50% biaya keseluruhan dalam pengembangan perangkat lunak digunakan dalam tahapan ini. Untuk mengurangi biaya proses pengujian perangkat lunak secara otomatis dapat digunakan. Hal yang sangat penting dalam pengujian perangkat lunak secara otomatis adalah proses menghasilkan data tes. Pengujian secara otomatis yang paling efektif dalam menekan biaya adalah pengujian branch coverage. Salah satu metode yang banyak digunakan dan memiliki kinerja baik adalah algoritma genetika (AG). Salah satu permasalahan AG dalam menghasilkan data tes adalah ketiga target cabang dipilih memungkinkan tidak ada satupun individu yang memenuhi kriteria. Hal ini akan menyebabkan proses pencarian data tes memakan waktu lebih lama. Oleh karena itu di dalam penelitian ini diusulkan integrasi pareto fitness, multiple-population dan temporary population di dalam proses pencarian data tes dengan menggunakan AG (AG-PFMPTP). Multiple-population diusulkan untuk menghindari premature convergence. Kemudian pareto fitness dan temporary population digunakan untuk mencari beberapa data tes sekaligus, kemudian mengevaluasinya dan memasukkan ke dalam archive temporary population. Dari hasil pengujian yang telah dilakukan rata-rata generasi metode AG-PFMPTP secara signifikan lebih sedikit dalam menghasilkan data tes yang dibutuhkan dibandingkan metode AG standar ataupun AG dengan multiple-population (AG-MP) pada semua benchmark program yang digunakan. Hal tersebut menunjukkan metode yang diusulkan lebih cepat dalam mencari data tes yang dibutuhkan
Penerapan Algoritma Genetika untuk Optimasi Parameter pada Support Vector Machine untuk Meningkatkan Prediksi Pemasaran Langsung Ispandi, Ispandi; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (343.057 KB)

Abstract

Abstract: Pemasaran langsung adalah proses mengidentifikasi potensi pembeli produk tertentu dan mempromosikan produk dengan sesuai. pelaksanaan pemasaran langsung dari waktu ke waktu menghasilkan data dan informasi dalam bentuk laporan yang perlu di analisis oleh manajer dalam rangka mendukung keputusan. Namun itu adalah tugas yang sulit bagi manusia untuk menganalisis data yang kompleks yang luas. Kesulitan ini menyebabkan perkembangan teknik intelejen bisnis, yang bertujuan mengklasifikasi pengetahuan yang berguna untuk mendukung pengambilan keputusan. Metode support vector machine mampu mengatasi masalah yang berdimensi tinggi, mengatasi masalah klasifikasi dan regresi dengan linier ataupun nonlinier kernel yang dapat menjadi satu kemampuan algoritma pembelajaran untuk klasifikasi serta regresi, namun support vector machine memiliki masalah dalam pemilihan parameter yang sesuai. Untuk mengatasi masalah tersebut di perlukan metode algoritma genetika untuk pemilihan parameter yang sesuai pada metode support vector machine. Beberapa eksperimen dilakukan untuk mendapatkan akurasi yang optimal. Hasil penelitian menunjukan, eksperimen dengan menggunakan metode support vector machine dan algoritma genetika yang digunakan untuk melakukan optimasi parameter C, γ dan ε dengan tiga jenis kernel. Kernel pertama tipe kernel dot dengan akurasi sebesar 85,59%, AUC sebesar 0,911 yang kedua tipe kernel radial dengan akurasi sebesar 98.89%, AUC sebesar 0,981 dan yang ketiga dengan tipe kernel Polynomial dengan akurasi sebesar 98.67% dan AUC sebesar 0.938. Hasil eksperimen tersebut menunjukan pengujian data set menggunakan penerapan algoritma genetika pada support vector machine menunjukan hasil yang lebih akurat untuk prediksi pemasaran langsung.. 
Absolute Correlation Weighted Naïve Bayes for Software Defect Prediction Asmono, Rizky Tri; Wahono, Romi Satria; Syukur, Abdul
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (652.927 KB)

Abstract

The maintenance phase of the software project can be very expensive for the developer team and harmful to the users because some flawed software modules. It can be avoided by detecting defects as early as possible. Software defect prediction will provide an opportunity for the developer team to test modules or files that have a high probability defect. Naïve Bayes has been used to predict software defects. However, Naive Bayes assumes all attributes are equally important and are not related each other while, in fact, this assumption is not true in many cases. Absolute value of correlation coefficient has been proposed as weighting method to overcome Naïve Bayes assumptions. In this study, Absolute Correlation Weighted Naïve Bayes have been proposed. The results of parametric test on experiment results show that the proposed method improve the performance of Naïve Bayes for classifying defect-prone on software defect prediction.
Penerapan Metode Distance Transform Pada Linear Discriminant Analysis Untuk Kemunculan Kulit Pada Deteksi Kulit Awaludin, Muryan; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1106.208 KB)

Abstract

Deteksi kulit memainkan peranan penting dalam berbagai aplikasi pengolah citra, mulai dari deteksi wajah, pelacakan wajah, penyaringan konten  pornografi, berdasarkan sistem pencarian citra dan berbagai domain interaksi manusia dan komputer. Pendekatan informasi warna dapat mendeteksi warna kulit dengan baik menggunakan skin probability map (SPM) dengan aturan bayes. Namun SPM memiliki permasalahan dalam mendeteksi tekstur kulit. Linear discriminant analysis (LDA) merupakan algoritma ekstraksi fitur, dalam deteksi kulit digunakan untuk mengekstrak fitur tekstur kulit yang dapat menangani masalah SPM. Namun LDA memiliki permasalahan apabila digunakan untuk mengekstrak fitur tekstur kulit pada kernel yang berbeda. Distance transform (DT) merupakan  algoritma untuk menghitung jarak citra biner pada setiap pikel gambar dan fitur poin terdekatnya, DT merupakan algoritma yang dapat mengatasi masalah pada LDA. Kombinasi algoritma SPM, LDA dan DT diusulkan untuk memperbaiki performa dari kemunculan kulit pada deteksi kulit. Dataset pada metode yang diusulkan menggunakan IBTD dataset. Hasil dari metode yang diusulkan bahwa metode yang diusulkan menunjukan peningkatan akurasi deteksi kesalahan yang signifikan pada SPM dan LDA.
Integrasi SMOTE dan Information Gain pada Naive Bayes untuk Prediksi Cacat Software Putri, Sukmawati Anggraini; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (712.587 KB)

Abstract

Perangkat lunak banyak memainkan yang peran penting. Oleh karena itu, kewajiban untuk memastikan kualitas, seperti pengujian perangkat lunak dapat dianggap mendasar dan penting. Tapi di sisi lain, pengujian perangkat lunak adalah pekerjaan yang sangat mahal, baik dalam biaya dan waktu penggunaan. Oleh karena itu penting untuk sebuah perusahaan pengembangan perangkat lunak untuk melakukan pengujian kualitas perangkat lunak dengan biaya minimum. Naive Bayes pada prediksi cacat perangkat lunak telah menunjukkan kinerja yang baik dan menghsilkan probabilitas rata-rata 71 persen. Selain itu juga merupakan classifier yang sederhana dan waktu yang dibutuhkan dalam proses belajar mengajar lebih cepat dari algoritma pembelajaran mesin lainnya. NASA adalah dataset yang sangat populer digunakan dalam pengembangan model prediksi cacat software, umum dan dapat digunakan secara bebas oleh para peneliti. Dari penelitian yang dilakukan sebelumnya ada dua isu utama pada prediksi cacat perangkat lunak yaitu noise attribute dan  imbalance class. Penerapan teknik SMOTE (Minority Synthetic Over-Sampling Technique) menghasilkan hasil yang baik dan efektif untuk menangani ketidakseimbangan kelas pada teknik oversampling untuk memproses kelas minoritas (positif). Dan Information Gain digunakan dalam pemilihan atribut untuk menangani kemungkinan noise attribute. Setelah dilakukan percobaan bahwa penerapan model SMOTE dan Information Gain terbukti menangani imbalance class dan noise attribute untuk prediksi cacat software.
Penanganan Fitur Kontinyu dengan Feature Discretization Berbasis Expectation Maximization Clustering untuk Klasifikasi Spam Email Menggunakan Algoritma ID3 Safuan, .; Wahono, Romi Satria; Supriyanto, Catur
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (908.039 KB)

Abstract

Pemanfaatan jaringan internet saat ini berkembang begitu pesatnya, salah satunya adalah pengiriman surat elektronik atau email. Akhir-akhir ini ramai diperbincangkan adanya spam email. Spam email adalah email yang tidak diminta dan tidak diinginkan dari orang asing yang dikirim dalam jumlah besar ke mailing list, biasanya beberapa dengan sifat komersial. Adanya spam ini mengurangi produktivitas karyawan karena harus meluangkan waktu untuk menghapus pesan spam. Untuk mengatasi permasalahan tersebut dibutuhkan sebuah filter email yang akan mendeteksi keberadaan spam sehingga tidak dimunculkan pada inbox mail. Banyak peneliti yang mencoba untuk membuat filter email dengan berbagai macam metode, tetapi belum ada yang menghasilkan akurasi maksimal. Pada penelitian ini akan dilakukan klasifikasi dengan menggunakan algoritma Decision Tree Iterative Dicotomizer 3 (ID3) karena ID3 merupakan algoritma yang paling banyak digunakan di pohon keputusan, terkenal dengan kecepatan tinggi dalam klasifikasi, kemampuan belajar yang kuat dan konstruksi mudah. Tetapi ID3 tidak dapat menangani fitur kontinyu sehingga proses klasifikasi tidak bisa dilakukan. Pada penelitian ini,  feature discretization berbasis Expectation Maximization (EM) Clustering digunakan  untuk merubah fitur kontinyu menjadi fitur diskrit, sehingga proses klasifikasi spam email bisa dilakukan. Hasil eksperimen menunjukkan ID3 dapat melakukan klasifikasi spam email dengan akurasi 91,96% jika menggunakan data training 90%. Terjadi peningkatan sebesar 28,05% dibandingkan dengan klasifikasi ID3 menggunakan binning.
Optimasi Parameter Pada Metode Support Vector Machine Berbasis Algoritma Genetika untuk Estimasi Kebakaran Hutan Harafani, Hani; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1016.097 KB)

Abstract

Kebakaran hutan merupakan salah satu masalah lingkungan yang mengancam hutan, menimbulkan dampak negatif pada lingkungan, menciptakan masalah ekonomi, dan kerusakan ekologis, serta menyebabkan kerugian penting di seluruh dunia setiap tahunnya. Estimasi area yang terbakar penting dilakukan, karena area yang terbakar dapat mencerminkan berapa kuat radiasi api pada vegetasi disekitarnya. SVM dapat mengatasi masalah klasifikasi dan regresi linier ataupun nonlinier kernel yang dapat menjadi satu kemampuan algoritma pembelajaran untuk klasifikasi serta regresi. Namun, SVM juga memiliki kelemahan yaitu sulitnya menentukan nilai parameter yang optimal. Untuk menyelesaikan permasalahan tersebut algoritma genetika diusulkan untuk diterapkan sebagai algoritma pencarian nilai parameter yang efisien pada SVM. Beberapa eksperimen dilakukan untuk menghasilkan estimasi yang akurat. Awalnya percobaan dilakukan pada kernel –kernel SVM (dot, RBF, polynomial) untuk menentukan kernel mana yang akan digunakan, kemudian model SVM+GA juga dibandingkan dengan model regresi lainnya seperti Linear Regression, k-NN, dan Neural Network. Berdasarkan eksperimen dengan 10 kombinasi parameter pada metode SVM dan SVM+GA dengan kernel dot, RMSE terkecil dihasilkan oleh model SVM+GA sebesar 1.379, sementara pada percobaan SVM dan SVM+GA dengan kernel polynomial RMSE terkecil diperoleh model SVM+GA sebesar 1.379, sedangkan pada percobaan SVM dan SVM+GA dengan kernel RBF diperoleh RMSE terkecil pada model SVM+GA sebesar 1.379.Selanjutnya berdasarkan perbandingan rata-rata RMSE, kernel RBF unggul dengan nilai RMSE terkecil yaitu 1.432 pada SVM, dan 1.418 pada SVM+GA. Pada perbandingan nilai rata-rata RMSE antara SVM(RBF)+GA dengan model lainnya, RMSE terkecil dihasilkan oleh SVM(RBF)+GA yaitu sebesar 1.418, disusul dengan model SVM(RBF) sebesar 1.432, keudian Linear Regression sebesar 1.459, dilanjutkan oleh model k-NN sebesar 1.526 dan yang terakhir adalah NN dengan nilai RMSE sebesar 1.559. maka dapat disimpulkan bahwa optimasi parameter yang dilakukan GA pada model SVM terbukti dapat mengurangi tingkat error pada model SVM tanpa optimasi parameter pada dataset forestfire, selain model SVM(RBF)+GA pada penelitian ini juga terbukti lebih baik dari model regresi lainnya