Claim Missing Document
Check
Articles

Found 38 Documents
Search

Penerapan Exponential Smoothing untuk Transformasi Data dalam Meningkatkan Akurasi Neural Network pada Prediksi Harga Emas Suryani, Indah; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (895.101 KB)

Abstract

Emas menjadi salah satu logam mulia yang paling banyak diminati baik untuk investasi maupun untuk dijadikan perhiasan. Memprediksi harga emas telah menjadi signifikan dan sangat penting bagi investor karena emas merupakan alat yang penting untuk perlindungan nilai resiko serta sebagai jalan investasi. Metode Neural Network merupakan salah satu model yang paling banyak digunakan dalam berbagai bidang penelitian. Neural Network memiliki banyak  fitur yang diinginkan yang sangat cocok untuk aplikasi peramalan. Namun sebagai sistem black box, pemodelan Neural Network sepenuhnya tergantung pada input dan output data sehingga kualitas dan distribusi set sampel pembelajaran penting bagi kemampuan generalisasi jaringan. Maka pada penelitian ini, metode Exponential Smoothing digunakan untuk melakukan transformasi data guna meningkatkan kualitas data sehingga dapat meningkatkan akurasi prediksi pada Neural Network. Eksperimen yang dilakukan pada penelitian ini adalah untuk memperoleh arsitektur optimal sehingga menghasilkan prediksi harga emas yang akurat. Penelitian ini menggunakan Neural Network dan Exponential Smoothing dengan 10 kombinasi parameter pada eksperimen yang dilakukan.  Kesimpulan yang didapatkan dari eksperimen yang dilakukan adalah bahwa prediksi harga emas menggunakan Neural Network dan Exponential Smoothing lebih akurat dibanding metode individual Neural Network.Key Words: emas, prediksi, neural network, exponential smoothing, 
Integrasi Bagging dan Greedy Forward Selection pada Prediksi Cacat Software dengan Menggunakan Naive Bayes Fitriyani, -; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (661.545 KB)

Abstract

Kualitas software ditemukan pada saat pemeriksaan dan pengujian. Apabila dalam pemeriksan atau pengujian tersebut terdapat cacat software maka hal tersebut akan membutuhkan waktu dan biaya dalam perbaikannya karena biaya untuk estimasi dalam memperbaiki software yang cacat dibutuhkan biaya yang mencapai 60 Miliar pertahun. Naïve bayes merupakan algoritma klasifikasi yang sederhana, mempunya kinerja yang bagus dan mudah dalam penerapannya, sudah banyak penelitian yang menggunakan algoritma naïve bayes untuk prediksi cacat software yaitu menentukan software mana yang masuk kategori cacat dan tidak cacat pada. Dataset NASA MDP merupakan dataset publik dan sudah banyak digunakan dalam penelitian karena sebanyak 64.79% menggunakan dataset tersebut dalam penelitian prediksi cacat software. Dataset NASA MDP memiliki kelemahan adalah kelas yang tidak seimbang dikarenakan kelas mayoritas berisi tidak cacat dan minoritas berisi cacat dan kelemahan lainnya adalah data tersebut memiliki dimensi yang tinggi atau fitur-fitur yang tidak relevan sehingga dapat menurunkan kinerja dari model prediksi cacat software. Untuk menangani ketidakseimbangan kelas dalam dataset NASA MDP adalah dengan menggunakan metode ensemble (bagging), bagging merupakan salah satu metode ensemble untuk memperbaiki ketidakseimbangan kelas. Sedangkan untuk menangani data yang berdimensi tinggi atau fitur-fitur yang tidak memiliki kontribusi dengan menggunakan seleksi fitur greedy forward selection. Hasil dalam penelitian ini didapatkan nilai AUC tertinggi adalah menggunakan model naïve bayes tanpa seleksi fitur adalah 0.713, naïve bayes dengan greedy forward selection sebesar 0.941 dan naïve bayes dengan greedy forward selection dan bagging adalah sebesar 0.923. Akan tetapi, dilihat dari rata-rata peringkat bahwa naïve bayes dengan greedy forward selection dan bagging merupakan model yang terbaik dalam prediksi cacat software dengan rata-rata peringkat sebesar 2.550.
Color and Texture Feature Extraction Using Gabor Filter - Local Binary Patterns for Image Segmentation with Fuzzy C-Means Wicaksono, Yanuar; Wahono, Romi Satria; Suhartono, Vincent
Journal of Intelligent Systems Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1514.261 KB)

Abstract

Image segmentation to be basic for image analysis and recognition process. Segmentation divides the image into several regions based on the unique homogeneous image pixel. Image segmentation classify homogeneous pixels basedon several features such as color, texture and others. Color contains a lot of information and human vision can see thousands of color combinations and intensity compared with grayscale or with black and white (binary). The method is easy to implement to segementation is clustering method such as the Fuzzy C-Means (FCM) algorithm. Features to beextracted image is color and texture, to use the color vector L* a* b* color space and to texture using Gabor filters. However, Gabor filters have poor performance when the image is segmented many micro texture, thus affecting the accuracy of image segmentation. As support in improving the accuracy of the extracted micro texture used method of Local Binary Patterns (LBP). Experimental use of color features compared with grayscales increased 16.54% accuracy rate for texture Gabor filters and 14.57% for filter LBP. While the LBP texture features can help improve the accuracy of image segmentation, although small at 2% on a grayscales and 0.05% on the color space L* a* b*. Keywords: Texture and Color, Image Segmentation, Local Binary Pattern, Gabor Filter, Fuzzy c-Means
A Systematic Literature Review of Requirements Engineering for Self-Adaptive Systems Sucipto, Slamet; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1455.272 KB)

Abstract

During 2003 to 2013, the continuous effort of researchers and engineers particularly has resulted in a hugely grown body of work on engineering self-adaptive systems. Although existing studies have explored various aspects of this topic, no systematic study has been performed on categorizing and evaluating the requirement engineering for self-adaptive activities. The objective of this paper is to systematically investigate the research literature of requirements engineering for self-adaptive systems, summarize the research trends, categorize the used modeling methods and requirements engineering activities as well as the topics that most described. a systematic literature review has been conducted to answer the research questions by searching relevant studies, appraising the quality of these studies and extracting available data. From the study, a number of recommendations for future research in requirements engineering for self-adaptive systems has been derived. So that, enabling researchers and practitioners to better understand the research trends.
Hybrid Keyword Extraction Algorithm and Cosine Similarity for Improving Sentences Cohesion in Text Summarization Darmawan, Rizki; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (511.983 KB)

Abstract

As the amount of online information increases, systems that can automatically summarize text in a document become increasingly desirable. The main goal of a text summarization is to present the main ideas in a document in less space. In the create text summarization, there are two procedures which are extraction and abstraction procedure. One of extraction procedure is using keyword extraction algorithm which is easier and common but has problems in the lack of cohesion or correlation between sentences. The cohesion between sentences can be applied by using a cosine similarity method. In this study, a hybrid keyword extraction algorithm and cosine similarity for improving sentences cohesion in text summarization has been proposed. The proposed method using compression various compression ratios is used to create candidate of the summary. The result show that proposed method could affect significant increasing cohesion degree after evaluated in the t-Test. The result also shows that 50% compression ratio obtains the best result with Recall, Precision, and F-Measure are 0.761, 0.43 and 0.54 respectively; since summary with compression ratio 50% has higher intersection with human summary than another compression ratio. Keywords: text summarization, keyword extraction, cosine similarity, cohesion
Penerapan Java Dynamic Compilation pada Metode Java Customized Class Loader untuk Memperbaharui Perangkat Lunak pada Saat Runtime dengan Lebih Efisien Ariyanto, Tory; Wahono, Romi Satria; Purwanto, .
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (856.357 KB)

Abstract

Proses pembaharuan perangkat lunak diperlukan untuk menjaga kehandalan sebuah perangkat lunak agar bisa berjalan dengan baik. Sebuah perangkat lunak yang memiliki tingkat operasional tinggi sehingga tidak diperbolehkan untuk melakukan restart, memerlukan sebuah metode dimana metode tersebut dapat melakukan proses pembaharuan dengan cepat tanpa melakukan restart. Untuk mengatasi hal tersebut, Java Customized Class Loader (JCCL) merupakan metode yang paling banyak digunakan oleh peneliti dalam bidang pembaharuan perangkat lunak tanpa melakukan restart (Dyanamic Software Update). Penerapan JCCL untuk melakukan pembaharuan perangkat lunak dengan tidak memperbolehkan restart memiliki kendala yaitu lambatnya proses pembaharuan. Dalam penelitian ini, penerapan Java Dynamic Compilation (JDC) diharapkan mampu meningkatkan efisiensi metode JCCL dalam  melakukan pembaharuan perangkat lunak tanpa melakukan restart. Untuk menerapkan JDC kedalam metode JCCL, penelitian ini memiliki dua kegiatan utama yaitu: (1) Menganalisa metode-metode untuk melakukan pembaharuan perangkat lunak dimana tidak memperbolehkan untuk restart,(2) Penerapan metode JDC untuk meningkatkan efisiensi JCCL dalam melakukan proses pembaharuan. Metode-metode mengenai pembaharuan perangkat lunak tanpa melakukan restart atau pada saat runtime dianalisa kelemahan dan kekurangan yang dimiliki berdasarkan penelitian sebelumnya, berdasarkan hasil analisa yang dilakukan maka didapat bahwa metode JCCL adalah metode yang paling banyak digunakan. Dan berdasarkan hasil analisa mengenai metode untuk mengoptimalkan proses kinerja Java didapat data bahwa metode JDC adalah metode yang tepat untuk digunakan dalam mengoptimalkan metode JCCL ketika melakukan proses pembaharuan, maka dalam penelitian ini diterapkan metode JDC dimana metode ini adalah metode yang digunakan untuk meningkatkan kinerja Java didalam Java Virtual Machine (JVM). Untuk menguji coba hasil ekperiment yang dilakukan dalam penelitian ini, digunakan aplikasi permainan snake game aplikasi permainan ini telah digunakan juga pada penelitian sebelumnya. Setelah melakukan dua kegiatan utama diatas, sebagai hasil dari penelitian ini adalah terciptanya metode untuk melakukan proses pembaharuan perangkat lunak pada saat runtime atau tanpa melakukan restart dengan waktu yang efisien. Berdasarkan hasil analisa, metode yang dihasilkan dalam penelitian ini (JCCL+JDC) memiliki waktu yang lebih efisien dari metode JCCL sebelum dioptimalkan dengan metode JDC,waktu yang dihasilkan dari metode yang diusulkan menyesuaikan kompleksitas alghoritma dari setiap method yang ditambahkan dalam proses pembaharuan. Hal tersebut yang menjadi kontribusi penelitian dalam penelitian ini.
Penerapan Gravitational Search Algorithm untuk Optimasi Klasterisasi Fuzzy C-Means Mulyanto, Ali; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (777.835 KB)

Abstract

Klasterisasi fuzzy merupakan masalah penting yang merupakan subjek penelitian aktif dalam beberapa aplikasi dunia nyata. Algoritma fuzzy c-means (FCM)  merupakan salah satu teknik pengelompokan fuzzy yang paling populer karena efisien, dan mudah diimplementasikan. Namun, FCM sangat mudah terjebak pada kondisi local minimum.  Gravitational search algorithm (GSA) merupakan salah satu metode heuristik yang efektif untuk menemukan solusi optimal terdekat. GSA digabungkan ke FCM untuk menemukan pusat klaster yang optimal dengan meminimalkan fungsi objektif FCM.  Hasil penelitian menunjukkan bahwa metode yang diusulkan gravitational search algorithm fuzzy c-means (GSA-FCM) dapat menunjukkan hasil yang lebih optimal daripada algoritma FCM.
Komparasi Metode Machine Learning dan Metode Non Machine Learning untuk Estimasi Usaha Perangkat Lunak Adhitya, Ega Kartika; Wahono, Romi Satria; Subagyo, Hendro
Journal of Software Engineering Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (302.519 KB)

Abstract

Estimasi usaha adalah proses yang sangat penting dalam kesuksesan pelaksanaan suatu proyek perangkat lunak. Memilih metode estimasi yang sesuai dengan proyek yang akan dikerjakan diperlukan pemahaman yang jelas tentang metode-metode estimasi usaha yang salah satunya mengetahui kelemahan dan kelebihan dari masing - masing metode tersebut. Dalam penelitian ini dikaji dua kelompok besar metode estimasi biaya perangkat lunak yakni metode machine learning dan metode non machine learning untuk mengetahui metode mana yang paling baik. Pada penelitian pertama mengunakan metode machine learning  dapat kita ketahui bahwa K-NN(k-nearnest neigbhors) mempunyai nilai RSME yang paling baik.  Pada penelitian Kedua mengunakan metode non machine learning  Dari hasil tersebut dapat kita ketahui bahwa FP (fungsion point ) mempunyai nilai RSME yang paling baik. Pada Penelitian Ketiga diantara metode machine learning dan non machine learning didapatkan K-NN yang mempunyai nilai RSME yang paling baik. Pada penelitian Keempat penambahan seleksi atribut  forward selection mendapatkan hasil yang paling baik untuk digunakan pada estimasi usaha perangkat lunak.
Penerapan Teknik Ensemble untuk Menangani Ketidakseimbangan Kelas pada Prediksi Cacat Software Saifudin, Aries; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1101.153 KB)

Abstract

Software berkualitas tinggi adalah software yang tidak ditemukan cacat selama pemeriksaan dan pengujian. Memperbaiki software yang cacat setelah pengiriman membutuhkan biaya jauh lebih mahal dari pada selama pengembangan. Pengujian merupakan proses paling mahal dan menghabiskan waktu sampai 50% dari jadwal pengembangan software. Tetapi belum ada model prediksi cacat software yang berlaku umum. Naϊve Bayes merupakan model paling efektif dan efisien, tetapi belum dapat mengklasifikasikan dataset berbasis metrik dengan kinerja terbaik secara umum dan selalu konsisten dalam semua penelitian. Dataset software metrics secara umum bersifat tidak seimbang, hal ini dapat menurunkan kinerja model prediksi cacat software karena cenderung menghasilkan prediksi kelas mayoritas. Secara umum ketidakseimbangan kelas dapat ditangani dengan dua pendekatan, yaitu level data dan level algoritma. Pendekatan level data ditujukan untuk memperbaiki keseimbangan kelas. Sedangkan pendekatan level algoritma dilakukan dengan memperbaiki algoritma atau menggabungkan (ensemble) pengklasifikasi tunggal agar menjadi lebih baik. Algoritma ensemble yang populer adalah boosting dan bagging. AdaBoost merupakan salah satu algoritma boosting yang telah menunjukkan dapat memperbaiki kinerja pengklasifikasi. Maka pada penelitian ini diusulkan penerapan teknik ensemble menggunakan algoritma AdaBoost dan Bagging. Pengklasifikasi yang digunakan adalah Naϊve Bayes. Hasil penelitian menunjukkan bahwa teknik ensemble dengan algoritma Bagging dapat meningkatkan sensitivitas dan G-Mean secara signifikan, sedangkan AdaBoost tidak dapat meningkatkan secara signifikan. Sehingga disimpulkan bahwa Bagging lebih baik daripada AdaBoost ketika digunakan untuk meningkatkan kinerja Naϊve Bayes pada prediksi cacat software.
Comparative Analysis of Mamdani, Sugeno and Tsukamoto Method of Fuzzy Inference System for Air Conditioner Energy Saving Saepullah, Aep; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (573.534 KB)

Abstract

Air Conditioner (AC) nowadays is one of the electrical equipment commonly used in human daily life to reduce the heat, especially for communities who live in the hot weather area. But in the other side, air conditioner usage has a shortage such as a huge electrical energy consumption of air conditioning and it reach 90% of the total electrical energy that was needed by a household, and that especially happen when operated at the peak load electricity time or around 17:00 until 22:00, and it will cause a deficit of power supplies for use by other household appliances. In this paper will be conducted analysis and comparison between Mamdani, Sugeno and Tsukamoto method on fuzzy inference systems to find a best method in terms of reduction in electrical energy consumption of air conditioner by using Room Temperature and Humidity as input variables and Compressor speed as output variable. In this research, experiments was performed by using crisp input of room temperature 11OC, 21% humidity, room temperature 14OC, 41% humidity, room temperature 27OC, 44% humidity and room temperature 33OC, 68% humidity. The results of experiments showed that the best method in terms of reduction in electrical energy consumption of air conditioning system is a method of Tsukamoto where the average electrical energy efficiency achieved by 74,2775%.