Claim Missing Document
Check
Articles

Found 36 Documents
Search

PEMBANGKIT DATA OTOMATIS BERBASIS POLA DISTRIBUSI POISSON UNTUK KEBUTUHAN PENGETESAN PERANGKAT LUNAK DATA MINING DALAM PENCARIAN POLA ASOSIASI DAN POLA SEKUENSIAL Djunaidy, Arif; Soelaiman, Rully; Pratiwi, Adhita
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 1, No 1 Juli 2002
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (274.358 KB) | DOI: 10.12962/j24068535.v1i1.a97

Abstract

Data transaksi tiruan yang menyerupai transaksi nyata pada lingkungan ritel dibutuhkan dalam pengetesan teknik data mining untuk pencarian pola asosiasi dan pola sekuensial dari basis data berskala besar. Dalamdunia nyata, terdapat kecenderungan bahwa pembeli melakukan pembelian beberapa item secara bersamaan dengan ukuran transaksi terkelompok di sekitar nilai rerata banyaknya item yang dibeli dan membentuk poladistribusi Poisson. Makalah ini membahas pengembangan pembangkit data otomatis yang mengikuti pola distribusi Poisson untuk kebutuhan pengetesan perangkat lunak data mining dalam pencarian pola asosiasi dan pola sekuensial.Dalam proses pembangkitan data, perangkat lunak ini menggunakan beberapa parameter, seperti jumlah item, ukuran rerata itemset, ukuran maksimum large itemset, jumlah large itemset, ukuran rerata transaksi, ukuranmaksimum transaksi, dan jumlah transaksi. Sedang tahapan pembuatan transaksi tiruan meliputi pembentukan item yang akan dimasukkan ke dalam transaksi, pembuatan large itemset dari kumpulan item, dan pembuatantransaksi. Ukuran masing-masing itemset dan transaksi didasarkan pada pola distribusi Poisson dengan rerata sama dengan ukuran rerata large itemset/transaksi.Uji coba perangkat lunak yang dilakukan terhadap berbagai nilai parameter membuktikan bahwa pembangkit data otomatis mampu menghasilkan data transaksi tiruan dalam jumlah besar dengan waktukomputasi yang relatif singkat. Hasil uji coba menunjukkan bahwa (a) semakin besar ukuran rerata transaksi, semakin besar pula jumlah record, waktu pembuatan dataset, ukuran basis data, dan jumlah frequent itemsetyang ditemukan, (b) semakin besar jumlah transaksi, semakin besar pula jumlah record, waktu pembuatan dataset, dan ukuran basis data yang dihasilkan, dan (c) semakin besar jumlah itemset yang dibuat, semakinsedikit jumlah pola yang ditemukan. Kata kunci: pembangkit data otomatis, pola distribusi poisson, data mining, pola asosiasi, pola sekuensial.
ALGORITMA SHARED NEAREST NEIGHBOR BERBASIS DATA SHRINKING Zainal, Rifki Fahrial; Djunaidy, Arif
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 7, No 1, Januari 2008
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (178.689 KB) | DOI: 10.12962/j24068535.v7i1.a56

Abstract

Shared Nearest Neighbor (SNN) algorithm constructs a neighbor graph that uses similarity between data points based on amount of nearest neighbor which shared together. Cluster obtained from representative points that are selected from the neighbor graph. The representative point is used to reduce number of clusterization errors, but also reduces accuracy. Data based shrinking SNN algorithm (SSNN) uses the concept of data movement from data shrinking algorithm to increase accuracy of obtained data shrinking. The concept of data movement will strengthen the density of neighbor graph so that the cluster formation process could be done from neighbor graph components which still has a neighbor relationship. Test result shows SSNN algorithm accuracy is 2% until 8% higher than SNN algorithm, because of the termination of relationship between weak data points in the neighbor graph is done slowly in several iteration. However, the computation time required by SSNN algorithm is three times longer than SNN algoritm computational time, because SSNN algorithm constructs neighbor graph in several iteration.
PENYELESAIAN PENJADWALAN MATAKULIAH MENGGUNAKAN HIBRIDISASI ALGORITMA GENETIKA DAN ALGORITMA KOLONI SEMUT Anamisa, Devie Rosa; Djunaidy, Arif
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 12, No 1, Januari 2014
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (398.201 KB) | DOI: 10.12962/j24068535.v12i1.a41

Abstract

Permasalahan penjadwalan matakuliah merupakan permasalahan yang kompleks. Penjadwalan dipengaruhi oleh beberapa faktor, seperti ketersediaan jadwal dosen, matakuliah, ketersedian ruang dan waktu yang ada. Dalam penyusunan jadwal sering terjadi bentrok baik bentrok terhadap jadwal dosen maupun bentrok ruang perkuliahan, sehingga diperlukan persyaratan untuk mengatasinya. Beberapa solusi terhadap penyelesaian permasalahan penjadwalan matakuliah telah banyak dilakukan. Namun, solusi tersebut belum memberikan keberhasilan yang memuaskan, sehingga berbagai upaya perbaikan perlu dilakukan. Dalam penelitian ini, penyelesaian permasalahan penjadwalan dimodelkan ke dalam ruang tiga dimensi. Ketiga dimensi tersebut berturut-turut merepresentasikan dimensi hari, dimensi ketersediaan ruang kuliah, dan dimensi waktu perkuliahan dalam setiap hari. Untuk menentukan urutan penempatan sel-sel ke dalam model ruang tiga dimensi digunakan hibridisasi algoritma genetika dan algoritma koloni semut (AG-AKS). Dalam proses hibridisasi, algoritma genetika (AG) digunakan untuk memaksimalkan pemenuhan batasan yang ada. Di lain pihak, algoritma koloni semut (AKS) digunakan untuk meminimalkan terjadikan bentrok jadwal mengajar dosen, bentrok penggunaan ruang kuliah, dan bentrok pembagian waktu matakuliah dengan bobot lebih dari tiga sks. Berbagai uji coba dilakukan untuk menentukan parameter AG-AKS (seperti jumlah generasi, jumlah populasi, alfa, dan beta) untuk memperoleh hasil penjadwalan yang optimal. Hasil ujicoba menunjukkan bahwa hibridisasi AG-AKS yang dikembangkan dalam penelitian ini mampu menyelesaikan persoalan penjadwalan matakuliah dengan hasil yang memuaskan. Tingkat keberhasilan pemenuhan penjadwalan matakuliah sebesar 82% sampai dengan 97% dapat diperoleh untuk pengujian menggunakan data penjadwalan beberapa semester pada perguruan tinggi negeri. Kualitas keberhasilan tersebut diperoleh menggunakan parameter jumlah generasi di atas 50, jumlah populasi di atas 20, serta nilai alfa dan beta masin-masing sebesar satu.
BLENDED LEARNING DARI PERSPEKTIF PARA GURU SEKOLAH DI PONDOK PESANTREN Muklason, Ahmad; Mahananto, Faizal; Anggraeni, Wiwik; Djunaidy, Arif; Riksakomara, Edwin
SISFO Vol 8 No 2 (2019)
Publisher : Department of Information Systems, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

To survive the industrial revolution 4.0 which was marked by the massive use of digital technology, educational organizations are expected to do digital transformation. However, unfortunately it is commonly known that there is a gap in the use of technology in Indonesia between big cities and regions, between modern education system and traditional education system. To reduce this gap, blended learning technology training was held aimed for teachers in the Darul Ulum Islamic boarding school in Peterongan, Jombang. Pondok Pesantren Darul Ulum Islamic is a boarding school with almost 10,000 students. In the Darul Ulum Islamic boarding school its self there are various educational units ranging from primary school to higher education. This study focuses on investigating the online learning technology adoption by teachers in Islamic boarding school, especially their perspective on the technology. Our findngs showed that they are very ready to adopt the technology.
Hyper-heuristik untuk Penyelesaian Masalah Optimasi Lintas Domain dengan Seleksi Heuristik berdasarkan Variable Neighborhood Search Djunaidy, Arif; Angresti, Nisa Dwi; Mukhlason, Ahmad
Khazanah Informatika Vol. 5 No. 1 Juni 2019
Publisher : Universitas Muhammadiyah Surakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.23917/khif.v5i1.7567

Abstract

State-of-the-art dari metode yang digunakan untuk menyelesaikan permasalahan optimasi kombinatorik, yang diketahui sebagai permasalahan NP-hard, adalah meta-heuristics. Kelemahan dari metode meta-heuristics adalah dibutuhkanya parameter tunning yang spesifik untuk setiap problem domain berbeda. Hal ini menyebabkan pendekatan meta-heuristics kurang efektif untuk menyelesaikan permasalahan lintas problem domain. Untuk mengatasi permasalahan tersebut, muncul pendekatan baru yaitu hyper-heuristics. Dengan meningkatkan level search space dari solution space ke low-level heuristics space, hyper-heuristics diharapkan dapat menjadi pendekatan yang lebih general dan efektif untuk menyelesaikan permasalahan lintas problem domain. Penelitian ini bertujuan untuk menginvestigasi performa algoritma variable neighbourhood search (VNS) sebagai strategi untuk memilih low-level heuristics dalam kerangka kerja hyper-heuristics. Hal ini berbeda dengan penelitian-penelitian sebelumnya dimana VNS digunakan dalam kerangka kerja meta-heuristics. Metode yang diusulkan dalam penelitian ini diujicoba pada 6 problem domain yang berbeda yaitu satisfiability (SAT), one dimensional bin packing, permutation flow shop, personel scheduling, travelling salesman problem (TSP), dan vehicle routing problem (VRP). Hasil komputasi menunjukkan bahwa metode VNS ini memiliki performa lebih baik dibandingkan dengan metode seleksi low-level heuristics pembanding, yaitu Simple Random. Secara lebih spesifik, VNS lebih unggul pada 5 dari 6 problem domain.
KLASIFIKASI BERBASIS GRAVITASI DATA DAN PROBABILITAS POSTERIOR Muhamad Arief Hidayat; Arif Djunaidy
SPIRIT Vol 7, No 1 (2015): SPIRIT
Publisher : STMIK YADIKA BANGIL

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (755.016 KB) | DOI: 10.53567/spirit.v7i1.23

Abstract

The classification method based on data gravitation (DGC) is one of the new classification techniques that uses data  gravitation as the criteria of the classification. In the case of DGC, an object is classified on the basis of the class that creates the largest gravitation in that object. However, the DGC method may cause inaccurate result when the training data being used suffer from the class imbalanced problem. This may be caused by the existence of the training data containing a class having excessively big mass that will in turn tend to classify an uknown object as a member of that class due to the high degree of the data gravitation produced, and vice versa. In this research, a modification to the DGC method is performed by constructing a classificaion method that is based on both the data gravitation and posterior probability (DGCPP). In DGCPP, the mass concept defined in the DGC method as the prior probability is replaced by the posterior probability. By using this modification, data gravitation calculation process is expected to produce more accurate results in compared to those produced by the DGC method. In addtion, by improving the data gravitation calculation, it is expected that the DGCPP method willproduce more accurate classification results in compared to those produced by the DGC method for both normal dataset as well as dataset having class imbalanced problems. A thorough tests for evaluating the classification accuracy are performed using a ten-fold cross-validation method on several datasets containing both normal andimbalanced-class datasets. The results showed that DGCPP method produced positive average of accuracy differences in compared to those produced by the DGC method. For the tests using the entire normal datasets showed that the average of accuracy differences are statistically significant with a 95% confidence level. In addition, results of the tests using the four imbalanced-class datasets also showed that the average accuracy differences are statistically significant with a 95% confidence level. Finally, results of the tests for evaluating the computing times required by the classification program showed that the additional computing time needed by DGCPP method to perform the classification process is insignificant and less than the human response time, in compared to that needed by DGC method for running all datasets being used.  Keywords—data gravitation-based classification, class imbalanced problem,posterior probability 
ALGORITMA PREDIKSI OUTLIER MENGGUNAKAN BORDER SOLVING SET Barry Nuqoba; Arif Djunaidy
Informatika Mulawarman : Jurnal Ilmiah Ilmu Komputer Vol 9, No 3 (2014): Informatika Mulawarman : Jurnal Ilmiah Ilmu Komputer
Publisher : Mulawarman University

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (274.857 KB) | DOI: 10.30872/jim.v9i3.172

Abstract

Prediksi outlier penting untuk menjaga validitas data. Algoritma prediksi outlier konvensional memiliki kelemahan dalam hal efisiensi karena harus membandingkan data yang akan diprediksi dengan seluruh data dalam data set. Konsep baru yang melibatkan solving setmuncul sebagai solusi atas permasalahan efisiensi dalam prediksi outlier. Dengan menggunakan solving set, waktu prediksi menjadi lebih cepat tetapi akurasiprediksi menjadi lebih jelek. Dalam penelitian ini dikembangkan suatu algoritma prediksi outlier baru yang efisien dalam melakukan prediksi tetapi tidak mengorbankan akurasi hasil prediksi. Algoritma baru ini merupakan inovasi terhadap konsep solving setyang sudah dikembangkan sebelumnya. Dalam penelitian sebelumnya, solving setdidefinisikan sebagai subset dari data set yang beranggotakan data yang menjadi top n-outlier sebagai representasi data set. Sedangkan dalam penelitian ini, solving setdidefinisikan ulang sebagai subset dari data set yang merupakan data tepi klaster beserta pusat klasternya sebagai representasi data set, atau selanjutnya disebut border solving set. Data tepi klaster dideteksi menggunakan algoritmaBORDER yang telah terbukti dapat mendeteksi data tepi klaster secara efisien, dan algoritma klasterisasi berbasis hirarki digunakan untuk melakukan klasterisasi data tepi yang telah terdeteksi. Selanjutnya, pusat masing-masing klaster dicari dengan menghitung nilai median dari data tepi pada masing-masing klaster. Algoritma Prediksi Outlier dalam penelitian ini dilakukan dengan membandingkan jarakantara data yang akan diprediksi (query data) dengan pusat klaster dan jarak antara query datadengan data tepi klaster yang terdekat. Algoritma Prediksi Outlier pada penelitian ini selanjutnya disebut APOTEK (Algoritma Prediksi Outlier menggunakan TEpi Klaster). Setelah dilakukan beberapa percobaan terhadap beberapa dataset dengan distribusi normal dan seragam, APOTEK terbukti dapat melakukan perbaikan terhadap algoritma prediksi outlier yang sudah ada sebelumnya. Dalam aspek akurasi prediksi, APOTEK berhasil melakukan peningkatan sebesar 5% dibandingkan dengan algoritma prediksi outlier yang dikembangkan oleh Angiulli et. al. (2006), untuk data set berdistribusi normal.
Perbaikan Algoritma Penggalian Frequent Closed Itemset CHARM Mardiyanto Mardiyanto; Arif Djunaidy
Seminar Nasional Aplikasi Teknologi Informasi (SNATI) 2007
Publisher : Jurusan Teknik Informatika, Fakultas Teknologi Industri, Universitas Islam Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Penggalian frequent closed itemset merupakan salah satu bagian penting dari penggalian kaidahassosiasi (Association rule) karena dapat secara unik menentukan himpunan semua frequent itemsets dansupportnya.Berbagai algoritma penggalian frequent closed itemset telah ditemukan, diantaranya adalahalgoritma CHARM dan algoritma DCI_CLOSED. Algoritma CHARM menggunakan format data vertikal diffsetdan metode subsumption check untuk melakukan pemeriksaan duplikasi. Metode ini tidak efisien karenamemerlukan penyimpanan semua frequent closed itemsets sebelumnya. Algoritma DCI_CLOSED menggunakanformat data vertikal bitvectors dan menggunakan metode order preserving untuk melakukan pengecekanduplikasi. Metode ini efisien karena tidak memerlukan penyimpanan frequent closed itemsets sebelumnya.Berdasarkan riset dan teori yang berkaitan dengan penggalian frequent closed itemsets, belum adaalgoritma yang mengintegrasikan penggunaan format data vertikal diffset dan pengecekan duplikasi tanpamelakukan penyimpanan semua frequent closed itemsets sebelumnya. Sehingga ada peluang penelitian untukmerancang perbaikan algoritma CHARM yang lebih efisien penggunaan memorinya. Metodenya adalahmenggabungkan subsumption check pada cabang yang sedang dienumerasi dan metode order preserving,sehingga tabel hash tidak menyimpan semua frequent closed itemsets sebelumnya.Hasil penelitian menunjukkan algoritma perbaikan CHARM lebih efisien penggunaan memorinya biladibandingkan dengan algoritma CHARM untuk nilai minimum support yang semakin kecil.Kata kunci: Penggalian Kaidah Asosiasi,Perbaikan Algoritma CHARM, Frequent Closed Itemset, Diffset
PENCARIAN METODE ELIMINASI PENCILAN TERBAIK UNTUK MEMPERBAIKI KINERJA FUZZY TIME SERIES PADA PERAMALAN HARGA SAHAM BURSA EFEK INDONESIA Akhmad Tajuddin Tholaby MS; Arif Djunaidy
Jurnal Ilmiah Mikrotek Vol 2, No 4 (2017): FEBRUARI
Publisher : Universitas Trunojoyo Madura

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Metode peramalan Fuzzy Time Series (FTS) merupakan salah satu metode peramalan yang paling banyakdigunakan terutama untuk mengolah data dengan tingkat variasi tinggi dan tidak linier terhadap waktu.Namun, peluang untuk mengembangkan dan memperbaiki kinerja peramalan dengan menggunakan metodeFTS masih terbuka lebar. Kinerja suatu metode peramalan dapat dilihat dari distribusi error-nya. FTS tidakmelihat dan tidak memilah jenis data input seperti apa yang akan diprosesnya menjadi suatu nilaiperamalan, apakah data input-nya memiliki variasi kecil atau besar, atau memiliki data pencilan ( outlier),semuanya di proses untuk menjadi nilai peramalan. Tentu saja jika data input memiliki pencilan, makapencilan itu dapat merusak distribusi error sehingga menjadikan kinerja peramalannya menjadi tidakbagus.Salah satu upaya untuk meningkatkan kinerja peramalan FTS adalah dengan melakukan filterisasi data-datapencilan. Dalam penelitian ini akan dilakukan identifikasi pencilan dengan metode Cook’s Distance,leverage value, DfFITS dan Boxplot untuk meningkatkan kinerja peramalan FTS yang diaplikasikan padaperamalan. Hasil penelitian akan dilakukan observasi perhitungan untuk menentukan metode identifikasipencilan yang paling optimal meningkatkan kinerja peramalan FTS, yaitu yang paling kecil distribusierror-nya. Hasil penelitian menunjukkan bahwa metode yang terbaik untuk memperbaiki kinerja FTSadalah Metode Cook’s Distance dengan nilai MSE dan MAPE yang paling kecil.
The Stock Exchange Prediction using Machine Learning Techniques: A Comprehensive and Systematic Literature Review Rico Bayu Wiranata; Arif Djunaidy
Jurnal Ilmu Komputer dan Informasi Vol 14, No 2 (2021): Jurnal Ilmu Komputer dan Informasi (Journal of Computer Science and Information
Publisher : Faculty of Computer Science - Universitas Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.21609/jiki.v14i2.935

Abstract

This literature review identifies and analyzes research topic trends, types of data sets, learning algorithm, methods improvements, and frameworks used in stock exchange prediction. A total of 81 studies were investigated, which were published regarding stock predictions in the period January 2015 to June 2020 which took into account the inclusion and exclusion criteria. The literature review methodology is carried out in three major phases: review planning, implementation, and report preparation, in nine steps from defining systematic review requirements to presentation of results. Estimation or regression, clustering, association, classification, and preprocessing analysis of data sets are the five main focuses revealed in the main study of stock prediction research. The classification method gets a share of 35.80% from related studies, the estimation method is 56.79%, data analytics is 4.94%, the rest is clustering and association is 1.23%. Furthermore, the use of the technical indicator data set is 74.07%, the rest are combinations of datasets. To develop a stock prediction model 48 different methods have been applied, 9 of the most widely applied methods were identified. The best method in terms of accuracy and also small error rate such as SVM, DNN, CNN, RNN, LSTM, bagging ensembles such as RF, boosting ensembles such as XGBoost, ensemble majority vote and the meta-learner approach is ensemble Stacking. Several techniques are proposed to improve prediction accuracy by combining several methods, using boosting algorithms, adding feature selection and using parameter and hyper-parameter optimization.