Claim Missing Document
Check
Articles

Found 30 Documents
Search

Pendekatan Regresi Nonparametrik dengan Fungsi Kernel untuk Indeks Harga Saham Gabungan Nur Azizah Komara Rifai
STATISTIKA: Forum Teori dan Aplikasi Statistika Vol 19, No 1 (2019)
Publisher : Program Studi Statistika Unisba

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.29313/jstat.v19i1.4775

Abstract

Stock is one of the investment instruments that is very popular among investors. One indicator of stock price movements in Indonesia is the Jakarta Composite Index (JCI). JCI data is a time series data about joint stock prices which can be analyzed by time series analysis method. However, with this method there are assumptions that cannot be fulfilled. In this study, JCI data will be analyzed by a nonparametric method namely kernel regression with Nadaraya-Watson estimator. The weekly JCI closing price data from January 2015 to December 2015 is applied using various kernel functions that minimize the value of cross validation to get the optimal bandwidth. The results show that the biweight kernel regression with Mean Square Error = 9030,63 and bandwidth = 108,2 is the best model for predictions.
Least Absolute Shrinkage and Selection Operator (LASSO) untuk Mengatasi Multikolinearitas pada Model Regresi Linear Berganda Annisa Juwita Mahalani; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 2 No. 2 (2022): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (149.505 KB) | DOI: 10.29313/bcss.v2i2.3438

Abstract

Abstract. Linear regression analysis is one of them used to see the intersection between non-free variables and free variables. If there is more than one free variable, multiple linear regression analysis is used. Regression models are said to be good if the assumptions are met. One of them is the absence of multicollinearity, namely a high correlation or relationship between independent variables. In the event of multicholinearity, it can be resolved using the Least Absolute Shrinkage And Selection Operator (LASSO) regression method. The LASSO regression method was first introduced by Robert Tibshirani in 1996. This method can select variables and overcome multicholinearity. To make it easier to computate LASSO, you can use the Least Angle Regression (LARS) algorithm. In this study, we will discuss the application of the LASSO regression method to data on the number of poor people in Indonesia in 2020. By looking at the correlation coefficient and VIF values, there are 3 variables that indicate multicollinearity problems. The gross regional domestic product variable is the variable that is first entered in the model, meaning that the variable is most correlated with error. Abstrak. Analisis regresi linear salah satunya digunakan untuk melihat perngaruh antara variabel tak bebas dengan variabel bebas. Apabila variabel bebas lebih dari satu maka digunakan analisis regresi linear berganda. Model regresi dikatakan baik apabila asumsinya terpenuhi. Salah satunya adalah tidak adanya multikolinearitas yaitu korelasi atau hubungan yang tinggi diantara variabel bebas. Apabila terjadi multikolinearitas, dapat diatasi dengan menggunakan metode regresi Least Absolute Shrinkage And Selection Operator (LASSO). Metode regresi LASSO diperkenalkan pertama kali oleh Robert Tibshirani pada tahun 1996. Metode ini dapat menyeleksi variabel dan mengatasi multikolinearitas. Untuk mempermudah komputasi LASSO, dapat menggunakan algoritma Least Angle Regression (LARS). Dalam penelitian ini, akan dibahas penerapan metode regresi LASSO pada data jumlah penduduk miskin di Indonesia tahun 2020. Dengan melihat nilai koefisien korelasi dan nilai VIF, terdapat 3 variabel yang terindikasi masalah multikolinearitas. Variabel produk domestik regional bruto adalah variabel yang pertama kali masuk pada model artinya variabel tersebut paling berkorelasi dengan galat.
Metode Triple Exponential Smoothing Holt-Winters untuk Peramalan Jumlah Penumpang Kereta Api di Pulau Jawa Ajeng Nur Febriyanti; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 2 No. 2 (2022): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (290.802 KB) | DOI: 10.29313/bcss.v2i2.3560

Abstract

Abstract. Time series analysis is used to predict and formulate future decisions. Structural change is a pattern change that occurs in time series data with a known time of occurrence and unknown when it occurs. Exponential smoothing is a moving average forecasting method by determining the weight exponentially to the observed value. The single exponential smoothing method is used for time series data that does not contain both trend and seasonal patterns. The double exponential method is used for time series data that contains trend patterns but does not contain seasonal patterns. In time series data containing seasonal patterns, the method that can be used is triple exponential smoothing. Forecasting time series data often shows seasonal patterns, one of the forecasting methods is Exponential Smoothing Holt-Winters which is divided into two methods, namely the Holt-Winters Multiplicative and Additive Method, for selecting the best model by comparing the smallest MAPE accuracy value. The advantage of this method is that it can overcome trend and seasonal patterns that appear simultaneously. This study aims to predict the number of train passengers PT. KAI on the island of Java for the next 12 months. The best model obtained for data on the number of train passengers on Java Island in 2013-2019 is Exponential Smoothing Holt-Winters with an additive model for parameters = 0.8991, = 0.0039 and = 0.4668 with MAPE = 3.768534 with very good forecasting ability. Abstrak. Analisis time series digunakan untuk meramalkan dan merumuskan keputusan di masa mendatang. Structural change adalah suatu perubahan pola yang terjadi pada data time series dengan waktu terjadinya yang diketahui dan tidak diketahui kapan terjadinya. Pemulusan eksponensial (exponential smoothing) merupakan metode peramalan moving average dengan menentukan bobot secara eksponensial ke nilai pengamatan. Metode single exponential smoothing digunakan pada data time series yang tidak mengandung baik pola tren maupun musiman (seasonal). Metode double exponential digunakan pada data time series yang mengandung pola tren namun tidak mengandung pola musiman. Pada data time series yang mengandung pola musiman metode yang dapat digunakan yaitu triple exponential smoothing. Peramalan data time series sering menunjukan pola musiman, salah satu metode peramalannya adalah Exponential Smoothing Holt-Winters yang terbagi menjadi dua metode yaitu Metode Holt-Winters Multiplikatif dan Aditif, untuk pemilihan model terbaik dengan membandingkan nilai akurasi MAPE terkecil. Kelebihan metode tersebut dapat mengatasi pola tren dan musiman yang muncul secara bersamaan. Penelitian ini bertujuan untuk meramalkan jumlah penumpang kereta api PT. KAI di pulau Jawa selama 12 bulan kedepan. Model terbaik yang diperoleh untuk data jumlah penumpang kereta api di Pulau Jawa pada tahun 2013-2019 yaitu Exponential Smoothing Holt-Winters dengan model aditif untuk parameter α = 0,8991, β = 0,0039 dan γ = 0,4668 dengan nilai MAPE = 3,768534 dengan kemampuan forecast sangat baik.
Diagram Kendali Multivariat T2 Hotelling pada Instalasi Pengolahan Air Limbah Afina Ramdhania; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 2 No. 2 (2022): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (194.585 KB) | DOI: 10.29313/bcss.v2i2.3765

Abstract

Abstract. Control chart is a statistical tool that can be used to control the quality of a production process. Often the production process uses data from several correlated variables (multivariate data), so the control chart used is the Hotelling control chart. The production process in this study uses wastewater treatment data at the WWTP (Wastewater Treatment Plant) textile industry company CV. Sandang Sari period 2018-2021 as many as 48 samples (months) with 6 variables of liquid waste content. The Hotelling control chart is used to detect process shifts by using an average vector and can be used to detect out-of-control observations by setting control limits, the upper control limit value is 24.51, then it is detected 2 points are outside the upper control limit (out of control). Abstrak. Diagram kendali merupakan alat statistik yang dapat digunakan untuk mengontrol kualitas suatu proses produksi. Seringkali proses produksi menggunakan data dari beberapa variabel yang berkorelasi (data multivariat), maka diagram kendali yang digunakan adalah diagram kendali Hotelling. Proses produksi pada penelitian ini menggunakan data pengolahan limbah cair pada IPAL (Instalasi Pengolahan Air Limbah) perusahaan industri tekstil CV. Sandang Sari periode 2018-2021 sebanyak 48 sampel (bulan) dengan 6 variabel kandungan limbah cair. Diagram kendali Hotelling digunakan untuk mendeteksi pergeseran proses dengan menggunakan vektor rata-rata dan dapat digunakan untuk mendeteksi pengamatan di luar kendali (out of control) dengan menetapkan batas-batas kontrol, diperoleh nilai batas kendali atas sebesar 24,51, maka terdeteksi 2 titik berada diluar batas kendali atas (out of control).
Pengelompokkan Ekspor Kopi Menurut Negara Tujuan Menggunakan Metode K-Means Clustering dengan Silhouette Coefficient Suryadi Muzahidi Aziz; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 2 No. 2 (2022): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (139.905 KB) | DOI: 10.29313/bcss.v2i2.4536

Abstract

Abstract. Indonesia is one of the coffee exporting countries that has reached five continents, namely Asia, Australia, America, and Europe. The purpose of this study is to determine which countries are included in the high coffee export cluster, and the low coffee export cluster. The method used in this research is the K-Means Clustering method with Silhouette Coefficient. The advantage of this method is that it can perform analysis of larger samples more efficiently. The data used in this study is secondary data obtained from the Central Statistics Agency (BPS). The data contains data on the amount of coffee exports (net) and the value of FOB (Free On Board) from 2000 to 2020 in Indonesia. The software used in this research is RStudio. The results of this study conclude that, first, the K-Means Clustering Method with the Silhouette Coefficient can determine the grouping of coffee exports. The data is processed using the silhouette method which in its processing determines the value of k whose results are known to be 2 clusters, so the data to be taken is a high export level cluster, and a low export level cluster. Second, the data centroids for the high export level cluster are Japan, the United States and Germany. Third, the data centroids for the low export level cluster are Singapore, Malaysia, India, Egypt, Morocco, Algeria, England, Italy, Romania, Georgia, Belgium, the Netherlands, Denmark, and France. Fourth, the Silhoutte coefficient value that can be known is 0.73, where 0.7 < SI <= 1 is a strong structure cluster, so coffee export groupings have very good quality because of their high value. Abstrak. Indonesia menjadi salah satu negara pengekspor komoditi kopi yang telah menjangkau lima benua, yaitu Asia, Australia, Amerika, dan Eropa. Tujuan penelitian ini adalah menentukan negara yang termasuk ke dalam cluster ekspor kopi tinggi, dan cluster ekspor kopi rendah. Metode yang digunakan pada penelitian ini adalah metode K-Means Clustering dengan Silhouette Coefficient. Kelebihan metode ini adalah dapat melakukan analisis sampel dalam ukuran yang lebih besar dengan lebih efisien. Data yang digunakan dalam penelitian ini adalah data Sekunder yang di peroleh dari Badan Pusat Statistik (BPS). Data tersebut berisi data mengenai Jumlah ekspor kopi (netto) dan nilai FOB (Free On Board) dari tahun 2000 sampai 2020 di Indonesia. Software yang digunakan pada penelitian ini adalah RStudio. Hasil penelitian ini menyimpulkan bahwa, pertama, Metode K-Means Clustering dengan Silhouette Coefficient dapat menentukan pengelompokkan ekspor kopi. Data diolah dengan menggunakan metode silhouette yang dimana dalam pengolahan nya menentukan nilai k yang hasil nya diketahui 2 cluster, makan data yang akan di ambil adalah cluster tingkat ekspor tinggi, dan cluster tingkat ekspor rendah. Kedua, Centroid data untuk cluster tingkat ekspor tinggi adalah Negara Jepang, Amerika Serikat dan Jerman. Ketiga, Centroid data untuk cluster tingkat ekspor rendah adalah Negara Singapura, Malaysia, India, Mesir, Maroko, Aljazair, Inggris, Italia Rumania, Georgia, Belgia, Belanda, Denmark, dan Perancis. Keempat, Nilai Silhoutte coefficient yang dapat diketahui adalah 0.73 yang mana 0.7 < SI <= 1 merupakan cluster strong scructure jadi pengelompokan ekspor kopi mempunyai kualitas yang sangat baik karena nilai nya tinggi
Peramalan Produksi Mobil Menggunakan Metode Double Exponential Smoothing dengan Algoritma Golden Section Muhammad Iqbal Wiladibrata; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 2 No. 2 (2022): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (161.326 KB) | DOI: 10.29313/bcss.v2i2.4776

Abstract

Abstract. Forecasting analysis is the process of estimating a situation in the future based on past data. The exponential smoothing method is a forecasting method that assigns a smoothing value by an exponential function to a series of previous observed values. Research data in the form of secondary data obtained from the Association of Indonesian Automotive Industries (GAIKINDO) in the form of Toyota Avanza car production data for April 2020-April 2022. In this study, the double exponential smoothing method will be used because the data pattern used has a trend tendency. In the double exponential smoothing method, two smoothing parameters are needed, namely the parameter which is used to calculate the constant value of the forecasting model and the parameter which is used to calculate the trend coefficient of the forecasting model. In this study, the golden section algorithm is used to optimize the parameters of the double exponential smoothing method. The purpose of this study is to apply the double exponential smoothing method with the golden section algorithm to predict the production of the Toyota Avanza in May 2022. The results of the study state that the combination of parameters and which produces the minimum Sum of Squares Error (SSE) value in the golden section algorithm is at the parameter value =0.618034 and parameter =0.381966 which produces a forecasting model F_(t+m)=15259.525596+1002.881415(m) with a Sum of Squares Error (SSE) value of 140294878 and an Absolute Mean Percentage Error (MAPE) is 46.67%. The results of forecasting the Toyota Avanza in May 2022 were 16262.41 or 16263 units of the Toyota Avanza. Abstrak. Analisis peramalan adalah proses memperkirakan suatu keadaan di masa mendatang berdasarkan data-data masa lampau. Metode exponential smoothing adalah suatu metode peramalan yang memberi nilai pemulusan oleh sebuah fungsi eksponensial pada serangkaian nilai pengamatan sebelumnya. Data penelitian berupa data sekunder yang diperoleh dari Gabungan Industri Kendaraan Bermotor Indonesia (GAIKINDO) berupa data produksi mobil Toyota Avanza bulan April 2020-April 2022. Pada penelitian ini akan digunakan metode double exponential smoothing karena pola data yang digunakan memiliki kecenderungan trend. Pada metode double exponential smoothing dibutuhkan dua parameter pemulusan berupa parameter α yang digunakan untuk menghitung nilai konstanta model peramalan dan parameter γ yang digunakan untuk menghitung koefisien trend model peramalan. Dalam penelitian ini digunakan algoritma golden section untuk mengoptimumkan parameter pada metode double exponential smoothing. Tujuan dari penelitian ini adalah menerapkan metode double exponential smoothing dengan algoritma golden section untuk meramalkan produksi mobil Toyota Avanza pada bulan Mei 2022. Hasil penelitian menyatakan bahwa kombinasi parameter α dan γ yang menghasilkan nilai Sum of Squares Error (SSE) minimum pada algoritma golden section berada pada nilai parameter α=0,618034 dan parameter γ=0,381966 yang menghasilkan model peramalan F_(t+m)=15259,525596+1002,881415(m) dengan nilai Sum of Squares Error (SSE) sebesar 140294878 dan Mean Absolute Percentage Error (MAPE) sebesar 46,67%. Hasil peramalan mobil Toyota Avanza pada bulan Mei 2022 sebesar 16262,41 atau 16263 unit mobil Toyota Avanza.
Analisis Regresi Logistik Biner dengan Metode Penalized Maximum Likelihood pada Penyakit Covid-19 di RSUD Pringsewu Lutfi Anisa; Nur Azizah Komara Rifai
Jurnal Riset Statistika Volume 2, No. 2, Desember 2022, Jurnal Riset Statistika (JRS)
Publisher : UPT Publikasi Ilmiah Unisba

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.29313/jrs.v2i2.1425

Abstract

Abstract. Parameter estimation from binary logistic regression models is usually solved using the maximum likelihood estimation (MLE) method which is then completed by the Newton-Raphson iteration method. However, in certain circumstances the MLE method cannot be used if there is one or a combination of several explanatory variables and the response is a separation case problem that causes the estimators to not converge. To overcome this problem, the penalized maximum likelihood estimation (PMLE). The results of the analysis of this study indicate that the Covid-19 patient data at the Pringsewu Hospital contains a quasi-complete separation, so the PMLE method approach is used. The estimation of the best model parameters for this data contains factors of gender, age, congenital disease (comorbid), and symptoms of shortness of breath that significantly affect the mortality rate due to Covid-19. From the results of the analysis of this study when compared with previous studies Sholihin, et al. In the journal entitled " Implementasi Metode Penalized Maximum Likelihood Estimation Pada Model Regresi Logistik Biner " it is proven that binary logistic regression analysis if the data has case separation problems using the PMLE method can give better results. Abstrak. Estimasi parameter dari model regresi logistik biner biasanya diselesaikan dengan menggunakan metode maximum likelihood estimation (MLE) yang selajutnya diselesaikan metode iterasi Newton-Raphson. Namun, dalam keadaan tertentu metode MLE tidak bisa digunakan jika terdapat satu atau kombinasi beberapa variabel penjelas dan respon terdapat masalah pemisahan pada data (separation case) yang mengakibatkan penduga menjadi tidak konvergen. Untuk mengatasi masalah tersebut, digunakan pendekatan metode penalized maximum likelihood estimation (PMLE). Hasil analisis terhadap penelitian ini menunjukan bahwa data pasien Covid-19 RSUD Pringsewu mengandung pemisahan kurang sempurna (quasi-complete separation), sehingga digunakan pendekatan metode PMLE. Penaksiran parameter model terbaik bagi data ini mengandung faktor jenis kelamin, umur, penyakit bawaan (komorbid), dan gejala sesak nafas yang berpengaruh secara signifikan terhadap tingkat kematian akibat Covid-19. Dari hasil analisis penelitian ini jika dibandingkan dengan penelitian terdahulu Sholihin, et al. Dalam jurnal yang berjudul “Implementasi Metode Penalized Maximum Likelihood Estimation Pada Model Regresi Logistik Biner” terbukti bahwa analisis regresi logistik biner jika datanya terdapat masalah separation case dengan menggunakan metode PMLE dapat memberikan hasil yang lebih baik.
Penerapan Metode Hierarchical Clustering Multiscale Bootstrap untuk Pengelompokan Indikator Indeks Pembangunan Manusia Tahun 2021 di Jawa Barat Sophia Annisa Faisal; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 3 No. 1 (2023): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.29313/bcss.v3i1.6327

Abstract

Abstract. Cluster analysis is a technique for grouping objects that have the same characteristics into one group and between different groups. In general there are two methods, namely hierarchical and non-hierarchical. The average linkage method is one of the methods in the hierarchical cluster analysis method that can be used to group data, one of which is the Human Development Index (HDI) data. This study uses HDI indicator data in West Java in 2021. The average linkage method only provides solutions based on a measure of proximity, so this study uses the multiscale bootstrap method to obtain the validity of the groups formed. There are four clusters formed by the average linkage method. Of the four groups formed, there is one valid cluster, namely the fourth cluster which consists of the group with the highest average HDI score, namely Bandung City, Bekasi City, and Depok City. Abstrak. Analisis cluster adalah teknik untuk mengelompokkan objek-objek yang memiliki karakteristik sama ke dalam satu kelompok dan antar kelompok berbeda. Secara umum terdapat dua metode yaitu hierarki dan non-hierarki. Metode average linkage merupakan salah satu metode pada analisis cluster metode hierarki yang dapat digunakan untuk mengelompokkan data, salah satunya yaitu data Indeks Pembangunan Manusia (IPM). Penelitian ini menggunakan data indikator IPM di Jawa Barat Tahun 2021. Metode average linkage hanya memberikan solusi berdasarkan ukuran kedekatan jarak, sehingga pada penelitian ini menggunakan metode multiscale bootstrap untuk memperoleh validitas dari kelompok yang terbentuk. Terdapat empat cluster yang terbentuk dengan metode average linkage. Dari keempat kelompok yang terbentuk, terdapat satu cluster yang valid yaitu cluster keempat yang terdiri dari kelompok dengan nilai rata-rata IPM tertinggi yaitu Kota Bandung, Kota Bekasi, dan Kota Depok.
Penerapan Metode Autoregressive Distributed Lag terhadap Faktor yang Mempengaruhi Harga Minyak Goreng Kemasan di Indonesia Ratu Dinda Anggraeni; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 3 No. 1 (2023): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.29313/bcss.v3i1.6711

Abstract

Abstract. A set of ordered data at a certain time is called a time series. Time series analysis is divided into one variable (univariate) time series analysis and more than one variable (multivariate) time series analysis. Autorgeressive Distributed Lag (ARDL) is a multivariate time series analysis that is widely used in economics which applies a regression model with additional lag values ​​from the independent variables and lag values ​​from the dependent variable. This ARDL allows stationary variables at the level and at the first difference, making it easier for researchers to choose the method of analysis. Facts on the ground that there has been an increase in the price of cooking oil in Indonesia from October 2021 to March 2022 and there are factors predicting the cause are crude palm oil (CPO) production, export volume, and export value. The application of the ARDL method to factors affecting the price of packaged cooking oil in Indonesia was examined using monthly data from January 2017 to December 2020 sourced from the publication of the Central Bureau of Statistics of the Republic of Indonesia and the publication of the one data website of the Ministry of Commerce. The result show that the ARDL (2,3,3,1) model is good with an adjusted R-square value of 0.9617 which that the model can explain 96.17% of the variance in the price of packaged cooking oil in Indonesia. The ARDL models are: HRG MYKt = 3048 + 0,6155 HRG MYKt-1 +0,1712 HRG MYKt-2 + 0,00001960 PRODt+ 0,00007471 PRODt-1 - 0,00003302 PRODt-2 - 0,00008025 PRODt-3 + 0,0001933 VLM EKSt - 0,000803 VLM EKSt-1 - 0,0001292 VLM EKSt 2 + 0,0001822 VLM EKSt-3 - 0,0003799 HRG EKSt + 0,001843 HRG EKSt-1 + ut Abstrak. Sekumpulan data terurut pada rentang waktu tertentu disebut time series. Analisis time series terbagi menjadi analisis time series satu variabel (univariat) dan analisis time series lebih dari satu variabel (multivariat). Autorgeressive Distributed Lag (ARDL) merupakan salah satu analisis time series multivariat yang banyak digunakan dalam bidang ekonomi yang mana menerapkan model regresi dengan tambahan nilai lag dari variabel independen dan nilai lag dari variabel dependen. ARDL ini memperbolehkan variabel stasioner pada tingkat level dan pada first difference sehingga memudahkan peneliti dalam pemilihan metode analisis. Fakta di lapangan terjadi peningkatan harga minyak goreng di Indonesia sejak Oktober 2021 hingga Maret 2022 dan terdapat faktor prediksi penyebabnya adalah produksi minyak sawit mentah (CPO), volume ekspor, dan nilai ekspor. Penerapan metode ARDL terhadap faktor yang mempengaruhi harga minyak goreng kemasan di Indonesia diteliti menggunakan data bulanan pada Januari 2017 hingga Desember 2020 yang bersumber dari publikasi Badan Pusat Statistik Republik Indonesia dan publikasi website satu data Kementerian Perdagangan. Hasil penelitian menujukkan model ARDL (2,3,3,1) yang baik dengan nilai adjusted R-square 0,9617 yang berarti model dapat menjelaskan 96,17% varians harga minyak goreng kemasan di Indonesia. Model ARDL tersebut yaitu: HRG MYKt = 3048 + 0,6155 HRG MYKt-1 +0,1712 HRG MYKt-2 + 0,00001960 PRODt+ 0,00007471 PRODt-1 - 0,00003302 PRODt-2 - 0,00008025 PRODt-3 + 0,0001933 VLM EKSt - 0,000803 VLM EKSt-1 - 0,0001292 VLM EKSt 2 + 0,0001822 VLM EKSt-3 - 0,0003799 HRG EKSt + 0,001843 HRG EKSt-1 + ut
Klasifikasi Penyakit Diabetes Retinopati Menggunakan Support Vector Machine dengan Algoritma Grid Search Cross-validation Fatmawati; Nur Azizah Komara Rifai
Bandung Conference Series: Statistics Vol. 3 No. 1 (2023): Bandung Conference Series: Statistics
Publisher : UNISBA Press

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.29313/bcss.v3i1.7031

Abstract

Abstract. Accuracy in determining the object in the appropriate class is a challenge in the classification method. Support Vector Machine is a classification method that is capable of classifying data that does not go through the learning stage and is able to produce a classification model even though there is relatively little data training while still producing good accuracy. The classification performance improvement produced by the SVM method is determined from the parameter settings. Therefore, the grid search algorithm is used to find the optimal parameters. The problem of diabetic retinopathy is important because it is one of the causes of total blindness in several countries. This study aims to apply the SVM method by applying the grid search cross-validation algorithm. Grid search is a method of financing combination models and hyperparameters by testing a single combination of models and validating each combination. The grid search method is paired with cross-validation to obtain the best model in classifying disease status in diabetic retinopathy patients. By using a linear kernel and 5-fold cross-validation, the results obtained for 30 models. The best model for cases of diabetes retinopathy classification is obtained from the cost parameter 10 of 74.8%. Abstrak. Ketepatan dalam menentukan objek pada kelas yang sesuai merupakan tantangan pada metode klasifikasi. Support Vector Machine menjadi metode klasifikasi yang mampu melakukan klasifikasi untuk data yang tidak melewati tahap pembelajaran dan mampu menghasilkan model klasifikasi meskipun data training relatif sedikit dengan tetap menghasilkan akurasi yang baik. Peningkatan performa klasifikasi yang dihasilkan oleh metode SVM ditentukan dari pengaturan parameter. Oleh karena itu, algoritma grid search digunakan untuk melihat parameter yang optimal. Masalah diabetes retinopati menjadi penting karena menjadi salah satu penyebab kebutaan total di beberapa negara. Penelitian ini bertujuan untuk menerapkan metode SVM dengan menerapkan algoritma grid search cross-validation. Grid search merupakan metode penentuan kombinasi model dan hyperparameter dengan melakukan uji coba satu persatu kombinasi model dan melakukan validasi pada setiap kombinasi. Metode grid search dipasangkan dengan cross-validation untuk mendapatkan model terbaik dalam mengklasifikasikan status penyakit pada pasien diabetes retinopati. Dengan menggunakan kernel linear serta 5-fold cross-validation diperoleh hasil sebanyak 30 model. Model terbaik untuk kasus klasifikasi penyakit diabetes retinopati ini didapatkan dari parameter cost 10 sebesar 74,8%.