Amrisa Yanri Rahmadhani
Teknik Informatika-F.Teknik dan Sains-Universitas Muhammadiyah Purwokerto

Published : 1 Documents Claim Missing Document
Claim Missing Document
Check
Articles

Found 1 Documents
Search

Optimasi Algoritma Pelatihan Levenberg–Marquardt Berdasarkan Variasi Nilai Learning-Rate dan Jumlah Neuron dalam Lapisan Tersembunyi Hindayati Mustafidah; Amrisa Yanri Rahmadhani; Harjono Harjono
JUITA : Jurnal Informatika JUITA VoL. 7 Nomor 1, Mei 2019
Publisher : Department of Informatics Engineering, Universitas Muhammadiyah Purwokerto

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (530.131 KB) | DOI: 10.30595/juita.v7i1.4396

Abstract

Backpropagation (BP) merupakan salah satu paradigma pembelajaran dalam jaringan syaraf tiruan yang dibangun dengan banyak lapisan untuk mengubah bobot–bobot yang terhubung dengan neuron pada lapisan tersembunyi. Pengubahan bobot dilakukan oleh sebuah algoritma pelatihan sehingga mendekati bobot optimal. Kinerja algoritma pelatihan dikatakan optimal dapat dilihat dari error yang dihasilkan (MSE). Semakin kecil MSE, semakin optimal kinerjanya. Beberapa penelitian yang dilakukan sebelumnya, diperoleh informasi bahwa algoritma pelatihan yang paling optimal berdasarkan MSE terkecil adalah algoritma Levenberg–Marquardt (LM) dengan rata–rata MSE 0.001 dengan tingkat pengujian α=5%. Penelitian tersebut menggunakan 10 neuron dalam lapisan tersembunyi. Keadaan optimal banyaknya neuron dalam lapisan tersembunyi yang dapat menghasilkan MSE paling kecil belum diketahui. Oleh karena itu, dalam penelitian ini dilakukan analisis untuk mengetahui jumlah neuron yang paling optimal dalam lapisan tersembunyi pada algoritma LM. Parameter jaringan yang digunakan yaitu 15 neuron dalam lapisan input, target error=0.001 (10-3) dan variasi nilai laju pembelajaran. Penelitian ini menggunakan metode campuran yaitu pengembangan program komputer dan pengujian data statistik menggunakan ANOVA. Pengembangan program komputer digunakan untuk membangkitkan data random sebagai masukan jaringan, menjalankan algoritma LM, dan menghasilkan data keluaran. Hasil analisis menunjukkan bahwa dengan 27 neuron pada lapisan tersembunyi menghasilkan MSE terkecil yaitu 0.0000807±0.0001220 dengan laju pembelajaran=0.8.