Mukti, Alphi Rinaldi Nalendra
Unknown Affiliation

Published : 1 Documents Claim Missing Document
Claim Missing Document
Check
Articles

Found 1 Documents
Search

Klasifikasi Daun Teh Klon Seri GMB Menggunakan Convolutional Neural Network dengan Arsitektur VGG16 dan Xception Mukti, Alphi Rinaldi Nalendra; Prasetyaningrum, Putri Taqwa
Journal of Information Technology Ampera Vol. 5 No. 1 (2024): Journal of Information Technology Ampera
Publisher : APTIKOM SUMSEL

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.51519/journalita.v5i1.540

Abstract

Indonesia memiliki tingkat konsumsi teh tertinggi di dunia, di mana kualitas daun teh sangat bergantung pada lokasi tumbuhnya. Untuk mengidentifikasi jenis teh, sistem otomatisasi dengan pengolahan citra digital digunakan. Penelitian ini membandingkan dua arsitektur model yaitu dengan augmentasi data dan tanpa augmentasi dalam mengklasifikasikan daun teh klon seri GMB 1-5. Hasil penelitian menunjukkan bahwa model CNN tanpa augmentasi memberikan akurasi yang lebih tinggi dibandingkan dengan yang menerapkan augmentasi. Secara spesifik, model Xception tanpa augmentasi mencapai akurasi 98%, sedangkan VGG16 tanpa augmentasi mencapai 95%. Sebaliknya, model dengan augmentasi memperoleh akurasi 92% untuk Xception dan 94% untuk VGG16. Temuan ini menunjukkan bahwa, dalam konteks dataset terbatas, model tanpa augmentasi cenderung lebih akurat karena menghindari overfitting yang sering terjadi pada dataset kecil. Indonesia has the highest tea consumption rate in the world, where the quality of tea leaves is heavily dependent on their growing location. To identify tea types, an automation system using digital image processing is employed. This study compares two model architectures: one with data augmentation and one without, in classifying GMB 1-5 series tea leaves. The results indicate that the CNN model without augmentation achieved higher accuracy compared to the one with augmentation. Specifically, the Xception model without augmentation reached an accuracy of 98%, while VGG16 without augmentation achieved 95%. In contrast, the model with augmentation achieved 92% accuracy for Xception and 94% for VGG16. These findings suggest that, in the context of a limited dataset, models without augmentation tend to be more accurate as they avoid overfitting commonly encountered with small datasets.