Tipe vokal manusia: Sopran, Alto, Tenor, dan Bass seringkali diidentifikasi melalui interaksi dengan alat musik seperti piano dan bimbingan dari ahli vokal. Pendekatan ini kurang praktis dan memiliki keterbatasan dalam portabilitas serta aksesibilitas. Penelitian ini bertujuan untuk mengatasi keterbatasan tersebut dengan mengembangkan alat berupa sistem penerapan Mel-Frequency Cepstral Coefficients (MFCC) dan Convolutional Neural Network (CNN). Penelitian ini menggunakan pendekatan Adaptive Framing pada MFCC untuk meningkatkan hasil ekstraksi fitur suara. Sistem dibuat di dalam Raspberry Pi 4B dengan input mini usb microphone dan output LCD 3.5 Inch. Sistem yang telah dikembangkan menunjukkan kinerja yang baik dari segi fungsionalitas, mulai dari tahap inisialisasi (booting) hingga menghasilkan output klasifikasi tipe vokal manusia pada Raspberry Pi. Nilai akurasi pengujian model dengan menggunakan algoritma CNN adalah sebesar 94,5%. Hal tersebut menandakan model yang dibuat memiliki akurasi yang baik untuk diimplementasikan. Pada pengujian alat, hasil yang didapat untuk melakukan klasifikasi tipe vokal manusia adalah sebesar 65%. Sistem ini memenuhi kebutuhan penentuan tipe vokal tanpa ketergantungan pada ahli vokal, portabilitas tinggi, dan dapat digunakan dalam berbagai konteks.
Copyrights © 2024