Claim Missing Document
Check
Articles

Found 14 Documents
Search

Pembacaan Gerak Bibir Menggunakan Cnn, Bi-Lstm Dan Ctc Loss Function Pada Dataset Bahasa Inggris Wisudawati, Lulu Mawaddah; Mahesa Tirta Panjalu
Jurnal Ilmiah Komputasi Vol. 24 No. 1 (2025): Jurnal Ilmiah Komputasi : Vol. 24 No 1, Maret 2025
Publisher : Lembaga Penelitian dan Pengabdian Kepada Masyarakat

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32409/jikstik.24.1.3658

Abstract

Tunarungu adalah orang yang mengalami gangguan pendengaran. Dampak utama dari kondisi ini adalah hambatan dalam komunikasi verbal atau lisan, sehingga menyulitkan komunikasi dengan orang yang mendengar. Bagian bibir adalah bagian yang biasa digunakan untuk berbicara atau berkomunikasi. Gerakan bibir saat berkomunikasi akan menghasilkan gerakan yang berbeda-beda setiap kata atau huruf yang diucapkan. Bibir dapat digunakan untuk memprediksi kata dari gerak bibir yang akan terdeteksi saat berbicara. Teknologi yang semakin berkembang dapat membantu permasalahan tersebut dalam membaca gerak bibir. Convolutional Neural Network atau CNN telah berkembang pesat dan menjadi salah satu metode yang paling populer dalam bidang pengenalan citra dan pemrosesan video karena kemampuannya untuk secara otomatis mempelajari fitur dari data masukan. Penelitian ini bertujuan melakukan pembacaan gerak bibir menggunakan metode CNN, Long Short-Term Memory (LSTM) dan Connectionist Temporal Classification (CTC) dalam bahasa inggris. Penelitian ini menggunakan dataset dari  The Grid audiovisual sentence corpus sebanyak 1000 video dan 1000 teks. Pada tahapan preprocessing terdiri dari dua bagian yaitu preprocessing video dan preprocessing teks. Tahapan preprocessing video meliputi konversi grayscale, cropping frame, augmentasi dan normalisasi. Tahapan preprocessing teks dilakukan proses encoding pada dataset alignments. Tahapan klasifikasi menggunakan metode Convolutional Neural Networks, Long Short-Term Memory dan Connectionist Temporal Classification Loss Function. Hasil evaluasi mendapatkan nilai akurasi terbaik sebesar 96,9%, Word Error Rate (WER) sebesar 0,66%, dan Character Error Rate (CER) sebesar 0,16% dengan menggunakan model yang dengan skenario data 80:20 dan batch size 2.
ANALISIS SENTIMEN PADA ULASAN APLIKASI TOKOCRYPTO DENGAN MENGGUNAKAN METODE SUPPORT VECTOR MACHINE (SVM) PADA GOOGLE PLAY Dini Sumartini; Lulu Mawaddah Wisudawati
Jurnal Ilmiah Informatika Komputer Vol 29, No 3 (2024)
Publisher : Universitas Gunadarma

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.35760/ik.2024.v29i3.12915

Abstract

Cryptocurrency is a virtual currency that is used as an alternative currency, where the currency is generated and traded through a cryptographic process. One of the Cryptocurrency digital currency applications is Tokocrypto, a legal means of payment using only rupiah. The sentimen classification method in this study uses Support Vector Machine (SVM) and the parameters are tested extensively by applying the K-fold cross validation technique to find the optimal configuration. The initial stages in this sentimen analysis are the data collection stage, pre-processing, which consists of case folding & cleaning, filtering (stopword removal), tokenizing, changing negated words, normalization and stemming. After that, data labeling and scoring are carried out using the Lexicon Based method. The dataset from pre-processing and Lexicon Based is used for the classification process using SVM. The best evaluation results were obtained with an AUC (Area Under the Curve) of 90.50% and an Accuracy of 85.80% with Linear kernel and parameter C = 1 and using K-fold cross validation value of 10. Visualization of the results of the sentimen analysis of the Tokocrypto Application is displayed in a bar chart and word cloud.
Pengembangan Aplikasi CAD “Second Opinion” untuk Klasifikasi Kanker Payudara Berbasis Mammogram dengan GUI MATLAB Subali, Muhammad; Wisudawati, Lulu Mawaddah; Atmaja, Pungky Hari Wira; Teresa, Teresa
Prosiding Seminar SeNTIK Vol. 9 No. 1 (2025): Prosiding SeNTIK 2025
Publisher : Lembaga Penelitian dan Pengabdian Kepada Masyarakat

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Aplikasi CAD berbasis GUI MATLAB dibuat dengan model EfficientNet-B0 dan ResNet-50 untuk klasifikasi mammogram. Evaluasi usability menghasilkan skor SUS 82,6 yang menunjukkan kualitas sangat baik.
Deteksi Bahasa Isyarat SIBI Secara Real Time Menggunakan Mediapipe Holistic dan LSTM Wisudawati, Lulu mawaddah; Alhadar, Ahmad Muhamad Salim
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 13 No 1: Februari 2026
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2026131

Abstract

Bahasa isyarat merupakan sistem komunikasi non-verbal yang memanfaatkan gerakan tangan, ekspresi wajah, dan pose tubuh untuk menyampaikan informasi secara visual. Meskipun umum digunakan oleh penyandang tunarungu dan tunawicara, bahasa isyarat masih belum dipahami secara luas oleh masyarakat umum, sehingga menimbulkan hambatan komunikasi dalam kehidupan sehari-hari. Untuk mendukung interaksi yang inklusif, SIBI (Sistem Isyarat Bahasa Indonesia) telah distandarisasi secara nasional sebagai bentuk bahasa isyarat formal di Indonesia. Seiring dengan kemajuan teknologi kecerdasan buatan, sistem penerjemahan bahasa isyarat berbasis penglihatan komputer (computer vision) menjadi solusi potensial untuk menjembatani kesenjangan komunikasi tersebut. Penelitian ini bertujuan mengembangkan sistem pengenalan SIBI secara real-time menggunakan MediaPipe Holistic untuk mendeteksi titik kunci (keypoints) pada tangan, wajah, dan pose secara simultan, yang kemudian dikonversi menjadi suara melalui teknologi text-to-speech. Tahapan pra-pemrosesan mencakup pembersihan data (data cleaning), pemotongan gambar (cropping), penghapusan latar belakang (background removal), dan konversi ke citra skala keabuan (convert to grayscale). Dataset yang digunakan terdiri dari 4.500 urutan gambar untuk 10 kata SIBI. Model Bi-directional LSTM digunakan untuk mengklasifikasikan pola spasial-temporal dari gestur. Hasil evaluasi menunjukkan akurasi klasifikasi sebesar 97,78% pada epoch ke-200, dengan precision, recall, dan F1-score masing-masing mencapai 98%. Pengujian pada lima variasi jarak menunjukkan bahwa deteksi optimal terjadi pada rentang 0,29 hingga 0,37 meter. Sistem ini berpotensi menjadi alat bantu komunikasi efektif bagi penyandang tunarungu dan tunawicara, serta dapat dikembangkan lebih lanjut sebagai fondasi aplikasi interaktif berbasis bahasa isyarat di masa depan.   Abstract Sign language is a non-verbal communication system that utilizes hand gestures, facial expressions, and body pose to visually convey information. Although commonly used by Deaf and speech-impaired individuals, it remains poorly understood by the general public, resulting in communication barriers in daily life. To support inclusive interaction, SIBI (Sistem Isyarat Bahasa Indonesia) has been nationally standardized as the formal sign language in Indonesia. With the advancement of artificial intelligence, computer vision-based sign language translation systems have emerged as a promising solution to bridge this communication gap. This study aims to develop a real-time SIBI recognition system using MediaPipe Holistic to simultaneously detect key-points of the hands, face, and pose, followed by speech output generation via text-to-speech technology. The pre-processing pipeline includes data cleaning, cropping, background removal, and grayscale conversion. The dataset consists of 4,500 image sequences representing 10 commonly used SIBI words. A Bi-directional LSTM model is employed to classify spatial–temporal patterns extracted from the gesture sequences. Evaluation results show a classification accuracy of 97.78% at the 200th epoch, with precision, recall, and F1-score all reaching 98%. Performance testing across five distance variations revealed that optimal recognition occurs within the 0.29 to 0.37-meter range. These findings demonstrate that the proposed system is a highly effective assistive communication tool for the Deaf and speech-impaired. Furthermore, the system has the potential to be expanded into mobile applications for real-world interaction and can serve as a foundation for future development in recognizing more complex sign language expressions.