Claim Missing Document
Check
Articles

Found 3 Documents
Search
Journal : Jurnal Komputer Teknologi Informasi Sistem Komputer (JUKTISI)

Penerapan Large Languange Models Dalam Pembaruan Artikel Biografi Wikipedia Dwiharani, Najma Qalbi; Yudi Wibisono; Yaya Wihardi
Jurnal Komputer Teknologi Informasi Sistem Informasi (JUKTISI) Vol. 4 No. 2 (2025): September 2025
Publisher : LKP KARYA PRIMA KURSUS

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.62712/juktisi.v4i2.499

Abstract

Wikipedia merupakan sumber informasi daring yang sangat populer di Indonesia, namun pembaruan artikelnya masih sangat bergantung pada kontribusi penyunting. Pada kategori artikel biografi, pembaruan informasi secara berkala sangat penting karena adanya perkembangan karier dan peristiwa terkini dari tokoh yang bersangkutan. Penelitian ini bertujuan untuk mengeksplorasi penerapan Large Language Models (LLM) dalam menambahkan informasi baru ke artikel biografi Wikipedia Indonesia dengan referensi dari satu artikel berita daring. Model utama yang digunakan adalah Gemma 3 yang kemudian dibandingkan dengan model baseline Phi-3-mini. Penelitian ini juga menguji efektivitas lima strategi prompting yang berbeda, yaitu simple prompt, system prompt (en), system prompt (id), one-shot, dan prompt chaining untuk mengarahkan model dalam menghasilkan keluaran yang relevan dan sesuai dengan gaya Wikipedia. Proses fine-tuning dilakukan menggunakan data berbentuk kombinasi artikel Wikipedia sebelum diperbarui, artikel berita sebagai referensi, dan teks berisi informasi baru yang relevan untuk ditambahkan ke dalam artikel Wikipedia sebagai target keluaran. Evaluasi dilakukan dengan metrik ROUGE untuk mengukur kesamaan antara hasil keluaran model dan referensi dari penyunting Wikipedia. Hasil penelitian menunjukkan bahwa fine-tuning model Gemma 4B secara signifikan meningkatkan performa, khususnya pada strategi prompt chaining dengan rata-rata skor ROUGE-1 sebesar 0.3687. Dibandingkan dengan baseline Phi-3-mini, model Gemma memberikan hasil yang lebih konsisten dan relevan. Temuan ini menunjukkan bahwa pendekatan berbasis LLM dapat menjadi solusi potensial dalam membantu proses pembaruan artikel biografi Wikipedia.
Unsupervised Clustering of Handwritten Essay Answer Images Using Vision Transformer Mohamad Asyqari Anugrah; Yaya Wihardi; Rani Megasari
Jurnal Komputer Teknologi Informasi Sistem Informasi (JUKTISI) Vol. 4 No. 2 (2025): September 2025
Publisher : LKP KARYA PRIMA KURSUS

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.62712/juktisi.v4i2.517

Abstract

This study explores the use of deep clustering methods to automatically group handwritten essay answer sheets based on their visual patterns. Feature extraction was performed using three backbone models: ResNet-50, Vision Transformer (ViT-base), and Tr-OCR. These features were then clustered using two unsupervised algorithms—K-means (with k=5) and HDBSCAN (with minimum cluster size = 10). To enhance clustering performance, a deep clustering approach was implemented by applying K-means iteratively to refine feature representations. Evaluation was conducted both quantitatively, using Silhouette Score, Davies-Bouldin Index, and Calinski- Harabasz Score, and qualitatively, through t-SNE visualizations and cluster content inspection. The ViT and Tr-OCR backbones outperformed CNN-based ResNet-50, achieving higher cluster cohesion and separation. Notably, the final clustering result using ViT with HDBSCAN reached a Silhouette Score of 0.772, Davies-Bouldin Index of 0.369, and Calinski-Harabasz Score of 408.006. The findings indicate that vision transformer-based models are more effective for unsupervised grouping of handwritten visual data. This approach can assist educators in accelerating and objectifying the grading process and may serve as a foundation for future automated essay evaluation systems integrating OCR and NLP techniques.
Pengenalan Ekspresi Wajah Peserta Didik di Ruang Kelas Menggunakan Vision Transformer (ViT) Muhammad Fakhri Fadhlurrahman; Munir; Yaya Wihardi
Jurnal Komputer Teknologi Informasi Sistem Informasi (JUKTISI) Vol. 4 No. 2 (2025): September 2025
Publisher : LKP KARYA PRIMA KURSUS

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.62712/juktisi.v4i2.531

Abstract

Abstrak Ekspresi wajah merupakan bentuk komunikasi non-verbal yang penting dalam memahami kondisi emosional peserta didik di ruang kelas. Pemahaman ini dapat membantu pendidik menyesuaikan metode pengajaran sesuai dengan keadaan emosional siswa, sehingga proses belajar mengajar menjadi lebih efektif. Penelitian ini bertujuan untuk mengembangkan dan menerapkan sistem pengenalan ekspresi wajah secara real-time di ruang kelas dengan memanfaatkan arsitektur Vision Transformer (ViT). Dua pendekatan sistem dikembangkan dalam penelitian ini: sistem dual-stage yang memanfaatkan kombinasi model deteksi wajah YOLOv11s dan model pengenalan ekspresi wajah HybridViT (ResNet-50), serta sistem single-stage yang menggunakan model YOLOv11s untuk langsung mendeteksi emosi dari citra wajah. Dataset yang digunakan meliputi Real-world Affective Face Database (RAF-DB), Face Detection Dataset, dan Facial Expression in Classroom, yang masing-masing digunakan untuk pelatihan awal dan fine-tuning model. Hasil pengujian menunjukkan bahwa sistem dual-stage memiliki performa klasifikasi yang lebih baik dengan nilai mean Average Precision (mAP) sebesar 0,2846, dibandingkan sistem single-stage dengan mAP sebesar 0,1603. Sebaliknya, dari segi efisiensi inferensi, sistem single-stage lebih unggul dengan latensi rata-rata per wajah sebesar 0,290 ms (6.539 FPS) di GPU dan 1,862 ms (545 FPS) di CPU, dibandingkan sistem dual-stage yang memiliki latensi lebih tinggi. Selain itu, evaluasi menunjukkan ketidakseimbangan performa antar kelas emosi akibat distribusi data yang tidak merata. Secara keseluruhan, kedua pendekatan menunjukkan potensi yang menjanjikan untuk implementasi sistem pengenalan ekspresi wajah di ruang kelas. Keduanya masih dapat ditingkatkan dari segi akurasi, generalisasi antar emosi, serta efisiensi waktu inferensi melalui peningkatan kualitas dataset dan eksplorasi teknik pelatihan lanjutan. Kata Kunci: Pengenalan Ekspresi Wajah, Vision Transformer, YOLOv11s, Real-Time, Ruang Kelas, Dual-Stage, Single-Stage Abstract Facial expressions serve as an essential form of non-verbal communication in understanding students' emotional states in the classroom. This understanding enables educators to adjust their teaching methods according to students' emotions, thus improving the effectiveness of the learning process. This study aims to develop and implement a real-time facial expression recognition system in classroom settings by utilizing the Vision Transformer (ViT) architecture. Two system approaches were developed: a dual-stage system combining a YOLOv11s face detection model with a HybridViT (ResNet-50) facial expression recognition model, and a single-stage system using a YOLOv11s model to directly detect emotions from facial images. The datasets used include the Real-world Affective Faces Database (RAF-DB) and the Facial Expression in Classroom Dataset, which were employed for model training and fine-tuning, respectively. Evaluation results demonstrate that the dual-stage system achieves superior classification performance with a mean Average Precision (mAP) of 0.2846, compared to the single-stage system's mAP of 0.1603. However, in terms of inference efficiency, the single-stage system outperforms the dual-stage system, achieving a lower average latency per face of 0.290 ms (6.539 FPS) on GPU and 1.862 ms (545 FPS) on CPU. The evaluation also highlights an imbalance in classification performance across emotion classes, primarily due to the uneven distribution of training and fine-tuning data. Overall, both approaches exhibit promising potential for facial expression recognition applications in classroom environments. Further improvements in accuracy, emotional generalization, and computational efficiency can be achieved through enhanced dataset quality, balanced emotion representation, and exploration of advanced training techniques. Keywords: Facial Expression Recognition, Vision Transformer, YOLOv11s, Real-Time, Classroom, Dual-Stage, Single-Stage