Claim Missing Document
Check
Articles

Found 2 Documents
Search

PENGENALAN AKTIVITAS MANUSIA DAN PEMBUATAN LOG OTOMATIS DARI REKAMAN VIDEO MENGGUNAKAN MULTILAYER PERCEPTRON Lina, Lina; Su, Jason; Ajienegoro, Daniel
Jurnal Muara Sains, Teknologi, Kedokteran dan Ilmu Kesehatan Vol 5, No 2 (2021): Jurnal Muara Sains, Teknologi, Kedokteran dan Ilmu Kesehatan
Publisher : Universitas Tarumanagara

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.24912/jmstkik.v5i2.12010

Abstract

Advances in technology have made it easier to surveillance purpose by installing recording equipment that can be placed in certain strategic locations. The existence of this technology also brings changes in the analysis phase of video recordings and images that have been obtained. The processing of recorded videos no longer uses manual methods but can be done automatically using image processing and artificial intelligence algorithms. Based on the obtained video recordings, analysis can be carried out for surveillance purpose, object tracking, human activity recognition, etc. This paper discusses the development of an automatic human activity recognition system based on video recordings using Multilayer Perceptron method. The recorded video will be transformed into a collection of images which are then processed with the Multilayer Perceptron algorithm for the recognition process. The output of the designed system is the recognition of activities carried out by humans at a certain time and saved them in a log with a certain timestamp. In this paper, there are five types of human activities that can be recognized automatically by the system, namely raising hands, clapping, standing, sitting, and studying. The experimental results show that the accuracy rate of the proposed system achieved 97.45% for image datasets obtained freely from the internet, while 100% accuracy was obtained for image datasets collected with IP Cameras. Keywords: Human activity recognition; video recording; Multilayer PerceptronAbstrakKemajuan teknologi memungkinkan kegiatan pengawasan terhadap lingkungan menjadi lebih mudah yaitu dengan melakukan pemasangan peralatan rekam yang dapat ditempatkan pada lokasi-lokasi strategis tertentu. Keberadaan peralatan teknologi ini juga membawa perubahan dalam proses analisis terhadap rekaman video maupun gambar yang telah didapatkan. Proses pengolahan terhadap video rekaman tidak lagi menggunakan cara manual, namun dapat dilakukan secara otomatis dengan menggunakan teknologi pengolahan citra dan kecerdasan buatan. Berdasarkan rekaman video maupun gambar yang diperoleh, analisis dapat dilakukan untuk mengawasi keamanan lokasi, mencatat perubahan kondisi objek tertentu, mengenali aktivitas manusia pada saat tertentu, dan lain sebagainya. Makalah ini membahas pengembangan sebuah sistem pengenalan aktivitas manusia secara otomatis berdasarkan rekaman video menggunakan metode Multilayer Perceptron. Rekaman video sebelumnya akan dicacah menjadi kumpulan citra yang kemudian diproses dengan algoritma Multilayer Perceptron untuk proses pengenalannya. Luaran dari sistem aplikasi yang dirancang berupa pengenalan aktivitas yang dilakukan manusia pada waktu tertentu dan pencatatan aktivitas tersebut dalam sebuah log dengan timestamp tertentu. Dalam makalah ini, terdapat lima jenis aktivitas manusia yang dapat dikenali secara otomatis oleh sistem, yaitu mengangkat tangan, bertepuk tangan, berdiri, duduk, dan belajar. Hasil pengujian menunjukkan bahwa keberhasilan pendeteksian aktivitas manusia dengan metode Multilayer Perceptron memiliki tingkat akurasi 97.45% untuk dataset citra yang diperoleh secara bebas dari internet, sedangkan untuk dataset citra yang dikumpulkan dengan IP Camera memiliki tingkat akurasi sebesar 100%.
Identifikasi Emosi Pengguna Konferensi Video Menggunakan Convolutional Neural Network Lina, Lina; Marunduh, Arthur Adhitya; Wasino, Wasino; Ajienegoro, Daniel
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 9 No 5: Oktober 2022
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2022955269

Abstract

Pandemi COVID-19 telah menyebabkan pergeseran bentuk komunikasi antar individu maupun antar kelompok. Komunikasi lisan antar individu dilakukan dengan bantuan teknologi secara daring. Berbagai teknologi konferensi video secara daring banyak dikembangkan, seperti Zoom, MS Teams, Google Meet, dan lain sebagainya. Dengan penggunaan teknologi tersebut, pengguna dapat saling berinteraksi secara visual dan verbal. Umumnya peserta konferensi video dengan mudah menangkap sinyal verbal dari lawan bicara. Namun untuk menginterpretasikan sinyal visual, peserta memerlukan proses analisis yang lebih kompleks. Makalah ini membahas tentang sistem identifikasi emosi secara otomatis dari peserta konferensi video. Sistem yang dikembangkan dapat diterapkan pada semua jenis teknologi konferensi video, baik versi rekaman maupun versi langsung. Aplikasi yang dikembangkan dapat digunakan untuk keperluan umum, seperti dalam rapat kelompok, kuliah, webinar, dan jenis rapat lainnya. Dalam eksperimen yang dilakukan, terdapat empat kelas emosi manusia yang digunakan, yaitu netral, senang, sedih, dan marah. Sistem melakukan deteksi area wajah dalam citra dari video masukan dengan algoritma Viola-Jones, dan melakukan identifikasi emosi pada wajah yang terdeteksi menggunakan metode Convolutional Neural Network (CNN) dengan arsitektur VGG-16. Hasil eksperimen menunjukkan bahwa sistem mampu secara otomatis melakukan pendeteksian area wajah dengan tingkat akurasi sebesar 93.15% dan melakukan identifikasi emosi dengan akurasi sebesar 88.39% untuk data latih dan 70.17% untuk data pengujian. AbstractThe COVID-19 pandemic has caused a shift in the form of communication between individuals and between groups. Oral communication between individuals is carried out with the help of online technology. Various online video conferencing technologies have been developed, such as Zoom, MS Teams, Google Meet, etc. With the use of this technology, users can interact with each other visually and verbally.  Generally, video conference participants can easily receive verbal signals from the speaker. However, a more complex analysis is required to interpret other signals such as visual signals from face, gesture, etc.This paper discusses an automatic emotion identification system of video conferencing participants. The developed system can be applied to all types of video conference technology, both recorded or live versions, The developed application can be used for general purpose, such as in group meetings, lectures, webinars, and other types of meetings. In the experiments, four classes of human emotion are examined, such as neutral, happy, angry, and sad. The system detects facial areas in video frames using the Viola-Jones algorithm and identifies the emotions on the detected faces using the Convolutional Neural Network (CNN) method with the VGG-16 architecture. The experimental results show that the proposed system is able to automatically detect facial areas with an accuracy of 93.15% and identify emotions from the detected faces with an accuracy of 88.39% for training data and 70.17% for test data.