Claim Missing Document
Check
Articles

Found 9 Documents
Search

Multilabel Classification for Keyword Determination of Scientific Articles Rafif, Sulthan; Setya Perdana, Rizal; Pandu Adikara, Putra
Journal of Information Technology and Computer Science Vol. 8 No. 2: August 2023
Publisher : Faculty of Computer Science (FILKOM) Brawijaya University

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jitecs.202382560

Abstract

In writing scientific articles, there are provisions regarding the structure or parts of writing that must be fulfilled. One part of the scientific article that must be included is keywords. The process of determining keywords manually can cause discrepancies with the specific themes discussed in the article. Thus, causing readers to be unable to reach the scientific article. The process of determining the keywords of scientific articles is determined automatically by the classification method. The classification process is carried out by determining the set of keywords owned by each scientific article data based on the abstract and title. Therefore, the classification process applied is multi-feature and multi-label. Classification is done by applying the Contextualized Word Embedding Method. The implementation of Contextualized Word Embedding Method is done by applying BERT Model. By applying the BERT Model, it is expected to provide good performance in determining the keywords of scientific articles. The evaluation results by applying the BERT Model to the case of multi-label classification on abstract data for keyword determination resulted in a loss value of Training Data is 0.514, loss value of Validation Data is 0.511, and an accuracy value of 0.71, a precision value of 0.71, a recall value of 0.71, an error value of 0.29 and f-1 score of 0.83. Based on the results of the evaluation, it shows that the BERT Classification Model can carry out a classification process to determine a set of keywords from each abstract data in scientific articles.
Deteksi Objek Pada Framework Yolov5 Dengan Penanganan Kesilauan Cahaya Menggunakan Gabungan Arsitektur U-Net Dan Inpaint Afrialdy, Firman; Setya Perdana, Rizal; Dewi, Candra
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 8 No 13 (2024): Publikasi Khusus Tahun 2024
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Naskah ini akan diterbitkan di JTIIK.
Implementasi OCR Menggunakan Asprise dan Metode LSTM untuk Pengkategorian Item pada Setruk Belanja Jibril Averroes, Muhammad; Eka Ratnawati, Dian; Setya Perdana, Rizal
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 9 No 13 (2025): Publikasi Khusus Tahun 2025
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Naskah ini akan diterbitkan di JUST-SI
Pemerolehan Informasi Terjemahan Al-Quran Berbahasa Indonesia Menggunakan IndoSBERT Ubaidillah, Muhammad; Pandu Adikara, Putra; Setya Perdana, Rizal
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 9 No 8 (2025): Agustus 2025
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Indonesia sebagai negara dengan mayoritas penduduk Muslim terbanyak menjadikan Al-Qur’an sebagai pedoman utama kehidupan. Namun, pemahaman terhadap isi Al-Qur’an masih terbatas, terutama bagi penutur bahasa Indonesia. Pendekatan dengan Natural Language Processing (NLP), khususnya dengan pemerolehan informasi berbasis semantik, menjadi solusi potensial untuk meningkatkan pemahaman ayat Al-Qur’an melalui pencocokan makna, bukan hanya kata kunci secara leksikal. Penelitian ini bertujuan untuk merancang dan mengevaluasi hasil pemerolehan informasi melalui pendekatan semantik menggunakan model sentence-BERT versi Indonesia oleh denaya/indosbert-large. Dataset yang digunakan berupa seluruh terjemahan ayat Al-Quran versi kementerian agama tahun 2020 sebanyak 6236 ayat dan pasangan kueri-jawaban sebanyak 1225 pasang. Evaluasi dilakukan menggunakan metrik Mean Average Precision (MAP), precision@k, dan recall@k. Pengujian dilakukan kepada 5 partisipan yang masing-masing memberikan 3 kueri. Hasil pengujian menunjukkan model memiliki MAP sebesar 0,3115, dengan rata-rata precision@10 sebesar 0,2007, dan rata-rata recall@k sebesar 0,7675. Hasil evaluasi model kurang optimal yang dapat terjadi karena model pretrained tidak spesifik dilatih pada domain Al-Qur’an dan dataset finetuning yang terbatas serta tidak merata sehingga menimbulkan bias pada kueri tertentu.
Klasifikasi Fenotipe Resistensi Obat Pada Penyakit Malaria Menggunakan Metode Random Forest Susanto, Dominicus Christian Bagus; muflikhah, lailil; Setya Perdana, Rizal
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 9 No 11 (2025): November 2025
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Penelitian ini menggunakan metode machine learning untuk mengklasifikasikan fenotipe resistensi obat pada penyakit malaria. Data genetik (DNA) dari 9623 pasien malaria digunakan dan dianalisis dengan berbagai metode, termasuk pengurangan dimensi data, klasifikasi, dan validasi model. Hasilnya menunjukkan bahwa metode Random Forest dengan 100 tree dan kedalaman tree 10 adalah yang terbaik dengan tingkat akurasi tertinggi 82.22%. Temuan ini menunjukkan potensi machine learning dalam membantu pengembangan obat antimalaria yang lebih efektif.
Analisis Kinerja Augmented Reality HyperText Markup Language (ARHTML) Melalui Pemanfaatan Web Graphics Library dan OpenGl Shading Language untuk Pengembangan 3D Hamzaturrazak, Multohadi; Jabbar, Abdul; Setya Perdana, Rizal; Pinandito, Aryo
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 5: Oktober 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2024118040

Abstract

Di era digital ini, teknologi mengalami kemajuan pesat, termasuk penggunaan augmented reality yang semakin populer. Perpaduan elemen virtual dan dunia nyata oleh augmented reality menciptakan interaksi pengguna yang berkesan dan dinamis. Munculnya alat-alat ini mempermudah pengintegrasian augmented reality ke dalam aplikasi web. Dengan memanfaatkan mentahan shader mentah dari WebGL dan GLSL, tujuan penelitian ini adalah untuk menyelidiki dan membangun lingkungan augmented reality berbasis web melalui library Three.js. WebGL berfungsi sebagai standar otoritatif untuk rendering grafis 3D dalam antarmuka berbasis web, sedangkan GLSL berfungsi sebagai bahasa skrip yang bertanggung jawab untuk mengatur presentasi visual yang dihasilkan oleh WebGL. Three.js berfungsi sebagai perangkat JavaScript yang dirancang untuk membuat grafik 3D interaktif berbasis web. Dalam studi ini, eksplorasi shader mentah dari WebGL dan GLSL dilakukan untuk menganalisis pengalaman web augmented reality. Shader yang diimplementasikan digabungkan dengan Three.js dan AR.js untuk membangun atmosfer augmented reality yang menawan. Selanjutnya dilakukan perbandingan antara hasil penggunaan GLSL dan WebGL dalam konteks augmented reality di web. Analisis menunjukkan bahwa GLSL mengungguli WebGL dalam skenario augmented reality berbasis web. Shader GLSL memberikan kinerja yang lebih baik untuk menampilkan objek virtual di augmented reality.   Abstract In this digital era, technology has changed rapidly advancements, including the usage of augmented reality, which has become increasingly popular. The fusion of virtual and real-world elements by augmented reality creates memorable and dynamic user interactions. The emergence of these tools has made it simpler to integrate augmented reality into web applications. By leveraging raw WebGL and GLSL shaders, we aim to investigate and establish web-based augmented reality environments via the Three.js library. WebGL serves as the authoritative standard for 3D graphical rendering within web-based interfaces, whereas GLSL functions as the scripting language responsible for regulating the visual presentation produced by WebGL. Three.js serves as a JavaScript toolset designed to create interactive, web-based 3D graphics. In this study, an exploration of raw WebGL and GLSL shaders is conducted to analyze the augmented reality web experience. The implemented shaders are combined with Three.js and AR.js tools to construct a captivating augmented reality atmosphere. Furthermore, a comparison is made between the results of using GLSL and WebGL in the context of augmented reality on the web. The analysis demonstrates that GLSL outperforms WebGL in web-based augmented reality scenarios. GLSL shaders provide better performance for displaying virtual objects in augmented reality.
Implementasi Improved Sqrt-Cosine Similarity Untuk Pemeringkatan Resume Berdasarkan Kualifikasi Lowongan Kerja Salsabila Sangdiva Laksono, Khansa; Setya Perdana, Rizal; Indriati
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 9 No 9 (2025): September 2025
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Ketidaksesuaian antara kualifikasi pelamar dengan kebutuhan penyedia lowongan kerja dapat menjadi salah satu penyebab fenomena pengangguran. Penelitian ini menggunakan pendekatan representasi teks TF-IDF dan Word2Vec untuk implementasi perhitungan similaritas Improved Sqrt-Cosine (ISC) antara resume dengan kualifikasi lowongan kerja, memeringkat lima resume per kualifikasi lowongan kerja, dan dievaluasi hasilnya oleh seorang ahli dengan dua skenario yang melibatkan pemberian bobot pada setiap section dalam resume. Hasil penelitian ini menunjukkan keunggulan pada Word2Vec dengan ISC pada skenario tanpa bobot section dan Word2Vec dengan Cosine Similarity pada skenario dengan bobot section. TF-IDF dengan ISC menunjukkan performa terbaik dalam menghasilkan lima resume yang isiannya relevan dengan deskripsi lowongan kerja. Meskipun implementasi ISC dengan representasi teks Word2Vec unggul karena masih cukup mampu menangkap hubungan semantik kata kunci, tetap kurang disarankan karena mengaburkan hubungan semantik asli akibat nilai absolut. Jika preferensi bobot section dapat menimbulkan bias karena kurang mencerminkan variasi preferensi rekruter pada umumnya, maka implementasi ISC dengan TF-IDF lebih disarankan untuk digunakan.
Implementasi OCR Menggunakan Asprise dan Metode LSTM untuk Pengkategorian Item pada Setruk Belanja Jibril Averroes, Muhammad; Eka Ratnawati, Dian; Setya Perdana, Rizal
Jurnal Sistem Informasi, Teknologi Informasi, dan Edukasi Sistem Informasi Vol 6 No 2 (2025): Desember
Publisher : Fakultas Ilmu Komputer Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/kz7b7488

Abstract

Pencatatan transaksi yang dilakukan secara manual akan memakan waktu dan berpotensi terjadi kesalahan. Tujuan penelitian adalah merancang sistem yang mampu memindai nama barang pada setruk belanja dengan menggunakan Asprise OCR untuk pemindaian teks dari setruk belanja dan model NLP berbasis LSTM untuk mengklasifikasi nama barang belanja ke dalam enam kategori utama: makanan dan minuman, alat tulis kantor (ATK), pakaian, obat-obatan, peralatan mandi, dan jika tidak ada kategori yang cocok akan masuk ke dalam kategori lainnya. Metode penelitian ini meliputi pengumpulan data yang berupa setruk belanja dan katalog nama barang, preprocessing teks (case folding, tokenisasi, dan pre-padding), pelatihan model LSTM, serta evaluasi performa dengan metrik akurasi, presisi, recall, dan F1-score. Data yang digunakan dalam penelitian ini adalah 10041 nama barang beserta kategorinya dan 100 gambar setruk belanja yang memiliki layout yang berbeda-beda. Hasil pengujian menunjukkan sistem mampu mengenali teks dengan baik melalui OCR dan mencapai tingkat akurasi yang tinggi yaitu 86%, presisi 92%, recall 86%, F1-score 88% dalam melakukan klasifikasi item berdasarkan kategori yang telah ditentukan. Hasil penelitian ini menunjukkan bahwa integrasi Asprise OCR dan model LSTM efektif untuk otomatisasi pencatatan keuangan pribadi, dan diharapkan sistem ini dapat diimplementasikan dalam aplikasi manajemen keuangan untuk meningkatkan efisiensi dan akurasi.   Abstract Recording transactions manually will be time-consuming and potentially error-prone. The research objective is to design a system capable of scanning item names on shopping receipts by using Asprise OCR for scanning text from shopping receipts and LSTM-based NLP model to classify shopping item names into six main categories: food and beverages, office stationery (stationery), clothing, medicine, toiletries, and if there is no matching category it will go into another category. This research method includes data collection in the form of shopping receipts and item name catalogs, text preprocessing (case folding, tokenization, and pre-padding), LSTM model training, and performance evaluation with accuracy, precision, recall, and F1-score metrics. The data used in this research are 10041 item names and their categories and 100 images of shopping receipts that have different layouts. The test results show that the system is able to recognize text well through OCR and achieve a high level of accuracy of 86%, precision of 92%, recall of 86%, F1-score of 88% in classifying items based on predetermined categories. The results of this study show that the integration of Asprise OCR and LSTM models is effective for the automation of personal financial records, and it is hoped that this system can be implemented in financial management applications to improve efficiency and accuracy.
Pengaruh Preprocessing pada Deteksi Glioblastoma pada Citra Magnetic Resonance Imaging dengan Metode EfficientNet Firdaus, Nada; Muflikhah, Lailil; Setya Perdana, Rizal
Jurnal Pengembangan Teknologi Informasi dan Ilmu Komputer Vol 10 No 2 (2026): Februari 2026
Publisher : Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Glioblastoma multiforme (GBM) merupakan tumor otak primer paling agresif dengan prognosis buruk dan median kelangsungan hidup kurang dari 15 bulan. Penelitian ini bertujuan mengevaluasi pengaruh preprocessing citra MRI terhadap kinerja deteksi GBM menggunakan arsitektur EfficientNetB0. Lima skenario preprocessing diuji secara independen: baseline tanpa preprocessing, CLAHE, denoise, skull stripping, dan intensity normalization pada dataset 4.465 citra MRI dengan 15 kelas tumor otak. Hasil menunjukkan model baseline mencapai akurasi 88,51%, sensitivitas 83,87%, dan spesifisitas 96,77%. Intensity normalization menghasilkan performa terbaik dengan akurasi 89,70%, sensitivitas 80,65%, spesifisitas 96,77%, dan precision 83%, meningkat 1,19 poin dari baseline. Sebaliknya, preprocessing agresif seperti CLAHE (68,21%), denoise (58,96%), dan skull stripping (40,15%) justru menurunkan akurasi signifikan karena mengubah distribusi fitur dan mengganggu kompatibilitas dengan pretrained weights ImageNet. Visualisasi Grad-CAM mengkonfirmasi bahwa intensity normalization menghasilkan pola aktivasi paling fokus pada region tumor dengan confidence tertinggi (99,9%). Penelitian ini menyimpulkan bahwa intensity normalization merupakan preprocessing optimal untuk deteksi glioblastoma menggunakan EfficientNetB0 karena menyeragamkan distribusi intensitas tanpa mengubah struktur morfologi tumor.