cover
Contact Name
Agung Setia Budi
Contact Email
agungsetiabudi@ub.ac.id
Phone
+62341-577911
Journal Mail Official
jtiik@ub.ac.id
Editorial Address
Fakultas Ilmu Komputer Universitas Brawijaya Gedung F FILKOM Lt. 8, Ruang BPJ Jalan Veteran No. 8 Malang Indonesia - 65145
Location
Kota malang,
Jawa timur
INDONESIA
Jurnal Teknologi Informasi dan Ilmu Komputer
Published by Universitas Brawijaya
ISSN : 23557699     EISSN : 25286579     DOI : http://dx.doi.org/10.25126/jtiik
Jurnal Teknologi Informasi dan Ilmu Komputer (JTIIK) merupakan jurnal nasional yang diterbitkan oleh Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya (UB), Malang sejak tahun 2014. JTIIK memuat artikel hasil-hasil penelitian di bidang Teknologi Informasi dan Ilmu Komputer. JTIIK berkomitmen untuk menjadi jurnal nasional terbaik dengan mempublikasikan artikel berbahasa Indonesia yang berkualitas dan menjadi rujukan utama para peneliti. JTIIK di akreditasi oleh Kementerian Riset, Teknologi, dan Pendidikan Tinggi Republik Indonesia Nomor: 36/E/KPT/2019 yang berlaku sampai dengan Volume 11 Nomor 2 Tahun 2024.
Articles 1,288 Documents
Prediksi Tipe Kepribadian MBTI Artis K-Pop Berdasarkan Caption Instagram Menggunakan Word2Vec dan Long-Short Term Memory (LSTM) Hakim, Alfian; Wijoyo, Satrio Hadi; Setiawan, Nanang Yudi
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 5: Oktober 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107064

Abstract

Myers-Briggs Type Indicator (MBTI) adalah metode pengujian psikologi yang membedakan kepribadian seseorang. MBTI termasuk pembagian tipe kepribadian yang paling populer di dunia, termasuk di Korea Selatan. Tren MBTI di Korea Selatan juga dimanfaatkan oleh para artis K-Pop untuk berbagi tipe MBTI sehingga bisa mendekatkan hubungan antara penggemar dan idolanya. Salah satu media sosial yang umum digunakan oleh artis K-Pop adalah Instagram. Penelitian ini mencoba membuat model klasikasi tipe kepribadian berdasarkan caption Instagram artis K-Pop menggunakan Word2Vec dan Long-Short Term Memory (LSTM). Terdapat 118.401 data caption yang sudah dibersihkan melalui serangkaian langkah pre-processing dari 458 artis. Distribusi tipe kepribadian menunjukkan bahwa target tidak seimbang sehingga perlu dilakukan penanganan yaitu penggeseran threshold yang dilakukan pasca pemodelan. Evaluasi kombinasi model menghasilkan nilai macro f1 0,65 pada data artis, dengan rincian model Extroversion-Introversion, Sensing-Intuition, Thinking-Feeling memiliki nilai macro f1 yang sama yaitu 0,88, sedangkan model Judging-Perceiving memiliki nilai macro f1 yang sedikit lebih baik yaitu 0,90. Model diimplementasikan dalam aplikasi web Streamlit agar penggemar K-Pop dapat menggunakannya untuk memprediksi tipe MBTI dengan masukan caption Instagram. Aplikasi web dievaluasi menggunakan kuesioner System Usability Scale (SUS) dan mendapatkan skor 84,55 sehingga sudah termasuk kategori acceptable.   Abstract Myers-Briggs Type Indicator (MBTI) is a psychological test that distinguishes a person's personality. The MBTI is one of the most popular personality types in the world, including South Korea. The MBTI trend in South Korea is also used by K-Pop artists to share their MBTI types so they could be closer to their fans. One of the social media commonly used by K-Pop artists is Instagram. This study tries to develop a personality type classification model based on Instagram captions of K-Pop artists using Word2Vec and Long-Short Term Memory (LSTM). There are 118,401 caption data that have been cleaned through a series of pre-processing steps from 458 artists. The distribution of personality types shows that the target is not balanced, so it is necessary to handle imbalanced data, namely shifting the threshold after modeling. Evaluation of the combination model yields a macro f1 value of 0.65 in the artist data, with the details of the Extroversion-Introversion, Sensing-Intuition, Thinking-Feeling models having the same macro f1 value of 0.88, while the Judging-Perceiving model has a slightly better macro f1 value of 0.90. The model is deployed in the Streamlit web application so that K-Pop fans can use it to predict the MBTI type by inputting Instagram captions. The web application is evaluated using the System Usability Scale (SUS) questionnaire and gets a score of 84.55 so it is considered acceptable.
Analisis Sentimen untuk Identifikasi Bantuan Korban Bencana Alam berdasarkan Data di Twitter Menggunakan Metode K-Means dan Naive Bayes Prasetyo, Vincentius Riandaru; Erlangga, Gatum; Prima, Delta Ardy
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 5: Oktober 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107077

Abstract

Media sosial telah menjadi sarana yang umum bagi orang untuk mengekspresikan diri dan meminta bantuan ketika mereka mengalami musibah. Banyak korban bencana alam di Indonesia menggunakan Twitter untuk meminta bantuan seperti makanan, air bersih, dan lainnya. Penelitian ini bertujuan untuk melakukan analisis sentimen dari data Twitter untuk menentukan bantuan bagi korban bencana alam di Indonesia. Pada penelitian ini, metode K-Means dan Naïve Bayes dikombinasikan untuk melakukan analisis sentimen. Dalam penelitian ini, bantuan yang akan ditemukan adalah pakaian, makanan, air bersih, dan obat. Metode K-Means dipilih karena mudah digunakan dan mudah diimplementasikan, sementara metode Naïve Bayes digunakan karena menghasilkan nilai akurasi yang baik dalam klasifikasi. Hasil uji coba memperlihatkan bahwa kombinasi K-Means dan Naïve Bayes menghasilkan akurasi sebesar 76,46%, di mana akurasi tersebut lebih tinggi daripada implementasi Naïve Bayes saja, dengan akurasi sebesar 74,65%. Berdasarkan validasi yang dilakukan dengan Kepala Badan Penanggulangan Bencana Daerah (BPBD) di Kota Tarakan, sistem ini dapat membantu BPBD Kota Tarakan dalam memberikan bantuan yang tepat ke lokasi bencana.   Abstract   Social media has become a common place for people to express themselves and ask for help when they are going through a calamity. Many victims of natural disasters in Indonesia use Twitter to request assistance such as food, clean water, and others. Therefore, this study aims to conduct sentiment analysis from Twitter data to determine aid for victims of natural disasters in Indonesia. In this research, K-Means and Naïve Bayes methods will be combined for sentiment analysis. In this study, the assistance that will be found is clothing, food, clean water, and medicine. The K-Means method was chosen because it is easy to use and easy to implement, while the Naïve Bayes method was chosen because it has a good level of accuracy in classification. The results showed that the combination of K-Means and Naïve Bayes had a higher accuracy rate of 76.46%, compared to the use of Naïve Bayes alone, which was 74.65%. Based on the validation conducted with the Head of the Regional Disaster Management Agency (BPBD) in Tarakan City, this system can assist the Tarakan City BPBD in providing appropriate assistance to disaster locations.
Optimalisasi Proses Klasifikasi Dengan Menambahkan Semantik Pada Kebutuhan Non-Fungsional Berbasis ISO/IEC 25010 Hakim, Lukman; Huda, Choirul
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 5: Oktober 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107081

Abstract

Kebutuhan non-fungsional (NFRs) memiliki peranan yang sangat penting untuk merancang sebuah sistem. Tetapi, mengidentifikasi NFRs masih menjadi tantangan nyata. NFRs dapat digunakan untuk memastikan apakah sistem sesuai dengan kebutuhan pengguna. Oleh karena itu, dibutuhkan suatu sistem untuk dapat mengidentifikasi NFRs. Penelitian sebelumnya menggunakan dataset dengan jumlah NFRs lebih banyak dibanding kebutuhan fungsional (FRs) memperoleh nilai tinggi. Akan tetapi, faktanya adalah NFRs lebih sedikit dari pada FRs. Penelitian selanjutnya menggunakan dataset dengan jumlah NFRs lebih sedikit dibandingkan (FRs) memperoleh nilai rendah terutama precision dan recall. Berdasarkan permasalahan pada penelitian sebelumnya, perlu dilakukan optimalisasi dengan cara menambahkan semantik pada metode FSKNN. Sistem yang digunakan untuk mengidentifikasi NFRs terdiri dari dua tahap. Pertama, sistem akan menghasilkan data latih secara otomatis tanpa pengukuran semantik. Setelah itu, data latih tersebut ditambahkan pengukuran semantik dan menghasilkan data latih baru. Kedua, proses klasifikasi menggunakan FSKNN. Pengujian dilakukan berdasarkan nilai ketetanggaan tertinggi. Hasil dari pengujian menggunakan dataset dengan penambahan pengukuran semantik memperoleh nilai accuracy, precision, dan recall lebih baik yaitu sebesar 98,04%, 25,05%, dan 21,35. Data latih baru dengan penambahan semantik memperoleh hasil lebih tinggi dari data latih tanpa penambahan semantik. Nilai precision rendah karena dataset yang digunakan tidak seimbang.   Abstract Non-functional requirements (NFRs) are very important to design a system. However, identifying NFRs remains a real challenge. NFRs can be used to determine whether the system meets user requirements. Therefore, we need a system to be able to identify NFRs. Previous studies using a dataset with a higher number of NFRs than functional requirements (FRs) obtained high scores. However, the fact is that there are fewer NFRs than FRs. Subsequent studies using datasets with fewer NFRs than FRs obtain low values, especially precision, and recall. Based on the problems in previous studies, it is necessary to optimize by adding semantics to the FSKNN method. The system used to identify NFRs consists of two stages. First, the system will generate training data automatically without semantic measurements. After that, the training data is added with semantic measurements and generates new training data. Second, the classification process uses FSKNN. Testing is done based on the highest neighbor value. The results of testing using a dataset with the addition of semantic measurements obtained better accuracy, precision, and recall values of 98,04%, 25,05%, and 21,35. New training data with semantic additions obtains higher results than training data without semantic additions. The precision value is low because the dataset used is unbalanced.
Easy Data Augmentation untuk Data yang Imbalance pada Konsultasi Kesehatan Daring Nur Azizah, Anisa; Falach Asy'ari, Misbachul; Wisma Dwi Prastya, Ifnu; Purwitasari, Diana
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 5: Oktober 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107082

Abstract

Pendekatan augmentasi teks sering digunakan untuk menangani imbalance data pada kasus klasifikasi teks, seperti teks Konsultasi Kesehatan Daring (KKD), yaitu alodokter.com. Teknik oversampling dapat mengatasi kondisi skewed terhadap kelas mayoritas. Namun, augmentasi teks dapat mengubah konten dan konteks teks karena kata-kata teks tambahan yang berlebihan. Penelitian kami menyelidiki algoritma Easy Data Augmentation (EDA), yang berbasis parafrase kalimat dalam teks KKD dengan menggunakan teknik Synonym Replacement (SR), Random Insertion (RI), Random Swap (RS), dan Random Deletion (RD). Kami menggunakan Tesaurus Bahasa Indonesia untuk mengubah sinonim di EDA dan melakukan percobaan pada parameter yang dibutuhkan oleh algoritma untuk mendapatkan hasil augmentasi teks yang optimal. Kemudian, percobaan menyelidiki proses augmentasi kami menggunakan pengklasifikasi Random Forest, Naïve Bayes, dan metode berbasis peningkatan seperti XGBoost dan ADABoost, yang menghasilkan peningkatan akurasi rata-rata sebesar 0,63. Hasil parameter EDA terbaik diperoleh dengan menambahkan nilai 0,1 pada semua teknik EDA mendapatkan 88,86% dan 88,44% untuk akurasi dan nilai F1-score. Kami juga memverifikasi hasil EDA dengan mengukur koherensi teks sebelum dan sesudah augmentasi menggunakan pemodelan topik Latent Dirichlet Allocation (LDA) untuk memastikan konsistensi topik. Proses EDA dengan RI memberikan koherensi yang lebih baik sebesar 0,55 dan dapat mendukung implementasi EDA untuk menangani imbalance data, yang pada akhirnya dapat meningkatkan kinerja klasifikasi.   Abstract   The text augmentation approach is often utilized for handling imbalanced data of classifying text corpus, such as online health consultation (OHC) texts, i.e., alodokter.com. The oversampling technique can overcome the skewed condition towards majority classes. However, text augmentation could change text content and context because of excessive words of additional texts. Our work investigates the Easy Data Augmentation (EDA) algorithm, which is sentence paraphrase-based in the OHC texts that often in non-formal sentences by using techniques of synonym replacement (SR), random insertion (RI), random swap (RS), and random deletion (RD). We employ the Indonesian thesaurus for changing synonyms in the EDA and do empirical experiments on parameters required by the algorithm to obtain optimal results of text augmentation. Then, the experiments investigate our augmentation process using classifiers of Random Forest, Naïve Bayes, and boosting-based methods like XGBoost and ADABoost, which resulted in an average accuracy increase of 0.63. The best EDA parameter results were acquired by adding a value of 0.1 in all EDA techniques to get 88.86% and 88.44% for accuracy and F1-score values. We also verified the EDA results by measuring coherences of texts before and after augmentation using a topic modeling of Latent Dirichlet Allocation (LDA) to ensure topic consistency. The EDA process with RI gave better coherences of 0.55, and it could support the EDA application to handle imbalanced data, eventually improving the classification performance.
Efektifitas Metode Preference Selection Index (PSI) dalam Menentukan Penyaluran Dana Bantuan Sosial COVID-19 pada Kecamatan Mandau Radillah, Teuku; Fauzansyah; Widodo, Pulla Pandika; Mursalan, Hafiz; Putra, Budi Permana
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 6: Desember 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107083

Abstract

COVID-19 merupakan pandemi global yang penyebarannya sangat cepat, termasuk di Indonesia. Untuk memulihkan perekonomian di tengah kondisi pandemi ini, pemerintah berupaya memberikan dana bantuan sosial (bansos) COVID-19 disetiap kecamatan di berbagai wilayah, termasuk Kecamatan Mandau di Kota Duri seperti bantuan bahan pokok makanan. Namun dalam pelaksanaannya terdapat kendala dalam penyaluran dana bantuan sosial tersebut karena data yang diterima oleh petugas kecamatan masih menggunakan sistem pencatatan manual sehingga pendataan penerima bantuan tidak akurat dan tidak memiliki acuan kriteria persyaratan sebagai penerima bantuan, yang menyebabkan penerima bantuan sosial tidak tepat sasaran. Dalam penelitian ini, untuk mengatasi masalah tersebut telah dirancang analisa perhitungan berbasis website dengan menggunakan metode Preference Selection Index (PSI) yang mampu mengklasifikasikan penerima bantuan sesuai kriteria yang diharapkan. Hasil dari penerapan metode PSI kedalam aplikasi berbasis web ini memberikan kemudahan bagi calon penerima bantuan untuk mendaftar  secara online, dan untuk proses penyaluran bantuan sosial menjadi lebih mudah, transparan, dan tepat sasaran. dengan kriteria data yang akurat dengan skala prioritas  pengurutan secara descending untuk nilai tertinggi yaitu 0.883, dan hasil nilai terendah atau non prioritas yaitu 0.322.   Abstract COVID-19 is a global pandemic with rapid spread, including in Indonesia. To restore the economy amid this pandemic, the government is trying to provide COVID-19 social assistance funds in every sub-district in various regions, including Mandau District in Duri City, such as assistance with staple foods. However, in practice there are obstacles in the distribution of social assistance funds because the data received by sub-district officials still uses a manual recording system so that the data collection on beneficiaries is inaccurate and does not have a reference to the eligibility criteria as beneficiaries, which causes social assistance recipients to be not on target. In this study, to overcome this problem a website-based calculation analysis has been designed using the Preference Selection Index (PSI) method that can classify the beneficiaries according to the expected criteria, and after this calculation analysis is implemented in this sub-district, the social assistance distribution process becomes easier and on target with accurate criteria.
Optimalisasi Hyper Parameter Convolutional Neural Networks Menggunakan Ant Colony Optimization Santoso, Fian Yulio; Sediyono, Eko; Purnomo, Hindriyanto Dwi
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127105

Abstract

Berbagai bidang, termasuk pertanian dan kesehatan, mengalami masalah klasifikasi citra yang dapat diatasi melalui beberapa metode. Salah satu metode tersebut menggabungkan convolutional neural networks (CNN) dengan deep learning, tetapi hyperparameter, seperti fungsi loss, fungsi aktivasi, dan optimizers, memengaruhi kinerjanya. Hyperparameter ini memerlukan pengoptimalan, dan metode yang ada, seperti algoritma genetika dan pengoptimalan ant colony, dapat digunakan untuk tujuan ini. Pengoptimalan ant colony terbukti efektif dalam mengoptimalkan deep learning, dan penelitian ini berkontribusi pada penyetelan otomatis berbagai hyperparameter menggunakan ant colony untuk klasifikasi gambar. Pada penelitian ini menggunakan dataset MNIST yang bertujuan untuk mengidentifikasi digit pada citra. Dataset yang digunakan terbagi menjadi 2, dataset pelatihan dan dataset validasi. Dataset pelatihan terdiri dari 33.600 gambar, dan dataset validasi terdiri dari 8.400 gambar. Hasil menunjukkan bahwa optimasi ant colony mencapai akurasi 97,46% dengan data validasi dan 99,69% dengan data pelatihan, yang mengungguli algoritma genetika dengan akurasi masing-masing 94,60% dan 97,59% dengan data validasi dan pelatihan. Selain itu, pengoptimalan ant colony membutuhkan waktu 27,94 detik untuk dilatih, sedangkan algoritme genetika membutuhkan 22,25 detik.
Implementasi Algoritme Spongent sebagai Algoritme Hashing untuk Integritas pada Modul Komunikasi Lora Kusyanti, Ari; Agrahita Wiguna, I Putu; Andri Bakhtiar, Fariz
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 6: Desember 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107119

Abstract

Internet of Things (IoT) merupakan konsep terbaru dalam ranah teknologi dan informasi komunikasi dengan fondasinya berdasarkan pada pertukaran informasi antara objek-objek pintar. Komunikasi dalam lingkup IoT memiliki peran penting untuk saling terhubung dengan beberapa perangkat untuk mengirimkan pesan. Teknologi yang secara khusus menargetkan situasi di mana cakupan area yang luas dengan biaya penerapan yang rendah dan konsumsi daya yang rendah menggunakan frekuensi radio ialah LoRa. LoRa dioptimalkan untuk implementasi pada perangkat dengan sumber daya yang terbatas, namun pada penerapan IoT, keamanan data menjadi tantangan selain keterbatasan sumber daya. Pengamanan data dapat dilakukan dengan algoritme hashing seperti algoritme SPONGENT. Algoritme SPONGENT dipilih untuk menjamin integritas data. Berdasarkan hasil penelitian, algoritme SPONGENT telah berhasil diimplementasikan sebagai keamanan integritas data pada LoRa. Pengujian terhadap keamanan data dengan pengujian serangan aktif berhasil dilakukan karena ketika penyerang mengirimkan data yang sudah diubah, telah dilakukan pengecekan pada gateway dan data yang dihasilkan tidak valid. Algoritme SPONGENT menunjukkan kinerja yang lebih baik dari Algoritme QUARK berdasarkan kinerja waktu hashing.   Abstract The Internet of Things (IoT) is a recent concept in the realm of technology and information communication, built on the foundation of information exchange among smart objects. Communication within the scope of IoT has an important role to connect with multiple devices to send messages. Technology that specifically targets situations where large area coverage with low deployment costs and low power consumption use a radio frequency is LoRa. LoRa is optimized for implementation on limited resource devices, but in IoT deployment, data security becomes a challenge in addition to resource limitations. Data security can be done with hashing algorithms such as SPONGENT algorithm. The SPONGENT algorithm was chosen to ensure data integrity. Based on the research results, the SPONGENT algorithm has been successfully implemented as data integrity security in LoRa. Testing of data security with active attack testing is successful because when the attacker sends the modified data, it has been checked on the gateway node and the resulting data is invalid. SPONGENT algorithm shows better performance than QUARK algorithm based on hashing time performance.
Analisis Perilaku Entitas untuk Pendeteksian Serangan Internal Menggunakan Kombinasi Model Prediksi Memori dan Metode PCA Budiarto, Rahmat -; Kuntjoro, Yanif Dwi
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 6: Desember 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107123

Abstract

Tingkat ketahanan siber di Indonesia terhitung rendah dibanding dengan negara lain di dunia, terbukti dengan masih banyaknya kejahatan siber yang terjadi, seperti pencurian data dan identitas, penipuan dan peretasan situs-situs institusi pemerintah maupun swasta yang melibatkan peran  internal secara penuh maupun sebagian. Menangkis serangan dari luar jaringan institusi/organisasi relatif lebih mudah dilakukan dibandingkan dengan menangkis serangan kejahatan siber dari dalam jaringan. Serangan dari luar dapat dicegah menggunakan firewall, anti virus dan perangkat lunak khusus untuk pendeteksi penyusupan/malware. Penelitian ini bertujuan untuk membangun suatu model analisis perilaku entitas berazaskan Model Prediksi Memori (MPM) yang dikombinasikan dengan metode seleksi fitur principal component analysis (PCA) yang diimplementasikan untuk mendeteksi serangan/anomali siber yang melibatkan internal. Model prediksi memori yang terdiri dari 6 lapisan hirarki, mengenali masukan dari lapisan hirarki rendah ke lapisan hirarki tinggi kemudian dilakukan proses pencocokan dan menciptakan serangkaian ekspektasi dari lapisan hirarki tinggi ke rendah.. Setiap tingkat hierarki mengingat urutan pola masukan temporal yang sering diamati dan menghasilkan label atau 'nama' untuk urutan ini. Algoritma PCA diterapkan untuk mengurangi jumlah fitur trafik sehingga mempercepat proses deteksi, Data untuk percobaan diambil dari jaringan nyata dengan 150 pengguna dan data serangan flooding dari dataset MACCDC. Hasil eksperimen dalam suatu jaringan testbed menunjukkan hasil akurasi pendeteksian mencapai 94.01%, presisi 95.64%, Sensitivitas 99.28% dan F1-Score 96.08%. Model yang diusulkan (PCA-MPM) menunjukkan kemampuan menjalankan pembelajaran secara on-the-fly yang sangat diperlukan untuk mengenali perubahan fitur pada pola serangan yang sifatnya berevolusi dari waktu ke waktu. Pada gilirannya model ini dapat mendukung sistem pertahanan siber holistik yang sedang dikembangkan. Sistem yang sedang dikembangkan diharapkan dapat memenuhi kebutuhan dalam negeri akan teknologi siber untuk mengurangi ketergantungan dari negara lain karena dikembangkan secara lokal.   Abstract Compared to other countries in the world, the level of cyber resilience in Indonesia is low as evidenced by the number of cybercrimes that occur, such as data and identity theft, fraud, and hacking of websites of government and private institutions that involve full or partial insider roles. Fending off attacks from outside the institutional or organizational network is relatively easier than fending off cybercrime attacks from within the network. External attacks can be prevented using firewalls, anti-virus software, and special software for intruder and malware detection. This study intention is to build a model for analyzing entity behavior using a memory prediction model and uses the principal component analysis (PCA) as a feature selection method and implement it to detect cyber-attacks and anomalies involving insiders. The memory-prediction model recognizes bottom-up inputs that matched in hierarchy and evokes a series of top-down expectations. Each hierarchy level remembers frequently observed temporal sequences of input patterns and generates labels or 'names' for these sequences. To accelerate the detection process, the PCA algorithm is deployed to reduce the number of significant features of the traffic. Data for the experiment was taken from a real network with 150 users accessing the network. The experimental results in a testbed network show that the detection accuracy reaches 94.01%, the precision is 95.64%, the sensitivity is 99.28%, and the F1-score is 96.08%. The proposed model (PCA-MPM) is also capable of performing on-the-fly learning where this capability is needed to recognize feature changes in attacks that evolve over time. In turn, this model can support a holistic cyber defense system that is being developed. The system being developed is expected to meet the domestic need for cyber technology and reduce dependence on other countries as it is developed locally.
Deep Learning Image Classification Rontgen Dada pada Kasus Covid-19 Menggunakan Algoritma Convolutional Neural Network Susanti, Leni Anggraini; Soleh, Agus Mohamad; Sartono, Bagus
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 5: Oktober 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2023107142

Abstract

Penelitian ini mengusulkan penggunaan Convolutional Neural Network (CNN) dengan arsitektur VGGNet-19 dan ResNet-50 untuk diagnosis COVID-19 melalui analisis citra rontgen dada. Modifikasi dilakukan dengan membandingkan nilai regularisasi dropout 50% dan 80% untuk kedua arsitektur dan mengubah jumlah lapisan klasfikasi menjadi 4 kelas. Selanjutnya, kinerja model dibandingkan berdasarkan ukuran dataset. Dataset terdiri dari 21165 citra, dengan pembagian 10% sebagai data uji dan 90% data dibagi menjadi data latih (80%) dan data validasi (20%). Kinerja model dievaluasi menggunakan metode validasi silang berulang 5 kali lipat. Proses pelatihan menggunakan learning rate 0.0001, optimasi stochastic gradient descent (SGD), dan sepuluh iterasi. Hasil penelitian menunjukkan bahwa penambahan lapisan dropout dengan peluang 50% untuk kedua arsitektur secara efektif mengatasi overfitting dan meningkatkan performa model. Ditemukan bahwa kinerja yang lebih baik dicapai pada ukuran kumpulan data lebih besar dan memberikan peningkatan signifikan pada kinerja model. Hasil klasifikasi menunjukkan arsitektur ResNet-50 mencapai akurasi rata-rata 94.4%, recall rata-rata 94.1%, presisi rata-rata 95.5%, spesifisitas rata-rata 97% dan F1-score rata-rata 94.8%. Sedangkan arsitektur VGGNet-19 mencapai akurasi rata-rata 91%, recall rata-rata 89%, presisi rata-rata 95.0%, spesifisitas rata-rata 96.8% dan F1-score rata-rata 92.7%. Pemanfaatan model ini dapat membantu mengidentifikasi penyebab kematian pasien dan memberikan informasi yang berharga bagi pengambilan keputusan medis dan epidemiologi.   Abstract This research proposes using a Convolutional Neural Network (CNN) with VGGNet-19 and ResNet-50 architectures for COVID-19 diagnosis through chest X-ray image analysis. Modifications were made by comparing the dropout regularization values of 50% and 80% for both architectures and altering the number of classification layers to 4 classes. Furthermore, the model's performance was compared based on dataset size. The dataset comprised 21,165 images, with a division of 10% for testing and 90% divided into training data (80%) and validation data (20%). The model's performance was evaluated using the 5-fold repeat cross-validation method. The training process employed a learning rate of 0.0001, stochastic gradient descent (SGD) optimization, and ten iterations. The study's results indicate that adding dropout layers with a 50% probability for both architectures effectively addressed overfitting and improved the model's performance. It was found that better performance was achieved with larger dataset sizes. The classification results indicate the ResNet-50 architecture achieved an average accuracy of 94.4%, average recall of 94.1%, average precision of 95.5%, average specificity of 97%, and average F1-score of 94.8%. Meanwhile, the VGGNet-19 architecture achieved an average accuracy of 91%, an average recall of 89%, average precision of 95.0%, average specificity of 96.8%, and an average F1-score of 92.7%. Utilizing these models can assist in identifying the causes of patient mortality and offer valuable information for medical and epidemiological decision-making.
Pengembangan Sistem Manajemen Pelatihan Kerja di Kota Surakarta Agus Putra, Affriza Brilyan Relo Pambudi; Neyman, Shelvie Nidya; Rahmawan, Hendra
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 10 No 4: Agustus 2023
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2024107167

Abstract

Program pelatihan kerja di Pemerintah Kota Surakarta yang ditawarkan oleh Dinas Tenaga Kerja, Dinas Pendidikan, Dinas Perdagangan, Dinas Pemberdayaan Perempuan, Perlindungan Anak dan Pemberdayaan Masyarakat dan Dinas UMKM Koperasi & Industri. Saat ini beberapa instansi pemerintah yang memiliki program pelatihan kerja yang sama masih menggunakan sistem konvensional. Data pengangguran diambil melalui dari Dinas Sosial Kota Surakarta dikirim melalui media sosial WhatshApp sehingga terjadinya tumpang tindih data pengangguran dan pelaksanaan pelatihan kerja. Instansi yang terlibat dalam program pelatihan kerja belum memiliki rencana strategis dan beberapa proses bisnis dilakukan secara manual. Melihat kondisi permasalahan tersebut maka dibutuhkan suatu perencanaan pengembangan sistem pada instansi pemerintah (dalam hal ini Dinas terkait) sistem informasi dianalisis dan dirancang dengan metode prototyping, merupakan bagian proses untuk membagikan program pelatihan kerja di setiap dinas terkait merealisasikan tujuannya. Untuk dapat menerapkan perencanaan yang mengintegrasikan dan menyinkronkan data menjadi sarana Pemerintah Kota Surakarta dapat mengelola sistem manajemen pelatihan kerja. Dari hasil penelitian ini melalui pengujian dengan metode black box untuk mengukur efisiensi, akurasi, validitas data dan kegunaan sistem manajemen pelatihan kerja untuk memastikan tidak terjadinya kembali tumpang tindih data. AbstractJob training programs in the Surakarta City Government are offered by the Department of Manpower, the Office of Education, the Office of Commerce, the Office for Women's Empowerment, Child Protection and Community Empowerment, and the Office for MSME, Cooperatives, and Industry. Several government agencies with the same job training program are still using the conventional system. The response data was taken through the Surakarta City Social Service and sent via WhatsApp social media so that there was an overlapping of the response data and the implementation of job training. The agencies involved in the job training program do not yet have a strategic plan and some business processes are carried out manually. Seeing the condition of the problem, it is necessary to have a system development plan for government agencies (in this case the related Office). Information systems are analyzed and designed using the prototyping method, which is part of the process for distributing job training programs in each Service related to utilization. To be able to implement planning that integrates and synchronizes data becomes a means for the Surakarta City Government to manage a job training management system. the results of this study through testing with the black box method for efficiency, accuracy, data validity, and the use of job training management systems to ensure data overlap does not occur again.

Page 97 of 129 | Total Record : 1288


Filter by Year

2014 2025


Filter By Issues
All Issue Vol 12 No 6: Desember 2025 Vol 12 No 5: Oktober 2025 Vol 12 No 4: Agustus 2025 Vol 12 No 3: Juni 2025 Vol 12 No 2: April 2025 Vol 12 No 1: Februari 2025 Vol 11 No 6: Desember 2024 Vol 11 No 5: Oktober 2024 Vol 11 No 4: Agustus 2024 Vol 11 No 3: Juni 2024 Vol 11 No 2: April 2024 Vol 11 No 1: Februari 2024 Vol 10 No 6: Desember 2023 Vol 10 No 5: Oktober 2023 Vol 10 No 4: Agustus 2023 Vol 10 No 3: Juni 2023 Vol 10 No 2: April 2023 Vol 10 No 1: Februari 2023 Vol 9 No 7: Spesial Issue Seminar Nasional Teknologi dan Rekayasa Informasi (SENTRIN) 2022 Vol 9 No 6: Desember 2022 Vol 9 No 5: Oktober 2022 Vol 9 No 4: Agustus 2022 Vol 9 No 3: Juni 2022 Vol 9 No 2: April 2022 Vol 9 No 1: Februari 2022 Vol 8 No 6: Desember 2021 Vol 8 No 5: Oktober 2021 Vol 8 No 4: Agustus 2021 Vol 8 No 3: Juni 2021 Vol 8 No 2: April 2021 Vol 8 No 1: Februari 2021 Vol 7 No 6: Desember 2020 Vol 7 No 5: Oktober 2020 Vol 7 No 4: Agustus 2020 Vol 7 No 3: Juni 2020 Vol 7 No 2: April 2020 Vol 7 No 1: Februari 2020 Vol 6 No 6: Desember 2019 Vol 6 No 5: Oktober 2019 Vol 6 No 4: Agustus 2019 Vol 6 No 3: Juni 2019 Vol 6 No 2: April 2019 Vol 6 No 1: Februari 2019 Vol 5 No 6: Desember 2018 Vol 5 No 5: Oktober 2018 Vol 5 No 4: Agustus 2018 Vol 5 No 3: Juni 2018 Vol 5 No 2: April 2018 Vol 5 No 1: Februari 2018 Vol 4 No 4: Desember 2017 Vol 4 No 3: September 2017 Vol 4 No 2: Juni 2017 Vol 4 No 1: Maret 2017 Vol 3 No 4: Desember 2016 Vol 3 No 3: September 2016 Vol 3 No 2: Juni 2016 Vol 3 No 1: Maret 2016 Vol 2 No 2: Oktober 2015 Vol 2, No 2 (2015) Vol 2, No 1 (2015) Vol 2 No 1: April 2015 Vol 1, No 2 (2014) Vol 1 No 2: Oktober 2014 Vol 1, No 1 (2014) Vol 1 No 1: April 2014 More Issue