cover
Contact Name
Agung Setia Budi
Contact Email
agungsetiabudi@ub.ac.id
Phone
+62341-577911
Journal Mail Official
jtiik@ub.ac.id
Editorial Address
Fakultas Ilmu Komputer Universitas Brawijaya Gedung F FILKOM Lt. 8, Ruang BPJ Jalan Veteran No. 8 Malang Indonesia - 65145
Location
Kota malang,
Jawa timur
INDONESIA
Jurnal Teknologi Informasi dan Ilmu Komputer
Published by Universitas Brawijaya
ISSN : 23557699     EISSN : 25286579     DOI : http://dx.doi.org/10.25126/jtiik
Jurnal Teknologi Informasi dan Ilmu Komputer (JTIIK) merupakan jurnal nasional yang diterbitkan oleh Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya (UB), Malang sejak tahun 2014. JTIIK memuat artikel hasil-hasil penelitian di bidang Teknologi Informasi dan Ilmu Komputer. JTIIK berkomitmen untuk menjadi jurnal nasional terbaik dengan mempublikasikan artikel berbahasa Indonesia yang berkualitas dan menjadi rujukan utama para peneliti. JTIIK di akreditasi oleh Kementerian Riset, Teknologi, dan Pendidikan Tinggi Republik Indonesia Nomor: 36/E/KPT/2019 yang berlaku sampai dengan Volume 11 Nomor 2 Tahun 2024.
Articles 25 Documents
Search results for , issue "Vol 11 No 2: April 2024" : 25 Documents clear
Simulasi Penggunaan Blockchain Pada Keamanan Jaringan Internet Of Things Menggunakan Pin Emulator: Model Public Blockchain Ismayanti, Clara Amalia; Rantelinggi, Parma Hadi
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241126108

Abstract

Internet of Things (IoT) adalah sejumlah perangkat yang dapat mengumpulkan dan mengirimkan data antar sensor tanpa perlu bantuan manusia. Namun, keamanan IoT dapat terancam karena sifatnya yang dapat diakses dari mana saja dan kapan saja. Celah keamanan memiliki kemungkinan sukar untuk dideteksi, karena memiliki pola yang beragam. Oleh karena itu, diperlukan sebuah model keamanan pengiriman data antar sensor yang aman. Blockchain adalah teknologi yang dapat menjawab tiga syarat keamanan yang diperlukan, yaitu ketersediaan, kerahasiaan, dan integritas. Dalam penelitian ini, kami mencoba membangun sebuah simulasi keamanan IoT dengan menggunakan teknologi blockchain, dimana sistem keamanannya menggunakan pola public blockchain. Metode yang digunakan dalam penelitian ini adalah model public blockchain yang memungkinkan para pengguna untuk mengendalikan aplikasi yang terhubung pada pin emulator melalui smart contract. Penelitian ini menggunakan jejaring Ethereum yang termasuk dalam jaringan pengujian yang dapat digunakan tanpa adanya biaya transaksi yang perlu dibayar. Dengan adanya penelitian ini, diharapkan dapat memberikan solusi pada permasalahan keamanan dan tantangan yang dihadapi dalam jaringan IoT.   Abstract The Internet of Things (IoT) is a collection of devices that can collect and transmit data between sensors without the need for human assistance. However, IoT security can be threatened due to its accessibility from anywhere and at any time. Security vulnerabilities may be difficult to detect due to their diverse patterns. Therefore, a secure data transmission security model between sensors is needed. Blockchain is a technology that can meet the three security requirements needed, namely availability, confidentiality, and integrity. In this study, we attempt to build a security simulation of IoT using blockchain technology, where the security system uses a public blockchain pattern. The method used in this study is a public blockchain model that allows users to control applications connected to the pin emulator via smart contracts. This research uses the Ethereum network, which is included in the testing network that can be used without transaction fees. With this research, it is hoped that solutions can be provided for the security issues and challenges faced in IoT networks.
Klasifikasi Aktivitas Manusia Menggunakan Metode Long Short-Term Memory Afida, Latansa Nurry Izza; Bachtiar, Fitra Abdurrachman; Cholissodin, Imam
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127060

Abstract

Klasifikasi aktivitas manusia merupakan salah satu topik penelitian yang penting karena dapat diterapkan pada berbagai bidang dan memiliki manfaat yang luas. Penelitian mengenai klasifikasi aktivitas manusia sebelumnya telah banyak dikembangkan dengan menerapkan dataset publik pada repositori dataset Human Activity Recognition. Namun dataset tersebut memiliki fitur yang berdimensi tinggi sehingga dataset memiliki dimensi yang tinggi pula. Pada beberapa penelitian sebelumnya menunjukkan bahwa algoritma SVM dan Random Forest merupakan algoritma dengan nilai akurasi yang lebih unggul dibandingkan dengan model lainnya. Akan tetapi berdasarkan penelitian tersebut model tersebut belum pernah diimplementasikan pada kasus riil yaitu pada perangkat bergerak. Penelitian ini mengusulkan model pengenalan aktivitas manusia dengan kasus riil dengan dataset primer yang dikumpulkan dengan menggunakan smartphone. Pengambilan dataset primer melibatkan 10 responden. Data yang terkumpul dengan smartphone direkam melalui sensor menghasilkan dataset berbentuk data time series. Dataset primer yang digunakan masih memiliki nilai yang besar dan kurangnya keseimbangan jumlah label kelas sehingga eksperimen dimulai dengan tahapan preprocessing yang dilakukan dengan menggunakan moving average untuk mereduksi data tanpa menghilangkan informasi. Selain itu juga dilakukan SMOTE untuk menyeimbangkan jumlah masing - masing kelas data. Data latih memiliki proporsi sebanyak 80%, data validasi sebanyak 10% dan data uji sebanyak 10%. Penelitian ini menggunakan LSTM untuk klasifikasi aktivitas manusia karena algoritma ini sangat baik untuk memproses data time series berjumlah banyak. Hasil klasifikasi kemudian dibandingkan dengan algoritma terbaik pada beberapa penelitian sebelumnya. Hasil eksperimen didapatkan bahwa model LSTM dapat mengungguli model SVM dan Random Forest. Hasil klasifikasi menggunakan algoritma LSTM mencapai akurasi, Precision, Recall, dan F1-score 95%, 96%, 95%, dan 95%, secara berurutan.   Abstract Human activity classification is one of the important research topics because it can be applied to various fields and have broad benefits. Research on human activity classification has previously been developed by applying public datasets to the available Human Activity Recognition dataset repository. However, the dataset has high dimensional features so that the dataset has high dimensions as well. Previous study has shown that SVM and Random Forest algorithms are algorithms with superior accuracy values compared to other models. However, based on previous research, the model has never been implemented in real cases, namely on mobile devices. This research proposes a human activity recognition model in real cases situation with primary datasets collected using smartphones. The data collection for the dataset involved 10 respondents. The data collected using a smartphone recorded via sensors to produce a dataset in the form of time series data. The primary dataset used still has a large value and there is a lack of balance in the number of class labels. To this end, the experiment begins with a preprocessing stage which is carried out using a moving average to reduce the data without losing information. In addition, SMOTE was also carried out to balance the number of each data class. The proportion of training data, validation data, and testing data is 80%, 10%, and 10%, respectively. This research uses LSTM for human activity classification because this algorithm is very good for processing large amounts of time series data. The classification results were then compared with the best algorithms in several previous studies. Experimental results show that the LSTM model can outperform the SVM and Random Forest models. Classification results using the LSTM algorithm reached Accuracy, Precision, Recall, dan F1-score 95%, 96%, 95%, and 95%, respectively.
Optimalisasi Hyper Parameter Convolutional Neural Networks Menggunakan Ant Colony Optimization Santoso, Fian Yulio; Sediyono, Eko; Purnomo, Hindriyanto Dwi
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127105

Abstract

Berbagai bidang, termasuk pertanian dan kesehatan, mengalami masalah klasifikasi citra yang dapat diatasi melalui beberapa metode. Salah satu metode tersebut menggabungkan convolutional neural networks (CNN) dengan deep learning, tetapi hyperparameter, seperti fungsi loss, fungsi aktivasi, dan optimizers, memengaruhi kinerjanya. Hyperparameter ini memerlukan pengoptimalan, dan metode yang ada, seperti algoritma genetika dan pengoptimalan ant colony, dapat digunakan untuk tujuan ini. Pengoptimalan ant colony terbukti efektif dalam mengoptimalkan deep learning, dan penelitian ini berkontribusi pada penyetelan otomatis berbagai hyperparameter menggunakan ant colony untuk klasifikasi gambar. Pada penelitian ini menggunakan dataset MNIST yang bertujuan untuk mengidentifikasi digit pada citra. Dataset yang digunakan terbagi menjadi 2, dataset pelatihan dan dataset validasi. Dataset pelatihan terdiri dari 33.600 gambar, dan dataset validasi terdiri dari 8.400 gambar. Hasil menunjukkan bahwa optimasi ant colony mencapai akurasi 97,46% dengan data validasi dan 99,69% dengan data pelatihan, yang mengungguli algoritma genetika dengan akurasi masing-masing 94,60% dan 97,59% dengan data validasi dan pelatihan. Selain itu, pengoptimalan ant colony membutuhkan waktu 27,94 detik untuk dilatih, sedangkan algoritme genetika membutuhkan 22,25 detik.   Abstract Various fields, including agriculture and health, have encountered image classification problems that can be addressed through several methods. One such method combines convolutional neural networks (CNN) with deep learning, but hyperparameters, such as loss functions, activation functions, and optimizers, influence its performance. These hyperparameters require optimization, and existing methods, such as genetic algorithms and ant colony optimization, can be utilized for this purpose. Ant colony optimization has shown to be effective in optimizing deep learning, and this research contributes to automatic tuning of various hyperparameters using ant colonies for image classification. In this study using the MNIST dataset, which aims to identify the digits in the image. The dataset used is divided into 2, training dataset and validation dataset. The training dataset consists of 33,600 images, and the validation dataset consists of 8,400 images. The results indicate that ant colony optimization achieves an accuracy of 97.46% with validation data and 99.69% with training data, which outperforms genetic algorithms with an accuracy of 94.60% and 97.59% with validation and training data, respectively. Additionally, ant colony optimization takes 27.94 seconds to train, while the genetic algorithm requires 22.25 seconds.
ANALISIS SENTIMEN DATA TWITTER TERKAIT CHATGPT MENGGUNAKAN ORANGE DATA MINING Pahtoni, Tri Yuli; Jati, Handaru
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127276

Abstract

Perkembangan teknologi bergerak begitu cepat, diikuti dengan popularitas media sosial yang semakin meluas. Platform media sosial mampu membangun profil big-data pengguna, dengan melacak setiap aktivitas seperti partisipasi, pengiriman pesan, dan kunjungan situs Web. Saat ini banyak orang sering membagikan kritik terhadap sesuatu melalui platform media sosial seperti Facebook, Twitter, Instagram, dan lainnya. Sehingga perlu diketahui bagaimana komentar dari pengguna media sosial yang menghasilkan reaksi masyarakat terhadap chatGPT yang dirilis oleh OpenAI. Banyaknya komentar di Twitter menyebabkan sulitnya mengetahui kecenderungan respon masyarakat. Tujuan dari penelitian ini yaitu melakukan analisis sentimen postingan publik di Twitter untuk memberikan wawasan tentang sikap dan persepsi orang tentang suatu peristiwa. Penelitian ini memberikan ilustrasi peran Twitter dalam menampung postingan pengguna Twitter terkait chatGPT. Hasil penelitian ini dapat digunakan oleh pemangku kepentingan untuk menentukan kebijakan dalam penggunaan chatGPT. Penelitian ini menganalisis sebanyak 5.192 postingan tweet bahasa Inggris dan 641 tweet bahasa Indonesia, mulai dari tanggal 27 April hingga 8 Mei 2023. Tanggapan positif, negatif, dan netral diolah menggunakan perangkat lunak Orange Data Mining dengan algoritma Ekman untuk menganalisis emosi data tweet yang diperoleh. Hasil menunjukan bahwa chatGPT mendapatkan tanggapan netral berbahasa Inggris dengan nilai sebesar 54,72%, tanggapan positif sebesar 31,64%, dan tanggapan negatif sebesar 13,64%. Hasil analisis sentimen berbahasa Indonesia tidak jauh berbeda, dengan nilai tanggapan netral sebesar 63,96%, tanggapan positif 23,56%, dan tanggapan negatif 12,48%. Sehingga dapat disimpulkan bahwa, rilisnya chatGPT mayoritas publik memberikan tanggapan netral atau tidak terdapat penolakan.   Abstract Technological developments move so fast, followed by the increasingly widespread popularity of social media. Social media platforms can build big-data profiles of users by tracking every activity such as participation, messaging, and website visits. Currently, many people often share criticism of something through social media platforms, such as Facebook, Twitter, Instagram, and others. So it is necessary to know how comments from social media users generate public reactions to chatGPT released by OpenAI. A lot of comments on Twitter make it difficult to know the trend of people's responses. The purpose of this research is to conduct sentiment analysis of public posts on Twitter to provide insights into people's attitudes and perceptions regarding a particular event. This research illustrates Twitter's role in accommodating Twitter user posts regarding chatGPT. The results of this study can be used by stakeholders in making policies on the use of chatGPT. This study analyzed 5,192 posts in English and 641 tweets in Indonesian from April 27 to May 8, 2023. The positive, negative, and neutral responses are processed using Orange Data Mining software with the Ekman algorithm to analyze the emotional content of the acquired tweet data. The results show that chatGPT received neutral responses in English with a value of 54.72%, positive responses of 31.64%, and negative responses of 13.64%. The results of sentiment analysis in Indonesian were not much different, with neutral responses of 63.96%, positive responses of 23.56%, and negative responses of 12.48%. So it can be concluded that after the release of chatGPT, the majority of the public gave neutral responses or no rejection.
Prediksi Kelulusan Tepat Waktu Berdasarkan Riwayat Akademik Menggunakan Metode K-Nearest Neighbor Riadi, Imam; Umar, Rusydi; Anggara, Rio
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127330

Abstract

Abstract Graduating on time is a plenary achievement to be achieved by all students or prospective students. Graduation has 2 classifications such as graduating not on time and graduating on time. Graduation becomes an assessment of university accreditation and an assessment by the wider community. Universities graduate students with several standard criteria that must be possessed. It is expected that graduating students meet the graduation standard requirements within a maximum of 4 years of study period. Evaluation and monitoring of graduation is very important to do, one of which is by studying the history data of students who have graduated as an effort for students to graduate not to exceed the standard time that has been set. The graduation predictions carried out in research use the K-Nearest Neighbor classification rules with the research object being students. The attributes used in the research classification method are name, high school/vocational high school origin, high school/vocational high school origin, average grade in mathematics and length of study. The research phase begins with data collection, attribute selection, data cleaning, data transformation, selection of testing data and training data. The accuracy test obtained in the classification method research with data clusters k = 1, k = 2, k = 3, k = 4, k = 5, k = 6 and k = 7 produces a cluster with the highest k = 3 value. The results of testing the accuracy of research predictions using the confusion matrix produced the greatest accuracy according to the target, reaching 78% using a research object of 93 student data consisting of 78 training and 12 testing data. The test results point k=1 to point k=7, k=3 is the highest prediction accuracy value so that the research results become a source of knowledge for the faculty in predicting student graduation.   Abstrak Lulus tepat waktu adalah pencapaian paripurna ingin dicapai oleh semua mahasiswa atau calon mahasiswa. Kelulusan memiliki 2 klasifikasi seperti lulus tidak tepat waktu dan lulus tepat waktu. Kelulusan menjadi suatu penilaian akreditasi universitas dan penilaian oleh masyarakat secara luas. Perguruan tinggi meluluskan mahasiswa-mahasiwa dengan beberapa kriteria standar yang harus dimiliki. Diharapkan mahasiswa lulus memenuhi syarat standar kelulusan dalam waktu maksimal 4 tahun masa studi. Evaluasi dan pemantauan kelulusan sangat penting dilakukan, salah satunya dengan mempelajari data history mahasiswa yang telah lulus sebagai upaya mahasiswa lulus tidak melebihi waktu standar yang telah ditetapkan. Prediksi kelulusan yang dilakukan pada riset menggunakan kaidah klasifikasi K-Nearest Neighbor dengan objek penelitian yaitu mahasiswa. Atribut yang dipakai dalam penelitian metode klasifikasi yaitu nama, asal SMA/SMK, wilayah asal SMA/SMK, nilai rata-rata matematika dan lama studi. Tahapan penelitian diawali dengan pengumpulan data, pemilihan atribut, pembersihan data, transformasi data, pemilihan data testing dan data training. Pengujian akurasi yang didapatkan pada penelitian metode klasifikasi dengan klaster data k=1, k=2, k=3, k=4, k=5, k=6 dan k=7 menghasilkan klaster dengan nilai k=3 paling tinggi. Hasil pengujian akurasi prediksi penelitian menggunakan confusion matrix menghasilkan akurasi paling besar sesuai target yaitu mencapai 78% menggunakan objek penelitian sebanyak 93 data mahasiswa terdiri dari 78 training dan 12 data testing. Hasil pengujian point k=1 sampai point k=7, k=3 merupakan nilai akurasi prediksi yang paling tinggi sehingga hasil penelitian menjadi sumber pengetahuan untuk fakultas dalam prediksi kelulusan mahasiswa.
Implementasi High Order Intuitionistic Fuzzy Time Series Pada Peramalan Indeks Harga Saham Gabungan Nugraha, Titis Jati; Sulandari, Winita; Slamet, Isnandar; Subanti, Sri; Zukhronah, Etik; Sugianto, Sugianto; Susanto, Irwan
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127363

Abstract

Indeks Harga Saham Gabungan (IHSG) adalah indeks yang mengukur kinerja harga semua saham yang terdaftar di Bursa Efek Indonesia (BEI). Pergerakan IHSG menjadi acuan para investor untuk menetapkan keputusan finansial yang berkaitan dengan untung rugi dalam berinvestasi. Oleh karenanya, informasi peramalan IHSG yang akurat sangat penting bagi para investor. Penelitian ini membahas penerapan metode High Order Intuitionistic Fuzzy Time Series (HOIFTS) dalam peramalan IHSG di BEI. Metode HOIFTS melibatkan tiga indikator, yaitu derajat keanggotaan, derajat non-keanggotaan, dan fungsi skor (indeks intutionistic) sehingga model yang dihasilkan mampu menangani ketidakpastian dalam data. Tahapan penting dalam pemodelan HOIFTS adalah pada intuitionistic fuzzification, penentuan relasi logika fuzzy intutionistic, dan proses intutionistic defuzzification order tinggi. Penelitian ini menetapkan metode Chen, baik order satu maupun order tinggi sebagai metode pembanding untuk melihat seberapa jauh keberhasilan metode HOIFTS dalam meramalkan data bulanan IHSG. Perbandingan nilai RMSE (root mean square error) dan MAPE (mean absolute percentage error) yang dihasilkan oleh model HOIFTS dan dua model benchmark, yaitu Chen order satu dan Chen order tinggi, menunjukkan bahwa metode HOIFTS memiliki nilai kesalahan yang paling kecil yakni nilai RMSE adalah sebesar 57,042 dan MAPE sebesar 0,837% pada data training, sedangkan pada data testing diperoleh nilai RMSE sebesar 38,466 dan MAPE sebesar 0,487%. Dengan demikian, metode HOIFTS lebih direkomendasikan dalam peramalan IHSG dibandingkan dua metode lain yang dibahas dalam penelitian ini.   Abstract The Composite Stock Price Index (CSPI) is an index that measures the price performance of all shares listed on the Indonesia Stock Exchange (ISE). CSPI is a reference for investors to determine financial decisions related to profit and loss in investing. Therefore, accurate CSPI forecasting information is very important for investors.  This research discusses the application of the HOIFTS method in forecasting CSPI on the ISE. The HOIFTS method involves three indicators, namely degree of membership, degree of non-membership, and a score function (intuitionistic index) so that the resulting model is able to handle uncertainty in the data. Important stages in HOIFTS modeling are intuitionistic fuzzification, determination of intuitionistic fuzzy logic relations, and the intuitionistic higher order defuzzification process. This research determines the Chen method, both first order and high order as a comparison method to see how successful the HOIFTS method is in predicting monthly CSPI data. The comparison results of the RMSE (root mean square error) and MAPE (mean absolute percentage error) values ​​produced by the HOIFTS and two benchmark models, i.e., the first order Chen’s and high-order Chen’s, show that the HOIFTS method yields the smallest error value, namely the RMSE value is 57.042 and the MAPE is 0.837% on the training data, whereas in testing data obtained an RMSE value of 38.466 and a MAPE of 0.487%. Thus, the HOIFTS method is more recommended in forecasting CSPI compared to the other two methods discussed in this research.    
Perbandingan Kinerja Metode Arima, Multi-Layer Perceptron, dan Random Forest dalam Peramalan Harga Logam Mulia Berjangka yang Mengandung Pencilan Prasetyo, Teguh; Putri, Rizki Alifah; Ramadhani, Dini; Angraini, Yenni; Notodiputro, Khairil Anwar
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127392

Abstract

Akurasi peramalan sebagai tolok ukur kinerja metode deret waktu bergantung beberapa hal, antara lain karakteristik data, pemilihan metode, fluktuasi data, dan keberadaaan pencilan dalam data. Keberadaan pencilan tersebut sering kali tidak dapat dihindari sehingga dapat mengganggu akurasi peramalan. Mempertimbangkan hal tersebut dalam penelitian ini dibahas tentang perbandingan kinerja metode Autoregressive Integrated Moving Average (ARIMA), Multi-Layer Perceptron (MLP), dan Random Forest (RF) dalam peramalan data deret waktu yang mengandung pencilan, menggunakan studi kasus data harga logam mulia berjangka (emas, perak, dan platina) berdasarkan nilai Mean Absolute Percentage Error (MAPE). Ditunjukkan bahwa kinerja metode ARIMA dengan Interpolasi Linier mampu menekan pengaruh pencilan lebih baik dibanding metode ARIMA dengan Winsorized Mean dan ARIMA tanpa penanganan data pencilan dengan nilai MAPE rata-rata berturut-turut sebesar 10,67% dibanding 12,33% dan 11,79% ketika dievaluasi menggunakan data uji. Metode MLP memiliki kinerja yang tidak lebih baik dibanding ARIMA dengan Interpolasi Linier dengan nilai MAPE rata-rata sebesar 11,13% ketika dievaluasi menggunakan data uji. Secara keseluruhan kinerja terbaik dihasilkan oleh metode RF, dengan nilai MAPE rata-rata jauh lebih kecil dibanding metode lainnya, yakni 2,85% ketika dievaluasi menggunakan data uji. Dalam kajian ini disimpulkan Metode RF memiliki kinerja terbaik dibandingkan semua metode. Hal tersebut disebabkan metode RF menggunakan prinsip decision tree sehingga lebih robust terhadap kehadiran pencilan dalam data. Berdasarkan hasil penelitian, metode RF dapat menjadi opsi untuk pemodelan data deret waktu yang mengandung pencilan.   Abstract   Forecasting accuracy as a benchmark for the performance of time series methods depends on several things, including data characteristics, method selection, data fluctuations, and the existence of outliers in the data. The existence of these outliers is often unavoidable so it can interfere with the accuracy of forecasting. Considering this, this research discusses the comparison of the performance of the Autoregressive Integrated Moving Average (ARIMA), Multi-Layer Perceptron (MLP), and Random Forest (RF) methods in forecasting time series data containing outliers, using a case study of precious metal futures price data (gold, silver, and platinum) based on the Mean Absolute Percentage Error (MAPE) value. It is shown that the performance of the ARIMA method with Linear Interpolation is able to suppress the influence of outliers better than the ARIMA method with Winsorized Mean and ARIMA without handling outlier data with the average MAPE value was obtained respectively at 10.67% compared to 12.33% and 11.79% when evaluated using test data. The MLP method has no better performance than ARIMA with Linear Interpolation with an average MAPE value of 11.13% when evaluated using test data. Overall, the best performance was produced by the RF method, which had a much smaller average MAPE value than the other methods, namely 2.85% when evaluated using test data. In this study it appears that the RF method has the best performance compared to all methods. This is because the RF method is based on decision tree principle so it is more robust to the presence of outliers in the data. Based on the research results, the RF method can be an option for modeling time series data that contains outliers.    
Otomatisasi Pendeteksi Kata Baku Dan Tidak Baku Pada Data Twitter Berbasis KBBI Raif, M. Irfan; Hidayati, Nuraisa Novia; Matulatan, Tekad
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127404

Abstract

Penelitian ini berfokus pada pengembangan sistem deteksi otomatis untuk membedakan kata baku dan tidak baku pada data Twitter, berdasarkan Kamus Besar Bahasa Indonesia (KBBI). Karena Twitter merupakan platform media sosial yang sering menggunakan kata-kata yang tidak baku, penelitian ini penting untuk memastikan komunikasi yang efektif. Melalui normalisasi kata-kata tidak baku, penelitian ini berkontribusi signifikan terhadap pra-pemrosesan dan analisis tweet, yang merupakan langkah penting dalam klasifikasi teks media sosial. Sistem otomatis yang dikembangkan tidak hanya membantu peneliti dengan mudah mengidentifikasi penggunaan kata-kata slang atau tidak baku, namun juga meningkatkan kualitas komunikasi dan pemahaman pesan dalam tweet yang mencerminkan tren bahasa terkini. Pendekatan yang dilakukan dalam penelitian ini meliputi langkah-langkah seperti pengumpulan data, preprocessing, identifikasi bahasa tidak baku, penghapusan kata berimbuhan, identifikasi slang, dan penggunaan metode lexicon-based untuk kamus opini. Pendekatan ini efektif dalam mendukung analisis sentimen pada teks mining dan memastikan hasil klasifikasi sentimen pada data Twitter lebih akurat. Hasil percobaan menunjukkan bahwa langkah preprocessing tersebut berhasil meningkatkan akurasi metode penentuan polarisasi, dengan tingkat akurasi InSet sebesar 66,66% dan F1-score sebesar 61,40%. Abstract This research focuses on developing an automatic detection system to distinguish between standard and nonstandard words in Twitter data, based on the Kamus Besar Bahasa Indonesia (KBBI). As Twitter is a social media platform that often uses nonstandard words, this research is important to ensure effective communication. Through the normalization of nonstandard words, this research contributes significantly to the pre-processing and analysis of tweets, which is an important step in social media text classification. The automated system developed not only helps researchers easily identify the use of slang or nonstandard words, but also improves the quality of communication and message understanding in tweets that reflect current language trends. The approach taken in this research includes steps such as data collection, preprocessing, nonstandard language identification, removal of affixed words, slang identification, and the use of lexicon-based methods for opinion dictionaries. This approach is effective in supporting sentiment analysis in text mining and ensures more accurate sentiment classification results on Twitter data. Experimental results show that these preprocessing steps successfully improve the accuracy of the polarization determination method, with an InSet accuracy rate of 66.66% and F1-score of 61.40%.
PENGEMBANGAN ALGORITMA ECDSA DENGAN MODIFIKASI PERKALIAN SKALAR MENGGUNAKAN DOUBLE BASE CHAIN Kurniawan, Hafiz Abdul Fatah; Neyman, Shelvie Nidya; Wijaya, Sony H
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127446

Abstract

Penelitian ini mengeksplorasi modifikasi parameter perkalian skalar dalam algoritma Elliptic Curve Digital Signature Algorithm (ECDSA) menggunakan metode Double Base Chain (DBC) dalam Era Revolusi 4.0. ECDSA, sebagai algoritma kriptografi asimetris, umum digunakan untuk memberikan integritas dan otentikasi pada data digital. Penelitian ini menilai apakah penggunaan DBC dapat meningkatkan performa ECDSA dalam hal waktu komputasi dan penggunaan memori. Hasil penelitian menunjukkan bahwa meskipun modifikasi ECDSA dengan DBC tidak selalu memberikan performa yang superior. Waktu yang dibutuhkan untuk key generation, signing, dan verification cenderung lebih lama, dan penggunaan memori bervariasi tergantung pada konfigurasi dan parameter tertentu. Faktor-faktor seperti struktur kurva, panjang kurva, parameter kurva, dan implementasi memiliki dampak signifikan terhadap performa. Pengujian avalanche effect menunjukkan variasi dalam keteracakan kunci privat pada berbagai jenis kurva. Meskipun belum optimal, penelitian ini menyoroti potensi peningkatan keamanan dengan fokus pada peningkatan keteracakan private key pada ECDSA. Temuan ini memberikan dasar bagi eksplorasi lebih lanjut dalam pengembangan algoritma kriptografi yang lebih aman dan efisien, dengan mempertimbangkan keseimbangan antara performa dan keamanan. Dalam konteks Era Revolusi 4.0, di mana keamanan informasi menjadi semakin penting, penelitian ini memberikan wawasan berharga untuk pengembangan teknologi keamanan yang lebih baik.   Abstract This study explores the modification of scalar multiplication parameters in the Elliptic Curve Digital Signature Algorithm (ECDSA) using the Double Base Chain (DBC) method in the Era of the Fourth Industrial Revolution (Industry 4.0). ECDSA, as an asymmetric cryptographic algorithm, is commonly used to provide integrity and authentication to digital data. The research evaluates whether the use of DBC can enhance ECDSA performance in terms of computational time and memory usage. The results indicate that, although modifying ECDSA with DBC does not always yield superior performance, the time required for key generation, signing, and verification tends to be longer, and memory usage varies depending on specific configurations and parameters. Factors such as curve structure, curve length, curve parameters, and implementation significantly impact performance. Avalanche effect testing reveals variations in the traceability of private keys across different curve types. Despite not achieving optimal results, the study highlights the potential for improving security by focusing on enhancing the traceability of private keys in ECDSA. These findings provide a foundation for further exploration in the development of more secure and efficient cryptographic algorithms, considering the balance between performance and security. In the context of the Fourth Industrial Revolution, where information security is increasingly crucial, this research offers valuable insights for the advancement of better security technologies.
IMPLEMENTASI THREAT MITIGATION DAN TRAFFIC POLICY MENGGUNAKAN UTM PADA JARINGAN TCP/IP Hidayat, M. Reza; Saragih, Ruben; Basuki, Sofyan; Charisma, Atik; Setiawan, Antrisha Daneraici
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 11 No 2: April 2024
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.20241127528

Abstract

Penelitian bertujuan merancang Unified Threat Management (UTM) berbasis aplikasi open-source yang mampu melakukan Threat Mitigation dan menerapkan manajemen trafik pada jaringan TCP/IP. Metoda Threat Mitigation menggunakan SNORT sebagai Intrusion Prevention System (IPS) untuk melakukan tindakan terhadap ancaman serta melakukan monitoring trafik yang diintegrasikan dengan aplikasi Splunk sebagai Security Information and Event Management (SIEM). Metoda Traffic Policy menggunakan SQUID sebagai Proxy untuk melakukan manajemen trafik. Pengujian perfomansi jaringan dilakukan dengan mengukur parameter Quality of Service (QOS) terlebih dahulu pada setiap perangkat akses untuk melihat performansi jaringan saat terjadi serangan sebelum dan sesudah implementasi UTM. Serangan Distributed Denial of Service (DDOS) berupa Internet Control Message Protocol (ICMP) Flood dan SYN Flood. Setelah melakukan simulasi serangan DDOS selama 5 menit, Threat Mitigation mampu melakukan drop terhadap paket yang berasal dari serangan DDOS sebanyak 232409 paket dengan nilai throughput maksimum 1,823 Mbps, lebih baik dari throughput yang dihasilkan serangan DDOS sebelum implementasi UTM yaitu 869 Mbps. Hasil indeks parameter QOS setiap perangkat akses jaringan memiliki nilai indeks 4, lebih baik dari indeks parameter QOS sebelum implementasi UTM yaitu 2,843. Traffic Policy pada UTM mampu melakukan efisiensi bandwidth sebesar 4,66% atau 943,6645 MB dari total volume cache 20,23 GB, dengan menerapkan web cache untuk akses Hyper Text Transfer Proctocol (HTTP) dan limitasi throughput sebesar 300 KB pada ekstensi file image, audio, video dan executeable berukuran diatas 20 MB.   Abstract This final project aims to design Unified Threat Management (UTM) based on open-source application that capable to mitigate threat and implement traffic management on TCP/IP network. Threat Mitigation method uses SNORT as Intrusion Prevention System (IPS) and integrated with Splunk as Security Information and Event Management (SIEM). Traffic Policy method use SQUID as Proxy to implement traffic management. Network performance testing will be carried out by measuring the QOS parameters on each access device to be able to see network performance when an attack occurs before and after UTM implementation. The Denial Distributed of Service attacks was simulated with Internet Control Message Protocol (ICMP) Flood and SYN Flood. After simulating DDOS attack for 5 minutes, Threat Mitigation was able to drop 232409 packet that originating from DDOS attack with a maximum throughput value 1.823 Mbps, was better before implementation of UTM which is 869 Mbps. The result of the QOS index parameters for each access device has an index value is 4, was better than before implementation of UTM, which is 2.843. Traffic Policy was able to perform bandwidth efficiency of 4.66% or 943.6645 MB from a total cache volume of 20.23 GB, by implementing web cache for Hyper Text Transfer Protocol (HTTP) access and limiting throughput of 300 KB of image, audio, video and executable file size above 20 MB.

Page 1 of 3 | Total Record : 25


Filter by Year

2024 2024


Filter By Issues
All Issue Vol 12 No 4: Agustus 2025 Vol 12 No 3: Juni 2025 Vol 12 No 2: April 2025 Vol 12 No 1: Februari 2025 Vol 11 No 6: Desember 2024 Vol 11 No 4: Agustus 2024 Vol 11 No 3: Juni 2024 Vol 11 No 2: April 2024 Vol 11 No 1: Februari 2024 Vol 10 No 7: Spesial Issue Seminar Nasional Teknologi dan Rekayasa Informasi (SENTRIN) 2023 Vol 10 No 6: Desember 2023 Vol 10 No 5: Oktober 2023 Vol 10 No 4: Agustus 2023 Vol 10 No 3: Juni 2023 Vol 10 No 2: April 2023 Vol 10 No 1: Februari 2023 Vol 9 No 7: Spesial Issue Seminar Nasional Teknologi dan Rekayasa Informasi (SENTRIN) 2022 Vol 9 No 6: Desember 2022 Vol 9 No 5: Oktober 2022 Vol 9 No 4: Agustus 2022 Vol 9 No 3: Juni 2022 Vol 9 No 2: April 2022 Vol 9 No 1: Februari 2022 Vol 8 No 6: Desember 2021 Vol 8 No 5: Oktober 2021 Vol 8 No 4: Agustus 2021 Vol 8 No 3: Juni 2021 Vol 8 No 2: April 2021 Vol 8 No 1: Februari 2021 Vol 7 No 6: Desember 2020 Vol 7 No 5: Oktober 2020 Vol 7 No 4: Agustus 2020 Vol 7 No 3: Juni 2020 Vol 7 No 2: April 2020 Vol 7 No 1: Februari 2020 Vol 6 No 6: Desember 2019 Vol 6 No 5: Oktober 2019 Vol 6 No 4: Agustus 2019 Vol 6 No 3: Juni 2019 Vol 6 No 2: April 2019 Vol 6 No 1: Februari 2019 Vol 5 No 6: Desember 2018 Vol 5 No 5: Oktober 2018 Vol 5 No 4: Agustus 2018 Vol 5 No 3: Juni 2018 Vol 5 No 2: April 2018 Vol 5 No 1: Februari 2018 Vol 4 No 4: Desember 2017 Vol 4 No 3: September 2017 Vol 4 No 2: Juni 2017 Vol 4 No 1: Maret 2017 Vol 3 No 4: Desember 2016 Vol 3 No 3: September 2016 Vol 3 No 2: Juni 2016 Vol 3 No 1: Maret 2016 Vol 2, No 2 (2015) Vol 2 No 2: Oktober 2015 Vol 2, No 1 (2015) Vol 2 No 1: April 2015 Vol 1, No 2 (2014) Vol 1 No 2: Oktober 2014 Vol 1, No 1 (2014) Vol 1 No 1: April 2014 More Issue