cover
Contact Name
-
Contact Email
-
Phone
-
Journal Mail Official
register@ft.unipdu.ac.id
Editorial Address
Kompleks Pondok Pesantren Darul Ulum, Rejoso, Peterongan, Jombang, East Java, Indonesia, 61481
Location
Kab. jombang,
Jawa timur
INDONESIA
Register: Jurnal Ilmiah Teknologi Sistem Informasi
ISSN : 25030477     EISSN : 25023357     DOI : https://doi.org/10.26594/register
Core Subject : Science,
Register: Scientific Journals of Information System Technology is an international, peer-reviewed journal that publishes the latest research results in Information and Communication Technology (ICT). The journal covers a wide range of topics, including Enterprise Systems, Information Systems Management, Data Acquisition and Information Dissemination, Data Engineering and Business Intelligence, and IT Infrastructure and Security. The journal has been indexed on Scopus (reputated international indexed) and accredited with grade “SINTA 1” by the Director Decree (1438/E5/DT.05.00/2024) as a recognition of its excellent quality in management and publication for international indexed journal.
Arjuna Subject : -
Articles 219 Documents
Implementasi metode Simple Multi Attribute Rating Technique untuk penentuan prioritas rehabilitasi dan rekonstruksi pascabencana alam dua, satu
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 4, No 1 (2018): January-June
Publisher : Prodi Sistem Informasi - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (51.402 KB) | DOI: 10.26594/register.v4i1.1411

Abstract

Penanganan bencana alam di Indonesia menjadi hal yang sangat penting untuk segera dilakukan dalam menentukan prioritas rehabilitasi dan rekonstruksi wilayah pascabencana alam. Penentuan prioritas rehabilitasi dan rekonstruksi pascabencana alam dilakukan dengan pendekatan metodologi Sistem Pendukung Keputusan (SPK) untuk membantu menyelesaikan permasalahan dalam proses pengambilan keputusan. Metode Simple Multi Attribute Rating Technique (SMART) akan diterapkan untuk menentukan prioritas wilayah pada rencana aksi rehabilitasi dan rekonstruksi pascabencana alam karena kesederhanaannya pada proses perhitungan dalam pemilihan alternatif yang telah dirumuskan. Tujuan penelitian ini adalah menghasilkan SPK dengan mengimplementasikan metode SMART untuk menentukan prioritas rehabilitasi dan rekonstruksi wilayah pascabencana, sehingga proses penanggulangan bencana akan tepat sasaran dan sesuai dengan peraturan penanggulangan bencana alam. Proses validasi pada penelitian ini adalah dengan membandingkan hasil metode dengan data fakta atau data kejadian (data histori). Koefisien Korelasi Rank Spearman yang diperoleh yaitu 0,95. Hal ini menunjukan bahwa, metode SMART bisa digunakan untuk menentukan prioritas rehabilitasi dan rekonstruksi pascabencana alam. The handling of natural disasters in Indonesia becomes a very important thing to be done in determining the priority of rehabilitation and reconstruction of post-disaster natural areas. The prioritization of post-disaster natural rehabilitation and reconstruction is done by methodology of Decision Support System (DSS) to help solve problems in decision making process. The Simple Multi Attribute Rating Technique (SMART) method will be applied to determine the priority of the region in the post-disaster natural rehabilitation and reconstruction action plan because of its simplicity in the calculation process in the alternative selection that has been formulated. The purpose of this research is to produce SPK by implementing SMART method to determine priority of rehabilitation and reconstruction of post disaster area, so that disaster management process will be appropriate target and in accordance with natural disaster management regulation. The validation process in this research is by comparing the method result with fact data or event data (historical data). Spearman Rank Correlation Coefficient obtained is 0.95. This indicates that the SMART method can be used to determine priorities for post-disaster rehabilitation and reconstruction.
Pengembangan mekanisme grid based clustering untuk peningkatan kinerja LEACH pada lingkungan Wireless Sensor Network Fallo, Kristoforus; Wibisono, Waskitho; Pamungkas, Kun Nursyaful Priyo
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 2 (2019): July-December
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1316.216 KB) | DOI: 10.26594/register.v5i2.1708

Abstract

Development of a grid-based clustering mechanism to improve LEACH performance in the Wireless Sensor Network environmentLow Energy Adaptive Clustering Hierarchy (LEACH) merupakan algoritma routing pada Wireless Sensor Network (WSN) berbasis cluster. LEACH memilih sebuah node sebagai cluster head (CH) yang tugasnya untuk melakukan komunikasi dengan sink maupun guna mengumpulkan data dari member node. Persebaran CH pada LEACH yang dikatakan acak, kadang mengalami masalah mengingat rumus probabilitas pada tiap round. Hal ini akan menyebabkan CH yang terpilih bisa berada di tepi area, juga terjadinya pemborosan energi karena jalur yang terbentuk akan menjadi panjang. Oleh karena itu, kami ingin mengembangkan routing protocol G-LEACH menggunakan teknik merge CH dalam suatu area (grid) disertai beberapa parameter yang relevan, seperti posisi node, node dengan sisa energi terbesar, dan jarak yang dihitung dalam tiga jarak yaitu jarak node menuju cluster center, jarak node menuju merge CH, dan jarak merge CH menuju sink. Hasil pengujian menunjukan bahwa dengan menggabungkan cluster (merge CH) pada transmisi data menuju sink pada protokol G-LEACH dapat menghasilkan masa hidup jaringan yang lebih lama pada seluruh operasi node, energi yang dibutuhkan pada semua node lebih rendah, dan lebih banyak paket data yang dikirim dan diterima oleh sink. Low Energy Adaptive Clustering Hierarchy (LEACH) is a routing algorithm in a cluster-based Wireless Sensor Network (WSN). LEACH selects a node as a cluster head (CH) whose responsibility is for communicating with sinks and collect data from the node members. The distribution of CH on LEACH, which is basically random, sometimes has a problem in remembering the probability formula on each round. This may make the selected CH on the edge of the area as well as generate energy waste because the pathway formed will be lengthy. Therefore, we would like to develop the G-LEACH routing protocol using a merge CH technique in one area (grid) with several relevant parameters, such as the position of the node, the node with the largest remaining energy, and the distance calculated in three distances: the distance of the node to the clustercenter, the distance of the node to the merge CH, and the distance of the merge CH to the sink. The test result showed that combining clusters (merge CH) in the data transmission to the sink in the G-LEACH protocol could produce a longer network life on all node operations, lower energy required for all nodes, and more data package sent and received by the sink.
Penerapan materi ilmu pengetahuan alam pada serious game sosialisasi mitigasi bencana berbasis model teori aktivitas dan taksonomi bloom Nugroho, Fresy; Yuniarno, Eko Mulyanto; Hariadi, Mochamad
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 2 (2019): July-December
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1527.549 KB) | DOI: 10.26594/register.v5i2.1479

Abstract

Penelitian ini merupakan kombinasi antara materi hiburan dan pendidikan untuk meningkatkan pemahaman tentang bencana alam, terutama bencana vulkanik. Desain yang diusulkan menggabungkan model Teori Aktivitas dan Taksonomi Bloom. Metode ini dapat menghemat biaya dan waktu. Titik fokus dari penelitian ini adalah materi Ilmu Pengetahuan Alam berdasarkan kurikulum 2013. Penelitian ini adalah langkah pertama untuk mengintegrasikan unsur-unsur pendidikan, hiburan, dan teknologi sebagai media pembelajaran untuk pengurangan risiko bencana. Kemampuan siswa dieksplorasi dengan menerapkan tiga aspek pembelajaran. Hasil tes menunjukkan bahwa kemampuan siswa meningkat 14,2% setelah bermain sepuluh kali dan meningkat menjadi 29,48% setelah siswa bermain 25 kali, dibandingkan dengan skor pretest.  This research is a combination of entertainment and education material to improve an understanding of natural disasters, especially volcanic eruptions. The proposed design combines Bloom's Taxonomy and Activity Theory models. The method reduces cost and time. The focal point of the research is the natural sciences material based on the 2013 curriculum. This research is the first step to integrate the elements of education, entertainment, and technology as a learning media for disaster risk reduction ? students' abilities explored by applying three aspects of learning. The test results show that students' abilities are increased by 14.2% after play for ten times and increased to 29.48% after playing for 25 times, compared to the pretest scores.
Deteksi Bot Spammer Twitter Berbasis Time Interval Entropy dan Global Vectors for Word Representations Tweet’s Hashtag Priyatno, Arif Mudi; Muttaqi, Muhammad Mirza; Syuhada, Fahmi; Arifin, Agus Zainal
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 1 (2019): January-June
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1346.279 KB) | DOI: 10.26594/register.v5i1.1382

Abstract

Bot spammer merupakan penyalahgunaan user dalam menggunakan Twitter untuk menyebarkan pesan spam sesuai dengan keinginan user. Tujuan spam mencapai trending topik yang ingin dibuatnya. Penelitian ini mengusulkan deteksi bot spammer pada Twitter berbasis Time Interval Entropy dan global vectors for word representations (Glove). Time Interval Entropy digunakan untuk mengklasifikasi akun bot berdasarkan deret waktu pembuatan tweet. Glove digunakan untuk melihat co-occurrence kata tweet yang disertai Hashtag untuk proses klasifikasi menggunakan Convolutional Neural Network (CNN). Penelitian ini menggunakan data API Twitter dari 18 akun bot dan 14 akun legitimasi dengan 1.000 tweet per akunnya. Hasil terbaik recall, precision, dan f-measure yang didapatkan yaitu 100%; 100%, dan 100%. Hal ini membuktikan bahwa Glove dan Time Interval Entropy sukses mendeteksi bot spammer dengan sangat baik. Hashtag memiliki pengaruh untuk meningkatkan deteksi bot spammer.  Spam spammers are users' misuse of using Twitter to spread spam messages in accordance with user wishes. The purpose of spam is to reach the required trending topic. This study proposes detection of bot spammers on Twitter based on Time Interval Entropy and global vectors for word representations (Glove). Time Interval Entropy is used to classify bot accounts based on the tweet's time series, while glove views the co-occurrence of tweet words with Hashtags for classification processes using the Convolutional Neural Network (CNN). This study uses Twitter API data from 18 bot accounts and 14 legitimacy accounts with 1000 tweets per account. The best results of recall, precision, and f-measure were 100%respectively. This proves that Glove and Time Interval Entropy successfully detects spams, with Hash tags able to increase the detection of bot spammers.
Clickbait detection: A literature review of the methods used Zuhroh, Nurrida Aini; Rakhmawati, Nur Aini
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 6, No 1 (2020): January-June (Articles in press 2/7)
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (2365.657 KB) | DOI: 10.26594/register.v6i1.1561

Abstract

Online news portals are currently one of the fastest sources of information used by people. Its impact is due to the credibility of the news produced by actors from the media industry, which is sometimes questioned. However, one of the problems associated with this medium used to obtain information is clickbait. This technique aims to attract users to click hyperbolic headlines with content that often disappoints the reader. This study was, therefore, conducted to determine: 1) existing dataset available. 2) The method used in clickbait detection which consists of data preprocessing, analysis of features, and classification. 3) Difference steps from the method used.
Parsing struktur semantik soal cerita matematika berbahasa indonesia menggunakan recursive neural network Prasetya, Agung; Fatichah, Chastine; Yuhana, Umi Laili
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 2 (2019): July-December
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1408.864 KB) | DOI: 10.26594/register.v5i2.1537

Abstract

Soal cerita berperan penting untuk kemajuan pengembangan kecerdasan buatan. Hal ini karena penyelesaian soal cerita melibatkan pengembangan sebuah sistem yang mampu memahami bahasa alami. Pembentukan sistem penyelesaian soal memerlukan mekanisme untuk mendekomposisikan teks soal ke segmen-segmen teks untuk diterjemahkan ke jenis operasi hitung. Segmen-segmen tersebut ditentukan melalui proses parsing semantik struktur soal agar menghasilkan segmen-segmen yang maknanya menunjuk operasi hitung. Sejumlah metode usulan saat ini sesuai untuk diterapkan pada soal cerita berbahasa Inggris dan belum diterapkan pada soal cerita berbahasa Indonesia. Dampaknya adalah segmen-segmen yang dihasilkan belum tentu menghasilkan urutan pengerjaan operasi yang sesuai makna cerita. Penelitian ini mengusulkan penggunaaan Recursive Neural Network (RNN) sebagai parser struktur semantik soal cerita berbahasa Indonesia. Pengujian parser struktur semantik soal dilakukan terhadap soal-soal yang berasal dari Buku Sekolah Elektronik (BSE) Sekolah Dasar (SD) dari Pusat Perbukuan Kementerian Pendidikan dan Kebudayaan. Hasil pengujian menunjukkan akurasi akhir sebesar 86,4%.  Math word problems play an important role for the development of artificial intelligent. This is because solving word problems involves the development of a system that can understand natural language.  Designing a system for solving math word problems requires a mechanism for decomposing a text into segments of text to be translated into math operation. The segments are categorized through the process of parsing the semantic structure of the word problems to obtain segments whose meanings refer to math operation. A number of current proposed methods are suitable to be applied to English math word problems and have never been applied to Indonesian math word problems. The impact is that the segments produced are not necessarily in line with the sequences of operations appropriate with the meaning of the story.  This study proposed the use of Recursive Neural Network (RNN) as a parser of semantic structure of Indonesian math word problems. The testing of the parser was carried out on the math word problems taken from the Elementary School?s Electronic School Book  (BSE) published by the Book Center of the Ministry of Education and Culture. The result of the testing showed that the final accuracy was 86.4%.
Query Expansion menggunakan Word Embedding dan Pseudo Relevance Feedback Tanuwijaya, Evan; Adam, Safri; Anggris, Mohammad Fatoni; Arifin, Agus Zainal
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 1 (2019): January-June
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1248.276 KB) | DOI: 10.26594/register.v5i1.1385

Abstract

Kata kunci merupakan hal terpenting dalam mencari sebuah informasi. Penggunaan kata kunci yang tepat menghasilkan informasi yang relevan. Saat penggunaannya sebagai query, pengguna menggunakan bahasa yang alami, sehingga terdapat kata di luar dokumen jawaban yang telah disiapkan oleh sistem. Sistem tidak dapat memproses bahasa alami secara langsung yang dimasukkan oleh pengguna, sehingga diperlukan proses untuk mengolah kata-kata tersebut dengan mengekspansi setiap kata yang dimasukkan pengguna yang dikenal dengan Query Expansion (QE). Metode QE pada penelitian ini menggunakan Word Embedding karena hasil dari Word Embedding dapat memberikan kata-kata yang sering muncul bersama dengan kata-kata dalam query. Hasil dari word embedding dipakai sebagai masukan pada pseudo relevance feedback untuk diperkaya berdasarkan dokumen jawaban yang telah ada. Metode QE diterapkan dan diuji coba pada aplikasi chatbot. Hasil dari uji coba metode QE yang diterapkan pada chatbot didapatkan nilai recall, precision, dan F-measure masing-masing 100%; 70% dan 82,35 %. Hasil tersebut meningkat 1,49% daripada chatbot tanpa menggunakan QE yang pernah dilakukan sebelumnya yang hanya meraih akurasi sebesar 68,51%. Berdasarkan hasil pengukuran tersebut, QE menggunakan word embedding dan pseudo relevance feedback pada chatbot dapat mengatasi query masukan dari pengguna yang ambigu dan alami, sehingga dapat memberikan jawaban yang relevan kepada pengguna.  Keywords are the most important words and phrases used to obtain relevant information on content. Although users make use of natural languages, keywords are processed as queries by the system due to its inability to process. The language directly entered by the user is known as query expansion (QE). The proposed QE in this research uses word embedding owing to its ability to provide words that often appear along with those in the query. The results are used as inputs to the pseudo relevance feedback to be enriched based on the existing documents. This method is also applied to the chatbot application and precision, and F-measure values of the results obtained were 100%, 70%, 82.35% respectively. The results are 1.49% better than chatbot without using QE with 68.51% accuracy. Based on the results of these measurements, QE using word embedding and pseudo which gave relevance feedback in chatbots can resolve ambiguous and natural user?s input queries thereby enabling the system retrieve relevant answers.
Kombinasi Synthetic Minority Oversampling Technique (SMOTE) dan Neural Network Backpropagation untuk menangani data tidak seimbang pada prediksi pemakaian alat kontrasepsi implan Mustaqim, Mustaqim; Warsito, Budi; Surarso, Bayu
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 2 (2019): July-December
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1531.069 KB) | DOI: 10.26594/register.v5i2.1705

Abstract

Combination of Synthetic Minority Oversampling Technique (SMOTE) and Backpropagation Neural Network to handle imbalanced class in predicting the use of contraceptive implants  Kegagalan akibat pemakaian alat kontrasepsi implan merupakan terjadinya kehamilan pada wanita saat menggunakan alat kontrasepsi secara benar. Kegagalan pemakaian kontrasepsi implan tahun 2018 secara nasional sejumlah 1.852 pengguna atau 4% dari 41.947 pengguna. Rasio angka kegagalan dan keberhasilan pemakaian kontrasepsi implan yang cenderung tidak seimbang (imbalance class) membuatnya sulit diprediksi. Ketidakseimbangan data terjadi jika jumlah data suatu kelas lebih banyak dari data lain. Kelas mayor merupakan jumlah data yang lebih banyak, sedangkan kelas minor jumlahnya lebih sedikit. Algoritma klasifikasi akan mengalami penurunan performa jika menghadapi kelas yang tidak seimbang. Synthetic Minority Oversampling Technique (SMOTE) digunakan untuk menyeimbangkan data kegagalan pemakaian kontrasepsi implan. SMOTE menghasilkan akurasi yang baik dan efektif daripada metode oversampling lainnya dalam menangani imbalance class karena mengurangi overfitting. Data yang sudah seimbang kemudian diprediksi dengan Neural Network Backpropagation. Sistem prediksi ini digunakan untuk mendeteksi apakah seorang wanita mengalami kehamilan atau tidak jika menggunakan kontrasepsi implan. Penelitian ini menggunakan 300 data, terdiri dari 285 data mayor (tidak hamil) dan 15 data minor (hamil). Dari 300 data dibagi menjadi dua bagian, 270 data latih dan 30 data uji. Dari 270 data latih, terdapat 13 data latih minor dan 257 data latih mayor. Data latih minor pada data latih diduplikasi sebanyak data pada kelas mayor sehingga jumlah data latih menjadi 514, terdiri dari 257 data mayor, 13 data minor asli, dan 244 data minor buatan. Sistem prediksi menghasilkan nilai akurasi sebesar 96,1% pada epoch ke-500 dan 1.000. Implementasi kombinasi SMOTE dan Neural Network Backpropagation terbukti mampu memprediksi pada imbalance class dengan hasil prediksi yang baik.  The failed contraceptive implant is one of the sources of unintended pregnancy in women. The number of users experiencing contraceptive-implant failure in 2018 was 1,852 nationally or 4% out of 41,947 users. The ratio between failure and success rates of contraceptive implant, which tended to be unbalanced (imbalance class), made it difficult to predict. Imbalance class will occur if the amount of data in one class is bigger than that in other classes. Major classes represent a bigger amount of data, while minor classes are smaller ones. The imbalance class will decrease the performance of the classification algorithm. The Synthetic Minority Oversampling Technique (SMOTE) was used to balance the data of the contraceptive implant failures. SMOTE resulted in better and more effective accuracy than other oversampling methods in handling the imbalance class because it reduced overfitting. The balanced data were then predicted using backpropagation neural networks. The prediction system was used to detect if a woman using a contraceptive implant was pregnant or not. This study used 300 data, consisting of 285 major data (not pregnant) and 15 minor data (pregnant). Of 300 data, two groups of data were formed: 270 training data and 30 testing data. Of 270 training data, 13 were minor training data and 257 were major training data. The minor training data in the training data were duplicated as much as the number of data in major classes so that the total training data became 514, consisting of 257 major data, 13 original minor data, and 244 artificial minor data. The prediction system resulted in an accuracy of 96.1% on the 500th and 1,000th epochs. The combination of SMOTE and Backpropagation Neural Network was proven to be able to make a good prediction result in imbalance class.
Ambiguitas Machine Translation pada Cross Language Chatbot Bea Cukai Al Haromainy, Muhammad Muharrom; Setyawan, Dimas Ari; Waluya, Onny Kartika; Arifin, Agus Zainal
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 1 (2019): January-June
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1284.702 KB) | DOI: 10.26594/register.v5i1.1387

Abstract

Sistem Information Retrieval (IR) maupun chatbot semakin banyak dikembangkan. Salah satu bagian yang banyak diteliti adalah cross language. Masalah pada pengembangan cross language yaitu terjadinya kesalahan pada hasil terjemahan mesin translasi yang memberikan arti tidak sesuai dengan bahasa natural, sehingga pengguna tidak mendapatkan jawaban yang semestinya, bahkan tidak jarang pula pengguna tidak menemukan jawaban. Penelitian ini mengusulkan skema baru mesin translasi yang bertujuan meningkatkan performa dalam masalah ambiguitas. Mesin translasi bekerja dengan cek kebenaran kata kunci, kemudian melakukan Part-of-Speech (POS) Tagging pada kata benda (noun). Kemudian, setiap kata benda yang terdeteksi akan dicari sinonimnya. Lalu, sinonim yang didapatkan akan ditambahkan dan menjadi alternatif kueri baru. Kueri yang mempunyai nilai confident tertinggi diasumsikan sebagai kueri yang paling sesuai. Pada hasil yang didapatkan setelah dilakukan uji coba, melalui penambahan metode yang kami usulkan pada machine translation, dapat meningkatkan akurasi chatbot dibandingkan tanpa menggunakan skema yang diusulkan. Hasil akurasi bertambah 5%, dari yang semula 73% menjadi 77%.  Information retrieval and chatbot systems are increasingly being developed with its language part mostly studied. However, the problem associated with its development is the occurrence of errors in the translation machine resulting in inaccurate answers not in accordance with the natural language, thereby providing users with wrong answers. This study proposes a new translation machine scheme that aims to improve performance while translating ambiguous terms. Translation machines functions by checking the correctness of keywords, and carrying out Part-of-Speech (POS) Tagging on nouns (noun). The synonyms of any detected noun are searched for and obtained added to become alternative new queries. Those with the highest confident value are assumed to be the most appropriate. The results obtained after testing, through the addition of the method proposed in machine translation, can improve the accuracy of the chatbot compared to not using the proposed scheme. The results of the accuracy increased from the original 73% to 77%.
Manajemen jpeg/exif file fingerprint dengan algoritma Brute Force string matching dan Hash Function SHA256 Fitriyanto, Rachmad; Yudhana, Anton; Sunardi, Sunardi
Register: Jurnal Ilmiah Teknologi Sistem Informasi Vol 5, No 2 (2019): July-December
Publisher : Information Systems - Universitas Pesantren Tinggi Darul Ulum

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (2069.12 KB) | DOI: 10.26594/register.v5i2.1707

Abstract

Management of jpeg/exif file fingerprint with Brute Force string matching algorithm and Hash Function SHA256Metode pengamanan berkas gambar jpeg/exif saat ini hanya mencakup aspek pencegahan, belum pada aspek deteksi integritas data. Digital Signature Algorithm (DSA) adalah metode kriptografi yang digunakan untuk memverifikasi integritas data menggunakan hash value. SHA256 merupakan hash function yang menghasilkan 256-bit hash value yang berfungsi sebagai file fingerprint. Penelitian ini bertujuan untuk menyusun file fingerprint dari berkas jpeg/exif menggunakan SHA256 dan algoritma Brute Force string matching untuk verifikasi integritas berkas jpeg/exif. Penelitian dilakukan dalam lima tahap. Tahap pertama adalah identifikasi struktur berkas jpeg/exif. Tahap kedua adalah akuisisi konten segmen. Tahap ketiga penghitungan hash value. Tahap keempat adalah eksperimen modifikasi berkas jpeg/exif. Tahap kelima adalah pemilihan elemen dan penyusunan file fingerprint. Hasil penelitian menunjukkan sebuah jpeg/exif file fingerprint tersusun atas tiga hash value. SOI (Start of Image) segment hash value digunakan untuk mendeteksi terjadinya modifikasi berkas dalam bentuk perubahan tipe berkas dan penambahan objek pada konten gambar. Hash value segmen APP1 digunakan untuk mendeteksi modifikasi pada metadata berkas. Hash value segmen SOF0 digunakan untuk mendeteksi gambar yang dimodifikasi dengan teknik recoloring, resizing, dan cropping. The method of securing jpeg/exif image files currently has covered only the prevention aspect instead of the data integrity detection aspect. Digital Signature Algorithm is a cryptographic method used to verify the data integrity using hash value. SHA256 is a hash function that produces a 256-bit hash value functioning as a fingerprint file. This study aimed at compiling fingerprint files from jpeg/exif files using SHA256 and Brute Force string matching algorithm to verify the integrity of jpeg/exif files. The research was conducted in five steps. The first step was identifying the jpeg/exif file structure. The second step was the acquisition of the segment content. The third step was calculating the hash value. The fourth step was the jpeg/exif file modification experiment. The fifth step was the selection of elements and compilation of fingerprint files. The obtained results showed a jpeg/exif fingerprint file which was compiled in three hash values. The hash value of SOI segment was used to detect the occurrence of file modification in the form of file type changing and object addition on the image content. The hash value of APP1 segment was used to detect the metadata file modification. The hash value of SOF0 segment was used to detect the images modified by recoloring, resizing, and cropping techniques.

Page 6 of 22 | Total Record : 219