Claim Missing Document
Check
Articles

Analisa Alokasi Memori dan Kecepatan Kriptograpi Simetris Dalam Enkripsi dan Dekripsi Perangin-angin, Resianta; Jaya, Indra Kelana; Rumahorbo, Benget; Marpaung, Berlian Juni R
Journal Information System Development (ISD) Vol 4, No 1 (2019): Journal Information System Development (ISD)
Publisher : UNIVERSITAS PELITA HARAPAN

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (601.236 KB)

Abstract

Currently the focus of cryptography is on the security and speed of data transmission. Cryptography is the study of how to secure information. This security is done by encrypting the information with a special key. This information before being encrypted is called plaintext. After being encrypted with a key called ciphertext. At present, AES (Advanced Encryption Standard) is a cryptographic algorithm that is safe enough to protect confidential data or information. In 2001, AES was used as the latest cryptographic algorithm standard published by NIST (National Institute of Standard and Technology) in lieu of the DES (Data Encryption Standard) algorithm that has expired. The AES algorithm is a cryptographic algorithm that can encrypt and decrypt data with varying key lengths, namely 128 bits, 192 bits, and 256 bits. From the results of tests carried out for speed and classification memory, it can be concluded that the AES cryptographic algorithm is superior or faster if the size or size of the plaint text is not so large, because for the smaller AES algorithm the speed ratio in terms of encryption will become more fast, it becomes very different for the Blowfish algorithm itself where for large sizes plaint text can be encrypted faster than AES but for smaller sizes Blowfish is certainly slower in that case, for memory allocation in this case from the tests performed it can be concluded that AES requires more storage space or larger memory allocation compared to the blowfish algorithm
Analisa Perbandingan Rasio Kecepatan Kompresi Algoritma Dynamic Markov Compression Dan Huffman Jaya, Indra Kelana; Perangin-angin, Resianta
Sinkron : jurnal dan penelitian teknik informatika Vol. 2 No. 2 (2018): SinkrOn Volume 2 Nomor 2 April 2018
Publisher : Politeknik Ganesha Medan

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (827.074 KB)

Abstract

Kompresi menjadi penting dikarenakan penyimpanan ruang yang terbatas, oleh karena itu kompresi merupakan satu-satu nya cara untuk meminimalisir percepatan overload size data, dalam penelitian ini dilakukan sebuah ujicoba menggunakan algoritm DMC dan Huffman dalam hal kompresi file, dimana dari 15 iterasi yang dilakukan didapat bahwasanya algoritma DMC untuk setiap iterasi yang dilakukan rata-rata mengkompres diatas 50% dari kapasistas aslinya sedangkan algoritma Huffman diatas 76% untuk hasil kompresi dari setiap file yang di ujikan, sedangkan untuk kecepatan sendiri ini berbanding lurus dengan besarnya file yang telah di kompresi untuk algoritma DMC sendiri apa bila file yang dikompresi masih dalam kapasistas kecil maka algoritma ini akan lebih cepat dibandingkan dengan algoritma Huffman, namun menjadi menarik dikarenakan apabila kompresi file menggunkan size yang cukup besar maka kecepatan kompresi menjadi lebih baik metode Huffman. Rasio ukuran file yang diperoleh dengan algoritma Huffman cukup tinggi berkisar minimal 76% Jadi dapat dikatakan dengan rasio kompresi ini algoritma Huffman sudah dikatakan baik dalam hal mengkompresi file khususnya file .Tingkat kompresi dipengaruhi oleh banyaknya nada yang sama dalam file .Kecepatan proses tidak bergantung pada data yang diproses tetapi berbanding lurus dengan ukuran file , artinya semakin besar ukuran file yang diproses maka semakin lama waktu prosesnya.Proses dekompresi lebih cepat dilakukan dibandingkan dengan proses kompresi karena pada proses dekompresi tidak dilakukan lagi proses pembentukan pohon Huffman dari data melainkan hanya langsung membaca dari tabel code pohon Huffman yang disimpan pada file sewaktu proses kompresi. Kata kunci : huffman, dmc, kompresi, perbandingan, analisa
Hibridisasi Metode Fuzzy K-Nearest Neighbor dengan Metode Modified Particle Swarm Optimization Pada Pengklasifikasian Penyakit Tanaman Kedelai Siringoringo, Rimbun; Perangin-angin, Resianta
Sinkron : jurnal dan penelitian teknik informatika Vol. 2 No. 1 (2017): SinkrOn Volume 2 Nomor 1 Oktober 2017
Publisher : Politeknik Ganesha Medan

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (377.738 KB)

Abstract

Fuzzy k-Nearest Neighbor (Fk-NN) merupakan salah satu metode klasifikasi yang powerfull. Kehadiran konsep fuzzy pada metode ini berhasil meningkatkan kinerjanya pada hampir semua masalah klasifikasi. Kelemahan utama FkNN adalah sulitnya menentukan parameter-parameternya. Parameter tersebut adalah jumlah tetangga (k) dan kekuatan fuzzy (m). Kedua parameter tersebut sangat sensitif. Hal tersebut menyulitkan penentuan nilai m dan k, sehingga mengakibatkan Fk-NN sulit dikontrol karena tidak ada teori-teori atau panduan yang dapat menyimpulkan berapa seharusnya nilai m dan k yang tepat. Penelitian ini menghadirkan Particle Swarm Optimization (PSO) untuk menentukan nilai k dan m yang terbaik. Model yang diusulkan pada penelitian ini diuji pada Dataset Soybean. Data uji tersebut telah distandardisasi oleh UCI Machine Learning Repository yang banyak diterapan pada masalah klasifikasi. Penerapan MPSO pada penentuan parameter-parameter Fk-NN diharapkan mampu meningkatkan nilai performa klasifikasi. Berdasarkan eksperimen yang telah dilakukan mengindikasikan bahwa model yang ditawarkan pada penelitan ini menghasilkan performa klasifikasi yang lebih baik dibandingkan dengan model Fk-NN saja. Pada bagian akhir dilakukan perbandingan superioritas model penelitian dengan model klasifikasi yang lain seperti IBK dan Decision Tree. Model penelitian ini memiliki tingkat performa yang lebih baik.
Penerapan Algoritma Safe-Level-SMOTE Untuk Peningkatan Nilai G-Mean Dalam Klasifikasi Data Tidak Seimbang Perangin-angin, Resianta
Journal Information System Development (ISD) Vol 5, No 2 (2020): Journal Information System Development (ISD)
Publisher : UNIVERSITAS PELITA HARAPAN

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (420.836 KB)

Abstract

Klasifikasi data yang tidak seimbang merupakan masalah yang krusial pada bidang machine learning dan data mining. Ketidakseimbangan data memberikan dampak yang buruk pada hasil klasifikasi dimana kelas minoritas sering disalah klasifikasikan sebagai kelas mayoritas. Dimana kelompok kelas minoritas (minority) adalah kelompok kelas yang memiliki data lebih sedikit, dan kelompok kelas mayoritas (mayority) adalah kelompok kelas yang memilik jumlah data lebih banyak. Data tidak seimbang adalah suatu kondisi dimana jumlah contoh dari salah satu kelas jauh lebih banyak dari kelas yang lain. Alasan buruknya kinerja metode klasifikasi biasa yang digunakan pada data tidak seimbang adalah bahwa tujuan metode klasifikasi dalam meminimumkan galat secara keseluruhan tidak dapat tercapai karena kelas minoritas hanya sedikit memberikan kontribusi, selain itu keputusan akhir yang dihasilkan tidak tepat karena terjadinya bias. Hal ini disebabkan oleh salah satu kelas mendominasi dalam hal jumlah. Dalam penelitian ini akan berfokus pada peningkatan nilai G-Mean dari dataset yang digunakan, dengan menerapkan algoritma Safe-Level-SMOTE. Dari hasil ujicoba yang dilakukan terhadap dua dataset yakni Abalon dan Vowel, untuk skema Smote + k-NN nilai G-Mean yang didapat yakni 0,47 untuk dataset Abalon dan 0.94 untuk dataset Vowel. Seletah dilakukan ujicoba terhadap dataset yang sama menggunakan skema Safe-Level-Smote menggunakan algoritma klasifikasi k-NN didapat hasil G-Mean 0,59  untuk dataset Abalon dan 1.00 Untuk dataset Vowel, rerata dari kenaikan nilai G-Mean terhadap algoritma SMOTE sebesar 12,68%. Hal ini membuktikan bahwasanya algoritma Safe-Level-Smote dapat meningkatkan nilai G-Mean pada klasifikasi data tidak seimbang menggunakan algoritma klasifikasi k-Nearst Neighbors.
OPTIMASI KETAHANAN WATERMARKING AUDIO DIGITAL MENGGUNAKAN ALGORITMA RSA DAN MSB Rumahorbo, Benget; Perangin-angin, Resianta
METHODIKA: Jurnal Teknik Informatika dan Sistem Informasi Vol. 7 No. 1 (2021): Maret 2021
Publisher : Universitas Methodist Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.46880/mtk.v7i1.409

Abstract

Copyright is a serious problem in the digital world, the process of sending and distributing digital media is so easy nowadays, copyright in the digital world is very detrimental to those who feel that their digital rights are copied and pasted or taken without the consent of the creator. Therefore we need a way where when a digital file can be identified as original as a product, one of the right ways is to use a watermark technique. But often this watermark process can be lost or cannot be extracted because the digital file has gone through a compression process, duplicate, or something else. So in this study, it will be tried to increase the durability of a watermark in digital audio as a solution for identifying copyrighted digital works. Where the watermark process will use the RSA and MSB algorithms to enter information into a digital audio file, later this information can be extracted to view copyright ownership information from the digital audio. And it is hoped that this watermarking is resistant to various digital audio processes such as compression, duplication, and editing carried out on the file. the information that is inserted into is maintained without compromising the quality of the digital audio.
PENINGKATAN PERFORMA ALGORITMAK-NEAREST NEIGBORD DALAM KELASIFIKASI DATA TIDAK SEIMBANG MENGGUNAKAN METODE SPIDER-2 Perangin-angin, Resianta; Simanullang, Sanco; Manalu, Darwis Robinson
METHODIKA: Jurnal Teknik Informatika dan Sistem Informasi Vol. 6 No. 2 (2020): September 2020
Publisher : Universitas Methodist Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.46880/mtk.v6i2.426

Abstract

Class imbalance has become an ongoing problem in the field of Machine Learning and Classification. The group of data classes that are less known as the minority group, the other data class group is called the majority group (majority). In essence real data, data that is mined directly from the database is unbalanced. This condition makes it difficult for the classification method to perform generalization functions in the machine learning process. Almost all classification algorithms such as Naive Bayes, Decision Tree, K-Nearest Neighbor and others show very poor performance when working on data with highly unbalanced classes. The classification methods mentioned above are not equipped with the ability to deal with class imbalance problems. Many data processing methods are often used in cases of data imbalance, in this case research will be carried out using the Spider2 method. In this study, the Ecoli dataset was used, while for this study, 5 (five) different Ecoli datasets were used for each dataset for the level of data imbalance. After testing datasets with different levels of Inbalancing Ratio (IR), starting from the smallest 1.86 to 15.80, the results that explain that the KNN algorithm can improve its performance even better in terms of unbalanced data classification by adding the SPIDER- method 2 as a tool in dataset processing. In the 5 trials, the performance of the KNN algorithm can increase GM by 5.81% and FM 14.47% by adding the SPIDER-2 method to KNN.
MODEL HIBRID GENETIC-XGBOOST DAN PRINCIPAL COMPONENT ANALYSIS PADA SEGMENTASI DAN PERAMALAN PASAR Siringoringo, Rimbun; Perangin-angin, Resianta; Jamaluddin, Jamaluddin
METHOMIKA: Jurnal Manajemen Informatika & Komputerisasi Akuntansi Vol. 5 No. 2 (2021): METHOMIKA: Jurnal Manajemen Informatika & Komputersisasi Akuntansi
Publisher : Universitas Methodist Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (533.828 KB) | DOI: 10.46880/jmika.Vol5No2.pp97-103

Abstract

Extreme Gradient Boosting(XGBoost) is a popular boosting algorithm based on decision trees. XGBoost is the best in the boosting group. XGBoost has excellent convergence. On the other hand, XGBoost is a Hyper parameterized model. Determining the value of each parameter is classified as difficult, resulting in the results obtained being trapped in the local optimum situation. Determining the value of each parameter manually, of course, takes a lot of time. In this study, a Genetic Algorithm (GA) is applied to find the optimal value of the XGBoost hyperparameter on the market segmentation problem. The evaluation of the model is based on the ROC curve. Test result. The ROC test results for several SVM, Logistic Regression, and Genetic-XGBoost models are 0.89; 0.98; 0.99. The results show that the Genetic-XGBoost model can be applied to market segmentation and forecasting.
ENSEMBLE LEARNING DAN ANALISIS SENTIMEN PADA DATA ULASAN PRODUK Rimbun Siringoringo; Resianta Perangin Angin; Mufria J. Purba
Jurnal Informatika Kaputama (JIK) Vol 3, No 2 (2019): VOLUME 3 NOMOR 2, EDISI JULI 2019
Publisher : STMIK KAPUTAMA

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.1234/jik.v3i2.161

Abstract

The majority of internet users are currently searching the internet before buying certain products. One consideration of prospective buyers is product reviews (product review). Prospective consumers can decide to buy a product because it is influenced by reviews with positive sentiments, or decide not to buy a particular product because it is influenced by a negative sentiment review. Product reviews are a way of delivering consumer opinions and sentiments to a product online. In essence, the product review data mined directly from the database is unbalanced, between positive sentiment and negative sentiment. This condition makes it difficult for machine learning algorithms to perform classification and clustering functions. In this study, sentiment analysis was conducted based on Trendy Shoes products from Denim Shoes. The stages of sentiment analysis consist of data collection, initial processing, data transformation, feature selection and classification stages using SMOTEBoost. Initial processing applies the stages of text mining namely case folding, non alpha numeric removal, stop words removal, and stemming. The results of sentiment analysis were measured using the criteria of Accuracy, G-Mean, and F-Measure. By applying the test to two types of sentiment data, the results show that SMOTEBoost can classify sentiments well. SMOTEBoost's performance is compared to other ensemble techniques namely ADABoost, RUSBoost, and SMOTEBagging. Classification results of review_1 data, SMOTEboost is better in accuracy and G-Mean. While for the review_2 data, SMOTEBoost has better results for all criteria, both accuracy, F-Measure and G-Mean 
Pemodelan Topik Berita Menggunakan Latent Dirichlet Allocation dan K-Means Clustering Rimbun Siringoringo; Jamaluddin Jamaluddin; Resianta Perangin-Angin
Jurnal Informatika Kaputama (JIK) Vol 4, No 2 (2020): Volume 4, Nomor 2 Juli 2020
Publisher : STMIK KAPUTAMA

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.1234/jik.v4i2.263

Abstract

Majority of people now search the internet for news or information topics. The growth of the internet and social media has led to the emergence of hundreds of portals or online news with very diverse news topics. Searching for headlines manually is an ineffective and time-consuming method. In this study headlines modeling was used using Latent Dirichlet Allocation (LDA). Prior to the application of the LDA model, supporting processes such as tokenization, lemmatization, tf-idf factorization and non-negative matrix factorization were also applied. The results showed that the LDA can be applied to model the news topic well with a loglikelihood score of -13615,912 and a perplexity score of 378,958. In addition to using LDA, topic modeling is also done in the form of clusters by applying k-means clustering. With the elbow method, the ideal number of clusters for k-means clustering is 5 clusters and the silhouette performance is 0.62
Penerapan Algoritma Safe-Level-SMOTE Untuk Peningkatan Nilai G-Mean Dalam Klasifikasi Data Tidak Seimbang Resianta Perangin-angin
Journal Information System Development (ISD) Vol 5 No 2 (2020): Journal Information System Development (ISD)
Publisher : UNIVERSITAS PELITA HARAPAN

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Klasifikasi data yang tidak seimbang merupakan masalah yang krusial pada bidang machine learning dan data mining. Ketidakseimbangan data memberikan dampak yang buruk pada hasil klasifikasi dimana kelas minoritas sering disalah klasifikasikan sebagai kelas mayoritas. Dimana kelompok kelas minoritas (minority) adalah kelompok kelas yang memiliki data lebih sedikit, dan kelompok kelas mayoritas (mayority) adalah kelompok kelas yang memilik jumlah data lebih banyak. Data tidak seimbang adalah suatu kondisi dimana jumlah contoh dari salah satu kelas jauh lebih banyak dari kelas yang lain. Alasan buruknya kinerja metode klasifikasi biasa yang digunakan pada data tidak seimbang adalah bahwa tujuan metode klasifikasi dalam meminimumkan galat secara keseluruhan tidak dapat tercapai karena kelas minoritas hanya sedikit memberikan kontribusi, selain itu keputusan akhir yang dihasilkan tidak tepat karena terjadinya bias. Hal ini disebabkan oleh salah satu kelas mendominasi dalam hal jumlah. Dalam penelitian ini akan berfokus pada peningkatan nilai G-Mean dari dataset yang digunakan, dengan menerapkan algoritma Safe-Level-SMOTE. Dari hasil ujicoba yang dilakukan terhadap dua dataset yakni Abalon dan Vowel, untuk skema Smote + k-NN nilai G-Mean yang didapat yakni 0,47 untuk dataset Abalon dan 0.94 untuk dataset Vowel. Seletah dilakukan ujicoba terhadap dataset yang sama menggunakan skema Safe-Level-Smote menggunakan algoritma klasifikasi k-NN didapat hasil G-Mean 0,59  untuk dataset Abalon dan 1.00 Untuk dataset Vowel, rerata dari kenaikan nilai G-Mean terhadap algoritma SMOTE sebesar 12,68%. Hal ini membuktikan bahwasanya algoritma Safe-Level-Smote dapat meningkatkan nilai G-Mean pada klasifikasi data tidak seimbang menggunakan algoritma klasifikasi k-Nearst Neighbors.