cover
Contact Name
Agung Setia Budi
Contact Email
agungsetiabudi@ub.ac.id
Phone
+62341-577911
Journal Mail Official
jtiik@ub.ac.id
Editorial Address
Fakultas Ilmu Komputer Universitas Brawijaya Gedung F FILKOM Lt. 8, Ruang BPJ Jalan Veteran No. 8 Malang Indonesia - 65145
Location
Kota malang,
Jawa timur
INDONESIA
Jurnal Teknologi Informasi dan Ilmu Komputer
Published by Universitas Brawijaya
ISSN : 23557699     EISSN : 25286579     DOI : http://dx.doi.org/10.25126/jtiik
Jurnal Teknologi Informasi dan Ilmu Komputer (JTIIK) merupakan jurnal nasional yang diterbitkan oleh Fakultas Ilmu Komputer (FILKOM), Universitas Brawijaya (UB), Malang sejak tahun 2014. JTIIK memuat artikel hasil-hasil penelitian di bidang Teknologi Informasi dan Ilmu Komputer. JTIIK berkomitmen untuk menjadi jurnal nasional terbaik dengan mempublikasikan artikel berbahasa Indonesia yang berkualitas dan menjadi rujukan utama para peneliti. JTIIK di akreditasi oleh Kementerian Riset, Teknologi, dan Pendidikan Tinggi Republik Indonesia Nomor: 36/E/KPT/2019 yang berlaku sampai dengan Volume 11 Nomor 2 Tahun 2024.
Articles 1,288 Documents
Prediksi Single-Step dan Multi-Step Data Cuaca Menggunakan Model Long Short-Term Memory dan Sarima Simanjuntak, Humasak Tommy Argo; Lumbanraja, Amelia; Samosir, Gabriel; Regita
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 2: April 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129444

Abstract

Prediksi deret waktu pada parameter data cuaca adalah proses memprediksi nilai masa depan berdasarkan pola data historis cuaca. Penelitian ini mengatasi kelemahan penelitian sebelumnya seperti data yang terbatas, jangka waktu prediksi, keterbatasan parameter yang digunakan dalam penelitian serta tidak menggunakan parameter eksternal yang tentunya dapat membantu proses prediksi model menjadi lebih akurat. Penelitian ini menggunakan metode Long Short-Term Memory (LSTM) dan Seasonal AutoRegressive Integrated Moving Average (SARIMA) untuk memprediksi parameter cuaca, seperti tekanan udara, suhu, dan kelembaban relatif, dengan pendekatan single-step dan multi-step ahead. Data bersumber dari BMKG Stasiun Meteorologi Pinangsori, Sibolga, selama 8 tahun, dengan granularity per jam dan per hari. Hasil eksperimen menunjukkan bahwa LSTM dan SARIMA, memiliki keunggulan dalam konteks tertentu. Untuk pendekatan single-step, model SARIMA lebih baik 49% dari model LSTM untuk prediksi dengan granularity data per jam. Namun, untuk granularity data per hari, performansi LSTM lebih baik 27% dari model SARIMA. Kemudian untuk pendekatan multi-step, SARIMA memberikan performansi yang lebih baik 30% daripada model LSTM untuk data per jam (< =24). Sedangkan untuk granularity data harian, model LSTM lebih baik 30% pada step 30 hari dan lebih baik 27% pada step 60 hari. Dan untuk data ekstrem, LSTM lebih baik 47% daripada SARIMA.   Abstract Time series prediction of weather data parameters involves forecasting future values based on historical weather patterns. This study addresses the limitations of previous research, such as constrained datasets, short prediction periods, restricted parameters, and the neglect of external factors that could enhance model accuracy. Utilizing Long Short-Term Memory (LSTM) networks and Seasonal AutoRegressive Integrated Moving Average (SARIMA) methods, the research focuses on predicting weather parameters like air pressure, temperature, and relative humidity using both single-step and multi-step approaches. The data is sourced from the BMKG Pinangsori Meteorological Station in Sibolga, covering an 8-year period with both hourly and daily granularity. The experimental findings reveal that LSTM and SARIMA each have their advantages depending on the context. In the single-step approach, the SARIMA model outperforms the LSTM model by 49% for predictions based on hourly data. Conversely, for daily data granularity, the LSTM model surpasses SARIMA by 27%. In the multi-step analysis, SARIMA demonstrates a 30% improvement over LSTM for hourly predictions (up to 24 hours). However, for daily granularity, the LSTM model excels, showing a 30% advantage at the 30-day prediction step and a 27% advantage at the 60-day step. Additionally, LSTM significantly outperforms SARIMA by 47% when dealing with extreme data.
SENTRIN- Mesin Catur Berbasis Neural Network Menggunakan Long Short Term memory (LSTM) Fattah, Rafi Indra; Adikara, Putra Pandu; Setiawan, Budi Darma
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 3: Juni 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129445

Abstract

Catur diperkirakan memiliki sekitar 1043 kemungkinan posisi. Angka tersebut jauh melampaui kemampuan komputasi komputer yang ada saat ini, sehingga mengembangkan sebuah mesin catur dengan mempertimbangkan seluruh kemungkinan posisi dianggap tidak memungkinkan. Saat ini, penggunaan Neural Network pada pengembangan mesin catur sedang mengalami peningkatan dan telah membawa hasil yang menjanjikan sejak pertama kali diperkenalkan oleh AlphaZero milik Google DeepMind pada tahun 2017. Penelitian ini bertujuan untuk membawa potensi pendekatan baru pada ranah pengembangan mesin catur berbasis Neural Network dengan memperkenalkan mesin catur Deeplefish yang melakukan gerakan berdasarkan keluaran model Long Short Term Memory (LSTM). Menggunakan lebih dari 57.000 pertandingan yang terbagi menjadi 1.200.000 posisi, model dilatih untuk memprediksi langkah berikutnya oleh putih untuk sebuah rangkaian gerakan yang diberikan. Model meraih loss sebesar 3,01 dan Average Centipawn Loss (ACPL) sebesar 219 pada data uji. Deeplefish meraih 2 kemenangan, 72 kekalahan, dan 10 hasil seri pada tahap pengujian. Hasil yang tidak memuaskan ini dapat disebabkan oleh subjektivitas data terhadap cara berpikir pemain, menghasilkan kurangnya pola gerakan yang signifikan untuk dipelajari oleh model.   Abstract Chess has been estimated to have around 1043 possible positions. This number surpasses the computing ability of any computer available, therefore, building a chess engine that considers every possible position is deemed impractical. Currently, the use of neural network in chess engine development is on the rise and has been delivering promising results since the introduction of Google DeepMind’s AlphaZero in 2017. This research aims to bring a new potential approach to the field of neural network based chess engine development by introducing Deeplefish chess engine that uses a Long Short Term Memory (LSTM) model as move generator. Trained on more than 57.000 games broken down into more than 1.200.000 positions, the model is trained to predict the next move played by white for a given sequence of moves. The model achieved a loss of 3.01 and an Average Centipawn Loss (ACPL) of 219 on the validation set. Deeplefish achieved 2 wins, 72 losses, and 10 draws on the testing, showing a lack of board and contextual awareness. This unsatisfactory results are likely due to the subjectivity of the data to the player’s way of thinking, resulting in lack of significant move pattern to be learned by the model.
Peramalan Penjualan Produk Menggunakan Extreme Gradient Boosting (XGBoost) dan Kerangka Kerja CRISP-DM untuk Pengoptimalan Manajemen Persediaan (Studi Kasus: UB Mart) Winurputra, Raihan; Ratnawati, Dian Eka
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 2: April 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129451

Abstract

Manajemen persediaan merupakan masalah yang umum dihadapi oleh bisnis ritel. UB Mart, sebuah bisnis ritel di Kota Malang mengalami permasalahan manajemen persediaan utamanya terkait persediaan produk yang kurang pada produk dengan perputaran penjualan yang sangat cepat. Manajemen persediaan pada UB Mart belum dilakukan menggunakan metode sistematis berbasis data, melainkan masih berdasarkan insting dan intuisi dari pengelola. Upaya yang dapat dilakukan untuk mengatasi permasalahan tersebut adalah dengan melakukan peramalan penjualan. Penelitian bertujuan untuk melakukan peramalan penjualan produk menggunakan model pembelajaran mesin Extreme Gradient Boosting (XGBoost) yang dikombinasikan dengan kerangka kerja Cross-Industry Process for Data Mining (CRISP-DM) sebagai pedoman manajemen proyek. Peramalan penjualan dilakukan dengan memanfaatkan data historis penjualan UB Mart dari bulan Januari 2020 hingga Juni 2023 terhadap 10 produk terpilih. Proses peramalan dilakukan melalui fase utama kerangka kerja CRISP-DM yaitu Business Understanding, Data Understanding, Data Preparation, Modeling, Evaluation, dan Deployment. Fase Modeling melibatkan pengujian penggunaan fitur untuk melatih model dengan performa terbaik. Hasil penelitian menunjukkan penerapan kerangka kerja CRISP-DM dapat memfasilitasi proses peramalan yang terstruktur serta memperkuat validitas hasil dalam konteks bisnis UB Mart. Fitur penanda jumlah transaksi dan fitur penanda transaksi dengan volume besar menunjukkan peran yang signifikan dalam melatih model XGBoost dengan performa terbaik. Model dengan performa terbaik memiliki nilai rata-rata Mean Absolute Error sebesar 11,58 dan nilai rata-rata Root Mean Squared Error sebesar 29,19 yang menunjukkan bahwa model memiliki kemampuan peramalan yang baik.   Abstract Inventory management is a common issue faced by retail businesses. UB Mart, a retail business in Kota Malang, is experiencing inventory management problems, particularly related to product shortages on product that have fast sales turnover. Inventory management at UB Mart has not yet been conducted using a systematic, data-driven method, but rather relies solely on the intuition and instincts of the management. One approach to addressing that problem is implementing sales forecasting. This research aims to forecast product sales using the Extreme Gradient Boosting (XGBoost) machine learning model, combined with the Cross-Industry Process for Data Mining (CRISP-DM) framework as project management guideline. The sales forecasting uses UB Mart’s historical sales data from January 2020 to June 2023 for 10 selected products. The forecasting process follows the main phases of the CRISP-DM framework: Business Understanding, Data Understanding, Data Preparation, Modeling, Evaluation, and Deployment. The Modeling phase involves testing feature selection to train the model that can deliver best performance. The results of this research demonstrate that applying the CRISP-DM framework facilitates a structured forecasting process and enhances the validity of the forecast in the context of UB Mart’s business. Transaction count indicators and bulk transaction indicators significantly contribute to training the best-performing XGBoost model. The best-performing model achieved an average Mean Absolute Error of 11,58 and an average Root Mean Squared Error of 29,19, indicating the model’s good ability to forecast.
Implementasi Load Balancing pada Cluster Server Berbasis Raspberry Pi Memanfaatkan Algoritma Least Connection Ghozi Mubarak, Fauzan; Primananda, Rakhmadhany; Setia Budi, Agung
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 2: April 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129452

Abstract

Keterbatasan sumber daya dalam implementasi server menjadi salah satu aspek yang perlu diperhatikan. Penggunaan Raspberry Pi, yang merupakan sebuah perangkat dengan ukuran kecil dan dapat digunakan sebagai server fisik dengan konsumsi sumber daya rendah, menjadi salah satu solusi. Namun, untuk menghindari overload pada server fisik Raspberry Pi, penggunaan cluster server sebagai pemerataan beban kerja dari satu server ke server lainnya menjadi relevan. Cluster server menggunakan Docker swarm memungkinkan pengaturan yang lebih mudah dan efisien dari banyak node dalam sebuah cluster. Pemerataan beban kerja menggunakan load balancing dengan algoritma Least Connection. Algoritma Least Connection berjalan berdasarkan antrian paling sedikit, ketika antrian di suatu node rendah, node tersebut akan menerima beban kerja baru, sehingga mencegah overload pada satu node sementara node lainnya masih memiliki kapasitas yang tersedia. Pendistribusian image ke setiap node dalam cluster dilakukan dengan menggunakan Ansible untuk memastikan pengelolaan konfigurasi yang konsisten dan otomatis di seluruh node. Secara umum, penelitian ini mengintegrasikan tiga teknologi utama, yaitu Docker untuk manajemen kontainer, Ansible untuk manajemen konfigurasi, dan load balancing dengan algoritma Least Connection. Perancangan dan implementasi penelitian difokuskan pada penerapan dan optimalisasi masing-masing teknologi ini. Hasil pengujian penelitian menunjukkan bahwa ansible efektif dalam mempermudah pengelolaan konfigurasi dan otomatisasi distribusi image di seluruh node dalam kluster. Sementara itu, load balancing dengan algoritma Least Connection berhasil membagi beban kerja secara optimal berdasarkan antrian atau koneksi terendah, yang secara signifikan meningkatkan responsivitas dan efisiensi sistem secara keseluruhan.   Abstract Limited resources in server implementation is one aspect that needs to be considered. The use of Raspberry Pi, which is a device with a small size and can be used as a physical server with low resource consumption, is one solution. However, to avoid overloading the Raspberry Pi physical server, the use of a server cluster as an equalization of workload from one server to another becomes relevant. Cluster servers using Docker swarm allow easier and more efficient organization of many nodes in a cluster. Workload equalization uses load balancing with the Least Connection algorithm. The Least Connection algorithm runs based on the least queue, when the queue at a node is low, the node will receive a new workload, thus preventing overload on one node while other nodes still have available capacity. Image distribution to each node in the cluster is done using Ansible to ensure consistent and automated configuration management across nodes. In general, this research integrates three main technologies, namely Docker for container management, Ansible for configuration management, and load balancing with the Least Connection algorithm. The design and implementation of the research focused on the application and optimization of each of these technologies. The test results show that Ansible is effective in simplifying configuration management and automating image distribution across all nodes in the cluster. Meanwhile, load balancing with the Least Connection algorithm successfully divides the workload optimally based on the lowest queue or connection, which significantly improves overall system responsiveness and efficiency.
Penerapan Model Algoritma Unsupervised Learning untuk Klasterisasi Tingkat Kenyamanan Ruang Tidur berdasarkan Faktor Lingkungan Khalif, Mhd Idham; Edi Prabowo, Listyo
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 2: April 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129456

Abstract

Pada era revolusi industri 4.0, teknologi seperti cloud computing, robotic, internet of things(IoT), artificial intelligence (AI) dan machine learning (ML) sangat banyak dikembangkan di berbagai sektor seperti industri, pemerintahan, pendidikan hingga ke sektor rumah tangga. Salah satu teknologi yang banyak digunakan di era revolusi industri 4.0 ini adalah AI atau ML. Pada penelitian ini telah berhasil menerapkan sebuah pengolahan data secara klasterisasi menggunakan model ML yaitu unsupervised learning menggunakan algoritma k-means clustering terhadap data yang sudah dikumpulkan. Data tersebut berupa data kuantitaif lingkungan ruang tidur yang dapat diukur, data tersebut diukur dan diambil menggunakan perangkat yang memiliki 5 sensor, yaitu sensor suara, cahaya, temperature, humidity, karbon dioksida (CO2), data nilai panjang, data nilai lebar serta, nilai cuaca yang diambil pada platform OpenWheater menggunakan perangkat yang dibangun berbasis IoT menggunakan koneksi internet dari sebuah access point. Data yang dikumpulkan menjadi sebuah dataset yang diolah menggunakan model algoritma k-means clustering sehingga dapat digunakan untuk melakukan klasterisasi terhadap kenyamanan ruang tidur. Dari hasil pengolahan menggunakan model algoritma k-means clustering terdapat nilai Silhouette sebesar 0,268 dengan persentase data per klaster adalah 29,92%% untuk klaster 0 (tidak nyaman) dan 70,08% untuk klaster 1 (nyaman). Dalam praktik nyata, temuan dari hasil penerapan penelitian ini dapat digunakan untuk mengembangkan rekomendasi personalisasi untuk pengaturan ruang tidur, nantinya dapat merancang produk atau desain yang lebih efektif, di mana penerapan ML dapat dibenamkan secara langsung dalam sebuah sistem yang utuh. Dampaknya bisa sangat luas, mencakup peningkatan kesehatan, produktivitas, dan kesejahteraan penggunanya.   Abstract In the era of Industry 4.0, technologies such as cloud computing, robotics, the Internet of Things (IoT), artificial intelligence (AI), and machine learning (ML) have been extensively developed across various sectors, including industry, government, education, and even households. One of the technologies widely used in this era is AI and ML. This research successfully applied clustered data processing using the ML model, specifically unsupervised learning with the k-means clustering algorithm, to the collected data. The data consists of quantitative measurements of the bedroom environment, gathered using a device with 5 sensors: sound, light, temperature, humidity, carbon dioxide (CO2), as well as length, width, and weather data taken from the OpenWeather platform using an IoT-based device with an internet connection from an access point. The collected data forms a dataset that is processed using the k-means clustering algorithm to classify the comfort level of the bedroom. The results of this processing showed a Silhouette value of 0.268, with the percentage of data per cluster being 29.92% for cluster 0 (uncomfortable) and 70.08% for cluster 1 (comfortable). In real practice, the findings from this research can be used to develop personalized recommendations for bedroom arrangements and to design more effective products. The application of ML can be embedded directly into a complete system, with far-reaching impacts, including improving users' health, productivity, and well-being.
SENTRIN- IMPLEMENTASI ALGORITMA CLEFIA 128DAN TIME-BASED ONE TIME PASSWORDSEBAGAI TWO-FACTOR AUTHENTICATIONUNTUK MENINGKATKAN KEAMANANPADA PROSES AUTENTIKASI Annaisaburi, Munjin Nasyih; Kusyanti, Ari; Trisnawan, Primantara Hari
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 3: Juni 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129457

Abstract

  Autentikasi merupakan proses verifikasi data dengan cara memastikan bahwa pengguna atau users adalah pemilik akses yang sah pada sistem. Proses autentikasi sederhana menggunakan metode single-factor authentication (SFA) dengan menggunakan password atau PIN. SFA memiliki kelemahan karena rentan terhadap serangan seperti brute force dan sniffing. Efek dari serangan ini berimbas pada kebocoran data. Badan Siber dan Sandi Negara (BSSN) mencatat pada tahun 2023 terdapat 103 insiden dugaan kebocoran data.  Insiden ini terjadi karena prosedur pengamanan masih rendah, terutama dalam mengamankan PIN, aplikasi, dan keamanan internet yang menggunakan SFA. Solusi untuk meningkatkan keamanan pada proses autentikasi dilakukan dengan mengkombinasikan kriptografi berupa algoritma Clefia-128 dengan two-factor authentication berupa TOTP. Penelitian ini mengimplementasikan algoritma Clefia-128 yang ditulis dalam bahasa pemrograman Python versi 3 untuk proses enkripsi dan dekripsi secret key token TOTP pada sistem yang dibangun menggunakan bahasa pemrograman PHP dengan web-server XAMPP. Implementasi Clefia-128 dan TOTP pada sistem berhasil meningkatkan keamanan data ketika proses autentikasi login website. Hal ini dibuktikan dengan pengujian keamanan dengan metode cipher-only attack menggunakan wireshark yang dikombinasikan dengan brute force menunjukkan bahwa ciphertext yang didapat tidak berhasil dipecahkan. Pengujian berdasarkan test vector menunjukkan bahwa Clefia-128 memberikan hasil yang konsisten dan akurat, serta hasil pengujian performa Clefia-128 untuk enkripsi memerlukan waktu 0.0012277 detik dan dekripsi memerlukan waktu 0.0012895 detik.
SENTRIN- Implementasi Algoritma Sparkle Schwaemm128-128 Untuk Proses Enkripsi Pengiriman Data Pada Sensor GPS berbasis IoT dengan Protokol Modul NRF24L01 Sugianto, Avis; Kusyanti, Ari; Trisnawan, Primantara Hari
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 3: Juni 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129462

Abstract

Penelitian ini bertujuan untuk menerapkan algoritma enkripsi Sparkle Schwaemm128-128, yang merupakan algoritma enkripsi ringan yang berdasarkan pada permutasi Sparkle, untuk proses enkripsi pengiriman data pada sensor GPS berbasis IoT dengan protokol modul NRF24L01. Metode penelitian yang digunakan adalah eksperimen dengan menggunakan perangkat keras NodeMCU ESP8266, sensor GPS NEO-6Mv2, modul komunikasi NRF24L01, dan platform Arduino IDE. Hasil penelitian menunjukkan bahwa algoritma Sparkle Schwaemm128-128 dapat mengenkripsi dan mendekripsi data sensor GPS dengan kecepatan 8012 mikrodetik untuk waktu enkripsi dan 13108 untuk waktu dekripsi. Sisa memori penggunaan pada mikrokontroler NodeMCU ESP8266 berkisar 51765 byte yaitu hanya 36,75% memori yang terpakai pada node sensor dan 52174 byte yaitu hanya 36,36% memeri yang terpakai pada node pusat. Penelitian ini diharapkan dapat memberikan solusi keamanan yang efisien dan efektif untuk sistem IoT yang menggunakan sensor GPS dan modul komunikasi NRF24L016.
SENTRIN- IMPLEMENTASI ALGORITMA ENKRIPSI SPECK UNTUK PENGAMANAN MNEMONIC PHRASE PADA CRYPTOCURRENCY WALLET Mustakim, Dimas Tri; Kusyanti, Ari; Trisnawan, Primantara Hari
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 3: Juni 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129463

Abstract

Cryptocurrency wallet memiliki peran penting dalam menyimpan dan mengelola aset digital pada jaringan blockchain. Keamanan wallet, terutama dalam penyimpanan frasa mnemonik sebagai kunci utama, menjadi aspek krusial yang perlu diperhatikan. Penelitian ini bertujuan untuk mengimplementasikan algoritma enkripsi Speck dalam mengamankan penyimpanan frasa mnemonik pada Hierarchical Deterministic (HD) Wallet. Metode yang digunakan adalah eksperimen implementatif dengan merancang prototipe sistem Wallet yang menggunakan algoritma Speck. Implementasi mencakup komponen-komponen utama wallet serta integrasi algoritma Speck untuk pengamanan frasa mnemonik. Pengujian dilakukan melalui analisis properti berupa avalanche effect, uniformity test, dan entropy test, serta pengujian keamanan menggunakan metode brute force. Hasil penelitian menunjukkan bahwa algoritma Speck dapat diimplementasikan dengan baik pada sistem Wallet, mampu menghasilkan ciphertext dengan properti statistik yang baik, dan dapat mengamankan data mnemonik. Pengujian kinerja menunjukkan hasil yang sangat baik, dengan waktu rata-rata eksekusi di bawah 2 mikro detik dan penggunaan memori sekitar 3 MB. Uji avalanche effect menghasilkan nilai yang mendekati 0,5 yang menunjukkan sensitivitas yang baik terhadap perubahan input. Uniformity test menunjukkan distribusi ciphertext yang seragam dengan nilai chi-square di bawah ambang kritis. Pengujian entropy menghasilkan peningkatan signifikan dari rata-rata 4 bit per byte  pada plaintext menjadi sekitar 6 bit per byte pada ciphertext. Pengujian keamanan melalui brute force menunjukkan ketahanan yang sangat baik, dengan estimasi waktu pemecahan kunci mencapai tahun. Penelitian ini diharapkan dapat memberikan kontribusi dalam pengembangan solusi keamanan yang efisien untuk cryptocurrency wallet.
SENTRIN- Pengembangan Pembagian Beban Kerja Server Cluster Docker Swarm Berbasis Raspberry Dengan Metode Loadbalancer IP HASH Serta Terautomasi Ansible Tohari, Fauzan Adzima; Primananda, Rakhmadhany; Shaffan, Nur Hazbiy
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 3: Juni 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129466

Abstract

Perkembangan teknologi saat ini mempercepat penyebaran informasi, hal ini meningkatkan traffic dan tekanan pada infrastruktur. Menghadapi ini, sistem yang reliable, availability, dan maintainability diperlukan. Dengan container dan Raspberry Pi sebagai server. Memberikan keunggulan selain 3 karakteristik sistem tersebut juga dari sumberdaya yang diperlukan. Raspberry Pi dapat terhubung ke jaringan LAN maupun nirkabel. Fokus penelitian ini pada perancangan dan implementasi sistem berbasis empat Raspberry Pi, tiga sebagai webserver Nginx, dan satu sebagai kontroler. Sistem ini menggunakan teknologi containerization di lingkungan DockerSwarm dan diintegrasikan Ansible untuk otomatisasi tugas. Tujuan penelitian ini adalah menciptakan sistem yang dapat disesuaikan dengan kebutuhan, memanfaatkan Raspberry Pi untuk efisiensi daya, dan memberikan manfaat dalam hal skalabilitas dan otomatisasi. Sistem ini menggunakan empat Raspberry Pi dengan algoritma IP HASH untuk pembagian beban kerja. Komponen utama mencakup input dari pengguna, pemrosesan beban kerja oleh load balancer, dan output melalui antarmuka web browser. Load balancer bertanggung jawab atas distribusi lalu lintas dan pemantauan status server untuk mengalihkan lalu lintas jika diperlukan. Pengujian menunjukkan system dengan load balancer lebih efisien dalam penggunaan CPU dengan perbandingan CPU 39.1% pada ws1 dengan loadbalancer dan 51.2% tanpa loadbalancer, 38.9% pada ws2 dengan loadbalancer dan 51.7% tanpa loadbalancer, serta 6.3% pada ws3 ketika loadbalancer mengalihkan request saat server 1 atau 2 mati dan efektif dalam mengalihkan request saat server bermasalah dengan persentase kegagalan melayani request sebesar 18% atau 18 request dari 1000 request sedangkan tanpa loadbalancer request tidak dapat dilayani ketika server yang dituju mati. Ini membuktikan reliable, availability, dan maintainability pada sistem ini terpenuhi.
Sistem Pakar Fuzzy Modular untuk Identifikasi Dosis Obat Leukemia Wanti, Linda Perdana; Prasetya, Nur Wachid Adi; Nafisa, Zahrun; Ramadani, Muhammad; Hidayat, Rahmat
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 12 No 2: April 2025
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2025129545

Abstract

Diagnosis dan pengambilan keputusan tentang penyakit dalam bidang medis menghadapi ketidakpastian yang dapat memengaruhi proses pengobatan. Keputusan ini dibuat berdasarkan pengetahuan pakar dan cara seorang pakar dalam mendefinisikan kondisi pasien, gejala yang dialami dan faktor-faktor lain yang memengaruhi. Hasil definisi setiap pakar mungkin saja terdapat perbedaan berdasarkan faktor-faktor tersebut. Fuzzy modular expert system adalah suatu sistem berbasis pengetahuan yang memanfaatkan logika fuzzy untuk menangani ketidakpastian dan modularitas dalam pengambilan keputusan. Dalam sistem dengan ketidakpastian tinggi dan kompleksitas tinggi, logika fuzzy merupakan metode yang cocok untuk pemodelan. Dalam penelitian ini, fuzzy modular expert system untuk pemodelan ketidakpastian dalam pemberian dosis obat untuk terapi penyakit leukemia.  Variabel output yang digunakan pada penelitian ini adalah tingkat toksisitas yang dihasilkan dari proses pemberian dosis obat yang dibagi menjadi lima kategori yaitu sangat rendah, rendah, sedang, tinggi dan sangat tinggi. Variabel output yang kedua adalah kategori stadium leukemia yang diderita oleh pasien yang dibagi menjadi empat kategori yaitu stadium 1, stadium 2, stadium 3 dan stadium 4. Penelitian ini menggunakan 128 data latih pasien dengan dua variabel output. Hasil yang diperoleh menunjukkan bahwa fuzzy modular expert system dalam mengindentifikasi dosis obat yang diberikan sebagai terapi obat leukemia dengan akurasi rata-rata sekitar 94,8% berdasarkan data yang telah diuji dan dibandingkan dengan informasi dari pakar.   Abstract Diagnosis and decision-making about diseases in the medical field face uncertainties that can affect the treatment process. These decisions are based on expert knowledge and how an expert defines the patient's condition, symptoms experienced, and other influencing factors. The results of each expert's definition may differ based on these factors. A fuzzy modular expert system is a knowledge-based system that utilizes fuzzy logic to handle uncertainty and modularity in decision-making. In systems with high uncertainty and high complexity, fuzzy logic is a suitable method for modeling. In this study, a fuzzy modular expert system for modeling uncertainty in leukemia diagnosis. The output variables used in this study are the level of toxicity resulting from the drug dosing process which is divided into five categories, namely shallow, low, medium, high, and very high. The second output variable is the category of leukemia stage suffered by the patient which is divided into four categories, namely stage 1, stage 2, stage 3, and stage 4. This study used 128 patient training data with 2 output variable. The results indicate that the fuzzy modular expert system can diagnose leukemia with an average accuracy of around 94.8% based on data that has been tested and compared with expert diagnoses.

Filter by Year

2014 2025


Filter By Issues
All Issue Vol 12 No 6: Desember 2025 Vol 12 No 5: Oktober 2025 Vol 12 No 4: Agustus 2025 Vol 12 No 3: Juni 2025 Vol 12 No 2: April 2025 Vol 12 No 1: Februari 2025 Vol 11 No 6: Desember 2024 Vol 11 No 5: Oktober 2024 Vol 11 No 4: Agustus 2024 Vol 11 No 3: Juni 2024 Vol 11 No 2: April 2024 Vol 11 No 1: Februari 2024 Vol 10 No 6: Desember 2023 Vol 10 No 5: Oktober 2023 Vol 10 No 4: Agustus 2023 Vol 10 No 3: Juni 2023 Vol 10 No 2: April 2023 Vol 10 No 1: Februari 2023 Vol 9 No 7: Spesial Issue Seminar Nasional Teknologi dan Rekayasa Informasi (SENTRIN) 2022 Vol 9 No 6: Desember 2022 Vol 9 No 5: Oktober 2022 Vol 9 No 4: Agustus 2022 Vol 9 No 3: Juni 2022 Vol 9 No 2: April 2022 Vol 9 No 1: Februari 2022 Vol 8 No 6: Desember 2021 Vol 8 No 5: Oktober 2021 Vol 8 No 4: Agustus 2021 Vol 8 No 3: Juni 2021 Vol 8 No 2: April 2021 Vol 8 No 1: Februari 2021 Vol 7 No 6: Desember 2020 Vol 7 No 5: Oktober 2020 Vol 7 No 4: Agustus 2020 Vol 7 No 3: Juni 2020 Vol 7 No 2: April 2020 Vol 7 No 1: Februari 2020 Vol 6 No 6: Desember 2019 Vol 6 No 5: Oktober 2019 Vol 6 No 4: Agustus 2019 Vol 6 No 3: Juni 2019 Vol 6 No 2: April 2019 Vol 6 No 1: Februari 2019 Vol 5 No 6: Desember 2018 Vol 5 No 5: Oktober 2018 Vol 5 No 4: Agustus 2018 Vol 5 No 3: Juni 2018 Vol 5 No 2: April 2018 Vol 5 No 1: Februari 2018 Vol 4 No 4: Desember 2017 Vol 4 No 3: September 2017 Vol 4 No 2: Juni 2017 Vol 4 No 1: Maret 2017 Vol 3 No 4: Desember 2016 Vol 3 No 3: September 2016 Vol 3 No 2: Juni 2016 Vol 3 No 1: Maret 2016 Vol 2, No 2 (2015) Vol 2 No 2: Oktober 2015 Vol 2, No 1 (2015) Vol 2 No 1: April 2015 Vol 1, No 2 (2014) Vol 1 No 2: Oktober 2014 Vol 1, No 1 (2014) Vol 1 No 1: April 2014 More Issue