Claim Missing Document
Check
Articles

Found 10 Documents
Search

Pengaruh Global Transposition Table dan Algoritma Pvs dan Negascout Pada Puzzle Games Ali Mustopa
Techno.Com Vol 19, No 3 (2020): Agustus 2020
Publisher : LPPM Universitas Dian Nuswantoro

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.33633/tc.v19i3.3422

Abstract

Nine Men’s Morris merupakan game puzzle berbentuk board game 2 pemain. Papan terdiri dari kotak dengan dua puluh empat persimpangan atau titik. Permainan Nine Men’s Morris bersifat fully observable yang artinya bahwa seluruh kondisi pada papan permainan dan bidak-bidak dapat dipersepsi dan dinilai dengan baik. Penelitian ini melihat pengaruh penggunaan algoritma-algoritma dalam performa game Nine Men’s Morris. Performa permainan dilihat dari kemenangan, panjang jumlah jalur, lama pencarian. Penggunaan Global Transposition Table (GTT) sebagai penyimpanan memiliki keunggulan – dimana penyimpanannya lebih banyak sehingga memberikan ruang penelusuran lebih besar. Kemampuan ini disebabkan karena sifat GTT yang paralel. Dengan GTT ini diharapkan mampu menemukan solusi lebih cepat. Global Transposition Table sendiri adalah kumpulan dari beberapa tabel transposisi di dalam sebuah tabel transposisi lebih besar. GTT dapat diibaratkan seperti folder yang memiliki banyak subfolder dengan setiap subfolder berisi tipe file yang sama, dan memiliki nama depan file yang sama. Maka dengan menggabungkan Algoritma pencaria dan penggunakan GTT dalam permaian Nine Man’s Morris ini diharapkan dapat mengetahui performa dari penggunaan Algoritma Negascout dan juga pengaruh tambahan dari penggunaan GTT dalam game puzzle Nine Men’s Morris.
SISTEM INFORMASI IT-HELPDESK PADA UNIVERSITAS AMIKOM YOGYAKARTA BERBASIS WEB Ali Mustopa
JURNAL INFORMATIKA DAN KOMPUTER Vol 2, No 2 (2017): SEPTEMBER - JANUARI 2018
Publisher : Lembaga Penelitian dan Pengabdian Masyarakat - Universitas Teknologi Digital Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (476.603 KB) | DOI: 10.26798/jiko.v2i2.71

Abstract

IT Helpdesk is a service unit that is responsible to help in overcoming the problems related to the usage of ICT facilities at Universitas AMIKOM Yogyakarta. IT Helpdesk provides some form of services that can be utilized by academic community at Universitas AMIKOM Yogyakarta in usage of ICT services. This unit services include installation, troubleshooting software, service and computer maintenance. This research discusses about how information system development for user, consumer and manajamen IT Helpdesk. IT Helpdesk of Universitas AMIKOM Yogyakarta currently has an information system that includes the management of user registration and financial data. However, there is no information systems that provides detailed information from the consumer, which can be utilized by consumers IT Helpdesk itself in tracking the services status. Additionally, the current system has not been able to support management requirements in monitoring and evaluating the performance of technicians. The results of the research is a system that can provide information with a fast and accurate to the consumer and management of IT Helpdesk.
PENDEKATAN NATURAL LANGUAGE PROCESSING PADA APLIKASI CHATBOT SEBAGAI ALAT BANTU CUSTOMER SERVICE Sri Mulyatun; Hastari Utama; Ali Mustopa
Journal of Information System Management (JOISM) Vol. 2 No. 2 (2021): Januari
Publisher : Universitas Amikom Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (282.989 KB) | DOI: 10.24076/joism.2021v3i1.404

Abstract

Informasi mengenai Akademik adalah bagian sangat penting dalam kehidupan sehari-hari, dimana informasi Akademik tersebut diperoleh salah satunya dengan kosultasi langsung dengan customer service. Berdasarkan wawancara yang dilakukan terhadap beberapa mahasiswa. mahasiswa memperoleh informasi Akademik dengan cara berkunjung ke kampus dan bertanya langsung terhadap customer service.Penyampaian informasi Akademik tersebut dirasa kurang karena keterbatasan oleh waktu jam buka kampus, sedangkan banyak mahasiswa sangat membutuhkan informasi Akademik dan konsultasi Akademik dengan cepet dan tidak mau terikat oleh waktu buka kampus, bahkan mahasiswa mengalami masalah Akademik disaat kampus sudah tutup, dan membutuhkan konsultasi customer service. Dengan permasalahan tersebut maka banyak mahasiswa yang salah terima dalam mencerna informasi dari akademik. Untuk menyampaikan informasi Akademik yang tidak terikat oleh waktu buka kampus, Universitas AMIKOM Yogyakarta memerlukan suatu alat media layanan informasi Akademik yang dapat merespon setiap pertanyaan mahasiswa tanpa ada keterbatasan waktu dan jumlah customer service. Pada penelitian ini solusi yang diusulkan untuk masalah tersebut salah satunya dengan cara membangun sebuah aplikasi chatbot informasi Akademik (customer service virtual) dengan pendekatan Natural Language Processing dengan menggunakan medote Fuzzy String Matching sebagai media penalarannya. Teknologi chatbot merupakan salah satu bentuk aplikasi Natural Language Processing, NLP itu sendiri merupakan salah satu bidang ilmu Kecerdasan Buatan ( Artificial Intelligence ) yang mempelajari komunikasi antara manusia dengan komputer melalui bahasa alami.
PENERAPAN METODE SUPPORT VECTOR MACHINE UNTUK ANALISIS SENTIMEN PENGGUNA TWITTER Zidna Alhaq; Ali Mustopa; Sri Mulyatun; Joko Dwi Santoso
Journal of Information System Management (JOISM) Vol. 3 No. 1 (2021): Juni
Publisher : Universitas Amikom Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (533.056 KB) | DOI: 10.24076/joism.2021v3i2.558

Abstract

Twitter merupakan salah satu media sosial yang digunakan untuk menyampaikan pendapat dan mendiskusikan berbagai topik seputar. Salah satu topik yang sering dibahas adalah marketplace. Bukalapak merupakan salah satu marketplace terpopuler di Indonesia. Bukalapak memberikan penggunanya kemampuan untuk melakukan transaksi dengan cepat dan aman. Tanggapan yang diberikan oleh pengguna tersebut dapat berupa tanggapan positif, negatif dan netral. Oleh karena itu diperlukan suatu metode yang dapat digunakan untuk mengetahui pendapat pengguna Bukalapak di media sosial Twitter. Untuk mengatasi masalah ini, diperlukan suatu metode yang dapat mengkategorikan pendapat-pendapat tersebut. Support Vector Machines merupakan salah satu metode penggalian teks yang dapat mengkategorikan opini tersebut. Data yang diperoleh dari Twiiter akan diberi label dan dianalisis menggunakan metode SVM untuk mengklasifikasikan opini-opini tersebut. Hasil klasifikasi menggunakan metode SVM diperoleh tingkat akurasi sebesar 93%.
PRIVATE CLOUD COMPUTING INFRASTRUCTURE AS A SERVICE DENGAN OWNCLOUD DI SMK AL-ISLAM JORESAN KABUPATEN PONOROGO Sutriono Sutriono; Ali Mustopa; Joko Dwi Santoso
Journal of Information System Management (JOISM) Vol. 4 No. 1 (2022): Juni
Publisher : Universitas Amikom Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.24076/joism.2022v4i1.873

Abstract

Private Cloud Computing adalah model Cloud Computing yang memberikan cakupan yang lebih kecil untuk dapat memberikan layanan kepada pengguna tertentu pada perusahaan skala besar dengan pola akses Enterprise Remote melalui jaringan lokal dan koneksi Internet menggunakan Fixed Device dan Mobile Device. Cloud Computing dapat dipadukan dengan Service Oriented Architecture, sehingga menghasilkan alternatif solusi yang paling efektif untuk perancangan pengembangan sistem yang terintegrasi. Cloud Computing mampu memberikan dukungan terhadap layanan Service Oriented Architecture seperti desain layanan dan kemampuan untuk memperluas layanan. Sedangkan Service Oriented Architecture mampu memberikan dukungan terhadap Cloud Computing berupa tata kelola layanan dan memberikan dorongan arsitektur berorientasi layanan yang menyediakan interface yang efisien untuk pembelajaran di SMK Al-Islam Joresan. Dalam penelitian yang dilakukan SMK Al-Islam Joresan ini bertujuan untuk mengimplementasikan sistem cloud computing. Metode yang digunakan adalah observasi, wawancara, analisis, dan implementasi Cloud Computing IaaS. Analisis dilakukan untuk mengimplementasikan sistem Cloud Computing agar Layanan dapat memberikan sinkronisasi data cloud dengan mobile, desktop dan web. Penggunaan OwnCloud diharapkan dapat diimplementasikan untuk suatu karakteristik layanan Infrastructure as a Service yang berfungsi sebagai Cloud Storage. Kata Kunci : Cloud Computing, Service Oriented Architecture, Cloud Storage
Comparison of Logistic Regression and Random Forest using Correlation-based Feature Selection for Phishing Website Detection Farida Farida; Ali Mustopa
Sistemasi: Jurnal Sistem Informasi Vol 12, No 1 (2023): Sistemasi: Jurnal Sistem Informasi
Publisher : Program Studi Sistem Informasi Fakultas Teknik dan Ilmu Komputer

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32520/stmsi.v12i1.1832

Abstract

The world is currently experiencing mass developments in information technology, especially during the current pandemic, which requires all of us to learn and even work online. They are triggered much crime in the internet world. One of them is stealing internet user data through a fake website built like the original or called a phishing website. In this research , a classification model is needed to detect phishing websites using the best performance from one of the logistic regression and random forest classification algorithms to overcome the rise of phishing websites in cyberspace. Classification performance can be improved using the correlation-based feature selection (CFS) method to select the most influential attribute in detecting web phishing. Based on the test results, applying the logistic regression and random forest classification algorithm in the classification of web phishing resulted in an accuracy of 93.035% and 96.834%. After feature selection with CFS, the accuracy was 92.718% and 97.015%, respectively. On the Testing, There was an increase in accuracy in RandomForest by 0.181% and an insignificant decrease in logistic regression. The test results prove that feature selection with CFS can eliminate redundant attributes and the resulting classification algorithm accuracy is not much different when the details are complete and Random Forest has accuracy better than after using CSF.Keywords: website phishing, classification, logistic regression, random forest, correlation-based 
PEMODELAN VARIABILITAS MUSIMAN DALAM CURAH HUJAN : PENDEKATAN DERET WAKTU Mustopa, Ali; Santoso, Joko Dwi; Nauvaldhi , Muhammad Sachib Farhan; Wulandari, Devi
Journal of Information System Management (JOISM) Vol. 6 No. 2 (2025): Januari
Publisher : Universitas Amikom Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.24076/joism.2025v6i2.1936

Abstract

Presipitasi merupakan komponen fundamental dalam siklus hidrologi Bumi yang memiliki dampak signifikan terhadap ekosistem, produktivitas pertanian, dan pengelolaan sumber daya air. Variabilitas presipitasi, terutama pola musiman, sangat penting untuk dipahami dalam konteks perencanaan yang efektif dan strategi adaptasi terhadap perubahan iklim yang semakin nyata. Penelitian ini bertujuan untuk mengeksplorasi variabilitas musiman curah hujan di Bangladesh melalui analisis deret waktu yang komprehensif, dengan memanfaatkan teknik statistik canggih, termasuk model Autoregressive Integrated Moving Average (ARIMA), Seasonal Autoregressive Integrated Moving Average (SARIMA), dan Exponential Smoothing State Space (ETS). Data yang digunakan dalam penelitian ini mencakup catatan curah hujan dan suhu rata-rata bulanan dari tahun 1901 hingga 2023, yang diambil dari Humanitarian Data Exchange (HDX). Analisis dilakukan untuk mengidentifikasi pola dan tren musiman yang ada dalam data tersebut. Hasil analisis menunjukkan bahwa model SARIMA (2, 0, 1) × (0, 1, 1, 12) memberikan kinerja terbaik dibandingkan dengan model lainnya, dengan nilai Root Mean Squared Error (RMSE) dan Mean Absolute Percentage Error (MAPE) yang rendah, yang menunjukkan akurasi prediksi yang tinggi. Sementara itu, model ETS juga menunjukkan hasil yang baik dalam hal akurasi, tetapi dengan nilai MAPE yang lebih tinggi, yang mengindikasikan bahwa meskipun model ini mampu menangkap pola musiman, proporsi kesalahan relatif terhadap data aktual lebih besar. Penelitian ini menekankan pentingnya mempertimbangkan komponen musiman dalam pemodelan deret waktu, karena fluktuasi musiman yang terjadi secara periodik dapat ditangkap dengan lebih baik, sehingga menghasilkan prediksi yang lebih konsisten dan akurat. Dengan demikian, hasil penelitian ini memberikan wawasan berharga untuk perencanaan dan strategi adaptasi di masa depan, terutama dalam konteks perubahan iklim yang dapat mempengaruhi pola curah hujan.
Comparison Of Efficientnet And Yolov8 Algorithms In Motor Vehicle Classification Ferian Fauzi Abdulloh; Favian Afrheza Fattah; Devi Wulandari; Ali Mustopa
SITEKNIK: Sistem Informasi, Teknik dan Teknologi Terapan Vol. 2 No. 3 (2025): July
Publisher : RAM PUBLISHER

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.5281/zenodo.16561038

Abstract

The YOLOv8 accuracy curve highlights clear overfitting. As shown in the graph, the model reaches 100% training accuracy from the first epoch and remains flat, indicating it memorized the training data. However, validation accuracy lags behind, fluctuating between 90% and 92% without significant improvement. This discrepancy between training and validation performance suggests that YOLOv8 struggles to generalize to unseen data. The issue likely stems from its architecture, which is optimized for object detection tasks that prioritize object localization over feature extraction for classification. When repurposed for classification, YOLOv8 may not extract the nuanced visual patterns needed to differentiate similar classes, such as trucks and buses. Consequently, although YOLOv8 performs well on the training set, its classification accuracy in real-world scenarios is limited. Addressing this may require architectural adjustments, stronger regularization, or more diverse training data to enhance the model’s generalization for pure classification tasks.
Optimizing 4-ary Huffman Trees and Normalizing Binary Code Structures to Minimize Redundancy and Level Reduction Hidayat, Tonny; Kurniawan , Hendra; Mustopa , Ali; Kuswanto, Jeki
Elinvo (Electronics, Informatics, and Vocational Education) Vol. 10 No. 1 (2025): May 2025
Publisher : Department of Electronic and Informatic Engineering Education, Faculty of Engineering, UNY

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.21831/elinvo.v10i1.78722

Abstract

Since the present data expansion and increase are occurring at an increasingly rapid pace, the solution of adding storage space is not sustainable in the long run. The growing need for storage media can be addressed with lossless compression, which reduces stored data while allowing complete restoration. Huffman remains a potent method for data compression, functioning as a "back end" process and serving as the foundational algorithm in applications, among others, Monkey's PKZIP, WinZip, 7-Zip, and Monkey's Audio. Lossless compression of 16-bit audio requires binary structure adjustments to balance speed and optimal compression ratio. The use of a 4-ary Huffman tree (4-ary) branching procedure to generate binary code generation and to insert a maximum of 2 dummy data symbol variables that are given a binary value of 0 with the condition that if the number of MOD 3 data variables = remaining 2, then two dummy data are added, if the result is the remainder 0 = 1 dummy data, and if the remainder = 1 then it is not required. This process effectively maintains a high ratio level while speeding up the 4-ary Huffman code algorithm's performance in compression time. The results show that the efficiency reaches 95.94%, the ratio is 38%, and the comparison is 1/3 of the Level based on calculations, testing, and comparison with other generations of the Huffman code. The 4-ary algorithm significantly optimizes archived data storage, reducing redundancy to 0.124 and achieving an entropy value of 2.91 across various data types.
Optimization of the Linear Regression Algorithm using GridSearchCV for Rice Crop Production Prediction Imel, Imel; M.Kom (SCOPUS ID: 57216417658), Norhikmah; Wulandari, Irma Rofni; Mustofa, Ali; Larasati, Niken; subektiningsih, subektiningsih
Sistemasi: Jurnal Sistem Informasi Vol 15, No 1 (2026): Sistemasi: Jurnal Sistem Informasi
Publisher : Program Studi Sistem Informasi Fakultas Teknik dan Ilmu Komputer

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32520/stmsi.v15i1.5877

Abstract

Rice production in Central Java Province fluctuates annually, affecting food security and agricultural output distribution. Therefore, accurate prediction methods are essential to assist stakeholders in agricultural planning and strategic decision-making. This study applies the Linear Regression algorithm to predict rice production based on historical data from 2014 to 2023 obtained from the official website of the Central Java Provincial Agriculture and Plantation Office. The model is developed using multiple linear regression with variables including planted area, harvested area, and productivity. The novelty of this study lies in the structured application of hyperparameter tuning using GridSearchCV to optimize Linear Regression performance, as well as the integration of a preprocessing pipeline based on data distribution stabilization to improve accuracy and model generalization. The research process includes data collection, preprocessing, modeling, optimization, model evaluation, and deployment as a web-based application using Streamlit Cloud. GridSearchCV optimization results indicate a cross-validation accuracy of 98.26%, confirming the model’s strong predictive capability. Model evaluation shows an R² value of 0.9754, with MAE of 0.0957, MSE of 0.0307, and RMSE of 0.1753, indicating low prediction errors and stable model performance. The optimized model is implemented as a web application via Streamlit Cloud, enabling direct use by end-users. For future research, it is recommended to incorporate additional variables such as rainfall, temperature, and rice variety, or to compare performance with other algorithms such as Random Forest, Support Vector Regression, or Long Short-Term Memory (LSTM) to further enhance prediction accuracy.