cover
Contact Name
-
Contact Email
-
Phone
-
Journal Mail Official
juti.if@its.ac.id
Editorial Address
Gedung Teknik Informatika Lantai 2 Ruang IF-230, Jalan Teknik Kimia, Kampus ITS Sukolilo, Surabaya, 60111
Location
Kota surabaya,
Jawa timur
INDONESIA
JUTI: Jurnal Ilmiah Teknologi Informasi
ISSN : 24068535     EISSN : 14126389     DOI : http://dx.doi.org/10.12962/j24068535
JUTI (Jurnal Ilmiah Teknologi Informasi) is a scientific journal managed by Department of Informatics, ITS.
Arjuna Subject : -
Articles 399 Documents
KLASTERISASI DOKUMEN MENGGUNAKAN WEIGHTED K-MEANS BERDASARKAN RELEVANSI TOPIK Muhammad Riduwan; Chastine Fatichah; Anny Yuniarti
JUTI: Jurnal Ilmiah Teknologi Informasi Vol. 17, No. 2, Juli 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i2.a892

Abstract

Jumlah penelitian di dunia mengalami perkembangan yang pesat, setiap tahun berbagai peneliti dari penjuru dunia menghasilkan karya ilmiah seperti makalah, jurnal, buku dsb. Metode klasterisasi dapat digunakan untuk mengelompokkan dokumen karya ilmiah ke dalam suatu kelompok tertentu berdasarkan relevansi antar topik. Klasterisasi pada dokumen memiliki karakteristik yang berbeda karena tingkat kemiripan antar dokumen dipengaruhi oleh kata-kata pembentuknya. Beberapa metode klasterisasi kurang memperhatikan nilai semantik dari kata. Sehingga klaster yang terbentuk kurang merepresentasikan isi topik dokumen. Klasterisasi dokumen teks masih memiliki kemungkinan adanya outlier karena pemilihan fitur teks yang tidak optimal. Oleh karena itu dibutuhkan pemrosesan data yang tepat serta metode yang mengoptimalkan hasil klaster. Penelitian ini mengusulkan metode klasterisasi dokumen menggunakan Weighted K-Means yang dipadukan dengan Maximum Common Subgraph. Weighted k-means digunakan untuk klasterisasi awal dokumen berdasarkan kata-kata yang diekstraksi. Pembentukan Weighted K-Means berdasarkan perhitungan Word2Vec dan TextRank dari kata-kata dalam dokumen. Maximum common subgraph merupakan tahap pembentukan graf yang digunakan dalam penggabungan klaster untuk menghasilkan klaster baru yang lebih optimal. pembentukan graf dilakukan dengan perhitungan nilai Word2vec dan Co-occurrence dari klaster. Representasi topik dokumen tiap klaster dapat dihasilkan dari pemodelan topik Latent Dirichlet Allocation (LDA). Pengujian dilakukan dengan menggunakan dataset artikel ilmiah dari Scopus. Hasil dari analisis Koherensi topik menunjukkan nilai koherensi usulan metode adalah 0.532 pada dataset 1 yang bersifat homogen dan 0.472 pada dataset 2 yang bersifat heterogen.
RANCANG BANGUN SISTEM REKOMENDASI RESEP MASAKAN BERDASARKAN BAHAN BAKU DENGAN MENGGUNAKAN ALGORITMA PENYARINGAN BERBASIS KONTEN Yandhy Raka Mulyawan; Caecilia Citra Lestari
JUTI: Jurnal Ilmiah Teknologi Informasi Vol. 17, No. 2, Juli 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i2.a791

Abstract

Banyak ibu rumah tangga yang kebingungan untuk menentukan masakan apa yang akan mereka masak sehingga bahan makanan yang mereka miliki menjadi rusak akibat tidak kunjung dimasak. Sebagian besar ibu rumah tangga mendapatkan ide resep dari website resep karena mudah untuk diakses dan memiliki resep yang cukup lengkap, namun kelemahannya kebanyakan dari website resep tidak memiliki fitur untuk pencarian resep berdasarkan bahan-bahan yang dimiliki. Aplikasi telepon genggam dipilih untuk memecahkan masalah tersebut. Pada penelitian ini penulis akan membuat rancang bangun sistem rekomendasi resep masakan berdasarkan bahan baku dengan menggunakan algoritma penyaringan berbasis konten (CBFA). Algoritma ini merekomendasikan resep yang memiliki kesamaan dengan bahan makanan yang dimasukkan oleh pengguna. Aplikasi dibuat menggunakan file PHP untuk memproses data resep, seperti query data, mengecek data yang sama, menentukan weight serta menghitung dan mengurutkan resep menurut CBFA. Hasil dari pengujian menunjukkan bahwa rekomendasi resep sudah sesuai dengan kekuatan 71%.
CLUSTERING TOPIK PENELITIAN BERBASIS UNSUPERVISED LEARNING UNTUK REKOMENDASI KOLEKSI PUSTAKA DI PERPUSTAKAAN ITS Dini Adni Navastara; Eva Mursidah; Yeni Anita Gonti; Davi Wahyuni; Petrus Damianus Sammy Wiyadi; Wahyu Suadi
JUTI: Jurnal Ilmiah Teknologi Informasi Vol. 17, No. 2, Juli 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i2.a788

Abstract

Perpustakaan ITS adalah salah satu penyedia jasa informasi di ITS.  Berbagai koleksi fisik yang dikelola meliputi buku teks, buku tugas akhir, buku tesis, jurnal, majalah, serta prosiding seminar nasional. Setiap tahunnya, perpustakaan ITS memperoleh alokasi dana untuk  pengadaan buku cetak sebesar 1 M, e-journal sebesar 6 M, dan 300 juta untuk pengadaan e-book. Akan tetapi, dana tidak terserap dengan baik dan feedback untuk pengadaan bahan pustaka ke ULP tidak berjalan maksimal dikarenakan pustakawan mengalami kesulitan ketika melakukan proses seleksi judul-judul bahan pustaka yang akan diajukan ke ULP untuk dibeli. Hal ini menyebabkan bahan pustaka, khususnya buku, yang dibeli kebanyakan tidak sesuai dengan kebutuhan pengguna. Untuk itu diperlukan upaya mencari informasi buku baru sebagai bahan pustaka yang sesuai dengan kebutuhan pengguna berbasis teknologi informasi. Berdasarkan data pengadaan buku di perpustakaan ITS lebih didominasi oleh buku pengembangan yang mendukung referensi publikasi ilmiah. Publikasi ilmiah yang dilakukan oleh para dosen mayoritas merupakan luaran dari penelitian dosen. Oleh karena itu, pada penelitian ini diusulkan klasterisasi tren topik penelitian sebagai rekomendasi pengadaan bahan pustaka di Perpustakaan ITS. Penelitian ini menerapkan konsep text mining yang terdiri dari beberapa tahapan proses yaitu: text preprocessing, proses ekstraksi fitur, proses clustering, dan post-processing. Text preprocessing dilakukan untuk memperbaiki kualitas data teks, sehingga dapat menghasilkan klaster yang relevan dan akurat. Langkah-langkah pada tahap text preprocessing adalah case folding, tokenizing, filtering, dan stemming. Kemudian, dilakukan proses ekstraksi fitur yaitu dengan teknik pembobotan menggunakan Term Frequency dan Inverse Document Frequency (TF-IDF). Fitur-fitur yang dihasilkan pada tahap ekstraksi fitur dilakukan proses clustering menggunakan metode unsupervised learning untuk menghasilkan klaster topik penelitian. Tahap post-processing dilakukan untuk mengevaluasi dan menganalisa hasil klasterisasi tersebut yang selanjutnya digunakan sebagai rekomendasi pengadaan bahan pustaka, khususnya buku.
The Alignment of Business Process In Event Organizer And Enterprise Architecture Using TOGAF Margaretha - Mei Mei; Johanes Fernandes Andry
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a734

Abstract

Event organizer is a company which engaged in event organizing, PR, and advertising. A suitable information systems that fit company's business needs are required so the company can adapt themselves in this globalization era. Information systems had an important role in order to support the company’s business process and its performance. An example of applied information systems that have been widely used by companies is enterprise architecture. Currently, enterprise architecture has been used by many enterprises to be able connect between the planning and the technology implementation to the current business in the company. Enterprise Architecture Planning (EAP) is a method in enterprise architecture which can provides alignment between business and information technology by defining company’s needs. Main components of EAP are data architecture, applications, and technology. The framework that will be used to develop EAP on this research is TOGAF ADM with phases starting from preliminary phase, requirements management, architecture vision, business architecture, information systems architectures, technology architecture, opportunities & solutions, and migration planning. A result on this research will be a blueprint of enterprise architecture model that an event organizer can use in supporting its business. The blueprint contains the current used information systems and the ideal information systems planned by the authors.
KLASIFIKASI KUALITAS PERANGKAT LUNAK BERDASARKAN ISO/IEC 25010 MENGGUNAKAN AHP DAN FUZZY MAMDANI UNTUK SITUS WEB E-COMMERCE Fadli Husein Wattiheluw; Siti Rochimah; Chastine Fatichah
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a820

Abstract

Evaluasi kualitas fungsional dan antar muka situs web e-commerce dari perspektif pengguna sangat penting untuk membangun atau mengembangkan situs web e-commerce yang memenuhi standar kualitas. Namun, untuk menilai kualitas fungsional dan antar muka dari situs web e-commerce sulit untuk didefinisikan sehingga membutuhkan model evaluasi perangkat lunak. Pentingnya evaluasi kualitas situs web e-commerce berdasarkan karakteristik perangkat lunak utnuk dapat dikembangkan dan menyesuaikan standar kualitas perangkat lunak.Penelitian ini mengusulkan sebuah model evaluasi kualitas situs web e-commerce berdasarkan karakteristik pada functional suitability, performance efficiency, reliability dan usability pada ISO/IEC 25010. Pada penelitian ini menggunakan metode Fuzzy Mamdani untuk menilai kualitas dari situs web e-commerce berdasarkan karakteristik dan pembobotan kepentingan karakteristik menggunakan metode Analytical Hierarchy Process. Model yang diusulkan diterapkan ke beberapa situs web e-commerce di Indonesia sebagai studi kasus untuk mengevaluasi tingkat kualitas perangkat lunak. Hasil yang didapat dari model evaluasi dapat membantu pengembang untuk merancang dan menggembangkan situs web e-commerce yang kualitas dengan tingkat accurasy 0,684%.
NOISE DETECTION IN SOFTWARE REQUIREMENTS SPECIFICATION DOCUMENT USING SPECTRAL CLUSTERING Patricia Gertrudis Manek; Daniel Siahaan
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a771

Abstract

Requirements engineering phase in software development resulting in a SRS (Software Requirements Specification) document. The use of natural language approach in generating such document has some drawbacks that caused 7 common mistakes among the engineer which had been formulated by Meyer as "The 7 sins of specifier". One of the 7 common mistakes is noise. This study attempted to detect noise in software requirements with spectral clustering. The clustering algorithm working on fewer dimensions compared to others. The resulting kappa coefficient is 0.4426. The result showed that the consistency between noise prediction and noise assessment made by three annotators is still low.
ANSWERING WHY-NOT QUESTIONS ON REVERSE SKYLINE QUERIES OVER INCOMPLETE DATA Bagus Jati Santoso; Tosca Yoel Connery
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a824

Abstract

        Recently, the development of the query-based preferences has received considerable attention from researchers and data users. One of the most popular preference-based queries is the skyline query, which will give a subset of superior records that are not dominated by any other records. As the developed version of skyline queries, a reverse skyline query rise. This query aims to get information about the query points that make a data or record as the part of result of their skyline query.     Furthermore, data-oriented IT development requires scientists to be able to process data in all conditions. In the real world, there exist incomplete multidimensional data, both because of damage, loss, and privacy. In order to increase the usability over a data set, this study will discuss one of the problems in processing reverse skyline queries over incomplete data, namely the "why-not" problem. The considered solution to this "why-not" problem is advice and steps so that a query point that does not initially consider an incomplete data, as a result, can later make the record or incomplete data as part of the results. In this study, there will be further discussion about the dominance relationship between incomplete data along with the solution of the problem. Moreover, some performance evaluations are conducted to measure the level of efficiency and effectiveness.
Metode Multi-Criteria Iterative Forward Search Untuk Penjadwalan Ujian dan Pengawas Ujian Agus Subhan Akbar; Akhmad Khanif Zyen
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a775

Abstract

Setting Examination schedules to support learning evaluation is crucial. The ideal scheduling for this exam must be able to allocate all related components in the implementation of the test within a predetermined time span. The components of the implementation of an examination in a university include the departments in the faculty, a number of courses and participants, the room used, the time of execution, and the lecturer serving as supervisor. The arrangement of each component of the implementation of the exam needs to be carried out appropriately so there is no collision of the schedule between the participants, the schedule, the room used, and the supervisor in charge. The purpose of this study is to produce an ideal exam scheduling and examination supervisor. The study was conducted by applying the Multi-Criteria Iterative Forward Search from the Academic Information System (SIAKAD) data at the Faculty of Science and Technology, Unisnu Jepara. This research has resulted in a system that is able to create an examination schedule and supervisory schedule that accommodates all factors without conflict, well tested, and applied.
EVALUASI INFRASTRUKTUR TEKNOLOGI INFORMASI DENGAN COBIT 5 DAN ITIL V3 Harfebi Fryonanda; Heru Sokoco; Yani Nurhadryani
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a717

Abstract

Teknologi informasi (IT) dapat memperkuat organisasi. Termasuk Institut Pertanian Bogor (IPB) yang merupakan organisasi pendidikan tinggi. IPB telah memiliki sistem informasi yang terdiri dari 36 aplikasi. Infrastruktur yang memadai merupakan salah satu kunci kesuksesan untuk mendapatkan kinerja dan pelayanan TI yang baik. kebutuhan infrastruktur dapat dipenuhi dengan melakukan evaluasi terhadap tatakelola TI. Penelitian ini melakukan evaluasi tatakelola TI dengan mengukur tingkat kematangan tatakelola TI, dengan menggunakan framework COBIT 5 dan tingkat kepuasan pengguna layanan TI, dengan menggunakan serqual model. Tingkat kematangan TI menggunakan 13 proses pada COBIT 5 yaitu: EDM04,APO01, APO07, APO12, APO13, BAI04, BAI06, BAI09, BAI10, DSS01, DSS03, DSS05, dan MEA01. Tingkat kepuasan pengguna dilihat dari 4 dimensi yaitu: tangibles, reliability, responsiveness, dan assurance. Responden yang pada pengukuran kepuasan layanan TI adalah mahasiswa dan dosen sebanyak 100 responden.  Hasil penelitian ini didapatkan tingkat kematangan tatakelola TI 2 proses berada pada level 0, 8 proses berada pada level 1, dan 3 proses berada pada level 2. Tingkat kepuasan pengguna terhadap layanan TI berada dibawah nilai harapan. Hasil tersebut dianalisis dengan matrik SWOT untuk melihat kekuatan, kelemahan, peluang dan ancaman. Kemudian disusun rekomendasi dengan mengacu kepada ITIL V3 2011
KOMPRESI MULTILEVEL PADA METAHEURISTIC FOCUSED WEB CRAWLER Dian Septiani Santoso; R.V. Hari Ginardi
JUTI: Jurnal Ilmiah Teknologi Informasi Vol 17, No. 1, Januari 2019
Publisher : Department of Informatics, Institut Teknologi Sepuluh Nopember

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12962/j24068535.v17i1.a785

Abstract

Focused Web Crawler merupakan metode pencarian website yang sesuai dengan pencarian yang diinginkan oleh user. Untuk mendapatkan kecocokan yang baik, waktu yang dibutuhkan metode Focused Web Crawler lebih lama dibandingkan dengan metode pencarian web crawler pada umumnya yaitu algoritma Depth First Search (DFS) maupun Breadth First Search (BFS). Untuk mengatasi hal tersebut maka muncul sebuah ide yakni teknik pencarian Focused Web Crawler dengan menggunakan metode metaheuristic pencarian cuckoo yang dipadukan dengan pencarian pada data history pencarian yang disimpan. Namun dengan adanya penyimpanan data pada setiap kali pencarian link maka data akan semakin bertambah. Oleh karena itu diperlukan sebuah cara untuk mengurangi kebutuhan ruang penyimpanan. Cara yang dilakukan untuk mengurangi ruang penyimpanan dan tidak mengurangi nilai informasi dari data penyimpanan sebelumnya adalah dengan melakukan kompresi data. Dalam penelitian ini diusulkan metode kompresi data dengan melakukan kompresi multilevel menggunakan dua metode kompresi yaitu pengurangan prefix dan postfix kata dan kompresi string berbasis kamus dengan melakukan pembuatan indeks kamus kata. Hasil kompresi string kamus kata berupa data encode. Untuk menguji hasil dari kompresi data yaitu dengan melakukan perbandingan hasil pencarian link menggunakan metode Knutt Morris Pratt (KMP) dari data yang belum terkompresi dengan data yang telah terkompresi. Hasilnya didapatkan bahwa maksimum presisi dengan nilai 1 dan recall sebesar 0,73. Dari hasil percobaan metode, didapatkan bahwa rasio kompresi file rata-rata adalah sebesar 36,4%.