cover
Contact Name
-
Contact Email
-
Phone
-
Journal Mail Official
-
Editorial Address
-
Location
Kota malang,
Jawa timur
INDONESIA
Jurnal POINTER
Published by Universitas Brawijaya
ISSN : -     EISSN : -     DOI : -
Core Subject : Science,
Jurnal POINTER diterbitkan oleh Program Studi Ilmu Komputer, Jurusan Matematika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Brawijaya Malang. Jurnal POINTER ini terbit dua kali dalam satu tahun, yaitu pada bulan Februari dan September.
Arjuna Subject : -
Articles 20 Documents
Perancangan Struktur File Kompresi Image Dengan Transformasi Wavelet dan Run Length Encoding Marji -; Edy Santoso
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Penyimpanan file image digital telah banyak digunakan dengan berbagai macam format, misalnya Bitmap, JPG, TIFF, GIF, dan lain sebagainya. Penyimpanan ini bertujuan untuk mempertahankan informasi citra, untuk mengurangi kapasitas penyimpanan dan untuk mengurangi kebutuhan bandwidth yang besar jika ditransmisikan. Berbagai macam format file tersebut memilki struktur file dan kebutuhan memori yang berbeda-beda yang pada umumnya terdiri dari header dan data. sebagai contoh Bitmap membutuhkan 54 byte untuk menyimpan header. Pada penelitian ini dirancang struktur file kompresi image dengan transformasi wavelet Haar. Kemudian Koefisien yang dihasilkan oleh transformasi wavelet Haar dikodekan dengan metode RLE. Pada akhir proses dirancang struktur file untuk menyimpan file hasil kompresi yang hanya membutuhkan memori 7 byte. Hasil yang diperoleh masih memiliki keterbatasan yaitu khusus untuk image skala-keabuan (gray-scale). Hasil decompress masih kelihatan bagus dengan volume file yang yang bervariasi terhadap volume file asal. Pada gambar contoh, dengan , image dengan volume 237 KB dikompres menjadi 26 KB (10.97 %) , image dengan volume 246 KB dikompres menjadi 26 KB (10.57 % ), dan image dengan volume 264 KB dikompres menjadi 47 KB (17.8 %).
Optimasi Kompresi File Dengan Menggunakan Gabungan Metode Run-Length-Encoding (RLE), Shannon- Fano Dan Lempel-Ziv-Welch(LZW) Dian Eka Ratnawati; Marji -; Dewi Yanti Liliana
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Permasalahan yang penting dalam dunia teknologi informasi adalah bagaimana cara mengolah data dari informasi-infomasi yang semakin besar dan kompleks, sehingga lebih cepat, mudah, aman, dan efisien baik dalam proses penyimpanannya maupun transfer data. Salah satu cara agar transfer data bisa cepat adalah dengan melakukan kompresi data. Penyimpanan data kedalam  blok bertujuan untuk peningkatan kecepatan dan penghematan tempat penyimpanan[4].  Pada penelitian ini akan dilakukan kompresi terhadap setiap blok dengan  menggunakan metode Run-Length-Encoding (RLE), Shannon- Fano dan Lempel-Ziv-Welch(LZW). Rasio kompresi metode gabungan paling baik dibandingkan dengan ke-3 metode kompresi yang lain. Dari hasil penelitian, rasio kompresi metode Gabungan paling baik ada pada file access dilanjutkan dengan .bmp ,.txt, dan disusul .doc   Kata kunci: blok, Run-Length-Encoding (RLE) ,Shannon- Fano dan Lempel-Ziv-Welch(LZW)  ABSTRACT Issues that are important in the information technology is how to process data from informations that increasingly large and complex, making it fast, easy, secure, and efficient both in storage and data transfer process. One way for fast data transfer is to compress data. Storage of data into blocks aims to increase the speed and storage efficiency [4]. In this research, the compression of each block by using the Run-Length-Encoding (RLE), Shannon-Fano and Lempel-Ziv-Welch (LZW). The stages of research to be conducted in general is to perform design system, making software, carried out tests on the software, and the latter is to conduct an analysis of trial results. Compression ratio combination method is the best compared with  others compression methods. From the results of the study, the compression ratio is the best combination method on file access, followed by. bmp ,txt, and followed. doc   Keywords: blok, Run-Length-Encoding (RLE) ,Shannon-Fano dan Lempel-Ziv-Welch(LZW)
Otomatisasi Pembentukan Judul Dokumen Bahasa Indonesia Menggunakan Metode NBL Pada Kumpulan Dokumen Terklasifikasi Dengan Metode KNN Achmad Ridok
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Pada paper dipaparkan penerapan metode NBL dalam pembentukan judul dokumen bahasa Indonesia secara otomatis pada dokumen yang telah diklasifikasn dengan NBL. Sebelum dibangkitkan judulnya, dokumen uji diklasifikasikan menggunakan metode KNN. Hasil uji coba menunjukkan rata-rata F1 metrik untuk dokumen terkatagori mempunyai nilai lebih baik dari dokumen yang tidak terklasifikasi. Klasifikasi KNN yang digunakan mempunyai rata-rata F1 metrik di atas 0.8 pada k=10. Namun demikian representasi akhir dari kalimat judul belum sepenuhnya dapat dibaca disebabkan adanya anomali pada n-gram dalam menginterpretasikan kalimat bahasa Indonesia.   Kata-kata kunci : NBL, Metode KNN, Judul Otomatis, Ngram
Desain, Implementasi dan Analisa Perfomasi Xen Hypervisor Virtual Machine Monitor Berbasis Linux Untuk Solusi Teknologi Server Di Indonesia Hendarmawan -
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Kebutuhan akan server untuk menangani banyak layanan di bidang teknologi sangat penting. Di sisi lain, kebanyakan dari server sekarang ini, kinerja servisnya tidak lebih dari 15% saja (Ian Pratt, 2006). Hal ini menjadi pertanyaan peneliti bagaimana cara mengatasi permasalahan ini dengan mencoba sebuah teknologi baru. Virtualisasi sistem operasi menjadi menarik dan banyak diteliti karena bisa menjawab pertanyaan terdahulu akan performasi sebuah server. Dengan teknologi virtualisasi ini utilitas akan server bisa ditingkatkan sehingga performasi bisa meningkat secara signifikan.  Salah satu dari virtualisasi server adalah xen virtual machine yang bersifat open source dan menggunakan platform linux sebagai sistem operasinya. Penulis memilih teknologi ini karena xen memiliki kelebihan yang disebut  hypevisor dimana memungkinkan setiap server dalam lingkungan xen berbagi resource hardware tanpa mengganggu resource server yang lain.   Kata Kunci : Hixen, server, virtualisasi, teknologi hypervisor
Penentuan Kelas Area Bencana Lumpur Lapindo Menggunakan Pendekatan Logika Fuzzy Berbasis Spasial Candra Dewi; Bayu Rahayudi
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Penentuan area yang berbahaya dari suatu sumber bencana sangat penting untuk memberikan informasi tentang area yang mungkin terdampak (vulnerability area) bencana tersebut. Dalam analisa tingkat bahaya terhadap bencana alam kadang timbul ketidakpastian/kekaburan yang terkait dengan adanya informasi yang tidak lengkap terhadap lingkungan sistem (vagueness, ambiguitas, fuzziness) dan ketidakpastian dalam pengukuran (ketidakpresisian, fuzziness). Untuk kasus analisa tingkat bahaya yang memiliki informasi yang tidak presisi, salah satu metode standarisasi yang bisa digunakan adalah dengan metode fuzzy. Tujuan dari penelitian ini adalah untuk menerapkan metode fuzzy dalam evaluasi multi kriteria daerah berbahaya Lumpur Lapindo. Hasil yang diperoleh dari penerapan fuzzy dari masing-masing kriteria ini kemudian digunakan untuk menampilkan informasi area berdasarkan tingkat bahaya dengan menggunakan analisa spasial. Perhitungan nilai derajat keanggotan dengan menggunakan fungsi sigmoid naik, sigmoid turun dan fungsi linier naik. Sedangkan untuk analisa sensitifitas, digunakan nilai kriteria pada batas bawah, batas tengah dan batas atas. Berdasarkan hasil analisa spasial diketahui bahwa sekitar 71% area dikategorikan kelas kerawanan rendah (Z3), 27% area dengan kelas kerawanan sedang (Z2), sedangkan kelas keranan tinggi (Z1) dan daerah tidak rawan menempati luasan 5% dan 2% dari total area pemukiman. Dari hasil overlay peta kerawanan ini dengan peta terdampak dapat diketahui bahwa terdapat daerah diluar daerah terdampak yang termasuk dalam kelas kerawanan sedang dan rendah. Dan dari hasil analisa sensitifitas diketahui bahwa zona Z1 dan Z2 tidak begitu sensitif untuk nilai dari batas bawah sampai tengah, zona Z4 tidak begitu sensitif untuk nilai dari batas tengah sampai batas atas, sedangkah Z3 sangat sensitif terhadap perubahan nilai kriteria.   Kata kunci: analisa multi kriteria, analisa spasial, logika fuzzy   ABSTRACT Determining vulnerable area of hot mud volcano is important to provide information on the extent of the areas affected by the hazard. Vulnerability analysis requires consideration of a comprehensive set of factors and balancing of multiple objectives in determining the dangerous level of particular area from a defined hazard source. Vulnerability analysis for natural hazard deals with uncertainty arises due to the lack of information about system behavior (vagueness, ambiguity, fuzziness) and inexactness of measurement (impreciseness, fuzziness). The objectives of this research were to develop multi-criteria evaluation method using fuzzy analysis approach for mud volcano vulnerable area and to develop mud volcano vulnerable map using proposed method in Lapindo Mud area. This research used fuzzy for standardize the criteria of analysis. The calculation of membership degree used sigmoid and linier function. The sensitivity analysis was done at lower, middle and upper value of the range. Base on the spatial analysis was found that low hazardous area (Z3) covered about 71% area, while 27% considered as moderate hazardous area (Z2), 5% as high hazardous area (Z1) and 2% as not impacted area (Z2). Base on sensitivity analysis also found that Z1 and Z2 were not enough sensitive between the lower and middle range, Z2 was not enough sensitive between the middle and upper range, while Z3 was sensitive to the changing of membership degree of criteria.   Keywords: multi criteria analysis, spatial analysis, fuzzy logic
Deteksi Obyek Manusia dengan Particle Swarm Optimization dan Pengklasifikasi Support Vector Machine Dewi Yanti Liliana; M Rahmat Widyanto
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Pada paper ini metode Particle Swarm Optimization (PSO) digunakan untuk medeteksi obyek manusia. Proses deteksi diawali dengan ektraksi fitur citra menggunakan metode Haar-wavelet. Proses pelatihan dengan pengklasifikasi Support Vector Machine (SVM). Tahap deteksi dengan PSO dilakukan menggunakan sekumpulan partikel yang tersebar di ruang pencarian dan mengoptimasi fungsi obyektif untuk mendeteksi obyek manusia. Hasil eksperimen pada database gambar sebanyak 50 citra berhasil medeteksi obyek manusia dengan tingkat akurasi 86%. Pendeteksian dengan metode PSO bisa digunakan untuk berbagai aplikasi keamanan dan pengawasan yang memerlukan waktu deteksi cepat.   Kata kunci : particle swarm optimization, deteksi obyek, support vector machine    ABSTRACT In this paper Particle Swarm Optimization (PSO) method  is used to detect human object. The detection process is iniatiated by extracting the image features using Haar-wavelet method. At the training phase the Support Vector Machine (SVM) Classifier is employed. The detection phase by the PSO method is using a group of particles which are spread over the search space and optimizing the objective function to detect human objects. The experiment results in the image database consist of 50 images is successfully detect objects with an accuracy rate of 86%. The Particle Swarm Optimization (PSO) detection can be applied in the surveillance and monitoring application which need a rapid detection.   Keywords : particle swarm optimization, object detection, support vector machine
Simulasi Model Kecelakaan Sepeda Motor Pada Ruas Jalan dengan Pendekatan GLM (Studi Kasus di Kabupaten Malang) Sobri Abusini; Harnen Sulistio
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstract Models in mathematic is a media to help and that can be used for simplifying a reality, so that it will make an easier understanding on a complexs phenomenon. Transportation models is a model that can be used for explaining the transportation phenomenon with mathematic equation models. Based on the accident data, the number of traffic accident in Malang Residence is considered to be high. Therefore, in this study, the objective is to develop the Generalized Linear Model for motorcycle accident for Malang Residence in East Java Province. Using some statistical analysis it is found that the best-fit motorcycle accident model  is : Where : Acc = 0.009F0.703 exp(-0.334SW - 0.361G + 0.077S)Acc                = number of accident F             = Flow, pcu/hr SW         = shoulder width, m S             = speed, km/hr G            = Gradient (0,1) The model shows that the affecting factors are flow, shoulder width and speed, therefore local government should improve some related factor (flow, shoulder width, Gradient and speed) that can reduce the number of motorcycle accident at crossing road in Malang Residence. Keywords: Model kecelakaan sepeda motor, General Liniearized Model
Klasifikasi Dokumen Berbahasa Indonesia Menggunakan Metode K-NN Achmad Ridok
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Banyaknya dokomen digital sebagai konsekuensi pesatnya perkembangan teknologi informasi membutuhkan suatu cara pengorganisasian dokumen secara efisien. Efisiensi pengorganisasian dokumen tersebut dapat dilakukan dengan cara mengklasifikasikan dokumen berdasaran katagori tertentu. Pada penelitian ini telah dicoba mengembangkan sistem pengelompokan dokumen berbahasa Indonesia menggunakan metode KNN. Sistem yang dikembangkan telah berhasil melakukan pengelompokan dokumen bahasa Indonesia dengan presentase keberhasilan 71.58% pada nilai k=4 sebagai nilai k optimal.   Kata kunci:  Katagori, Pengelompokan Dokumen,  KNN   Abstact The number of digital document as consequence  of growth of information technology require a way to organize the documents efficiently. Organization of the document can be conducted by classification of document  based on certain label. This research have been tried to develop system of subdividing of document of Indonesian language use KNN method. System developed have made a success of subdividing of document of Indonesian by presentase efficacy 71.58% at value of k=4 as value of optimal k. Keywords : Category, classification of document,  KNN
Clipping Objek 3 Dimensi Menggunakan Algoritma Modifikasi Shuterland-Hodgman Edy Santoso; Marji -
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Algoritma modifikasi Sutherland-Hodgman yang telah diteliti sebelumnya hanya bisa menangani beberapa kasus, yaitu clipping terhadap banyak segitiga yang berada di dalam window, kedua segitiga yang memotong satu sisi window dimana bagian segitiga berada di sisi dalam pemotongan  dan ketiga bagian segitiga sisa bukan bagian yang dalam pemotongan, hal ini mengakibatkan hasil clipping kurang halus. Untuk itu perlu dikembangkan algoritma dan implementasi simulasi clipping wajah dengan memodifikasi  dan mengembangkan lagi algoritma Sutherland-Hodgman, sehingga mampu menangani banyak kasus yang kemungkinan terjadi. Penelitian ini membangun sistem simulasi pemotongan (clipping) pada permukaan wajah manusia yang dimodelkan dengan menggunakan kumpulan polygon segitiga yang saling berhubungan. Operasi pemotongan kulit permukaan wajah dapat disimulasikan dengan menggunakan algoritma modifikasi Sutherland-Hodgman. Dari hasil penelitian beberapa kasus yang telah diidentifikasi dapat ditangani dengan baik.   Kata kunci: Pemotongan Permukaan, Polygon segitiga, Algoritma Sutherland-Hodgman.   ABSTRACTAlgorithm modify Sutherland-Hodgman which have been checked previously only can handle some case, that is clipping to many trilateral which reside in window, crosscut trilateral one side of window where trilateral shares reside in side in cutting and third trilateral shares  rest of non part of which in cutting, this matter result result of clipping less smooth. For that require to be developed by simulation implementation and algorithm of clipping face with modifying and developing again algorithm of Sutherland-Hodgman, so that can handle many case which is possibility happened. This Research will develop cutting simulation system (clipping) at surface of modeled human being face by using corps of polygon trilateral which is interaction. Operate for cutting of husk surface of face earn simulation by using algorithm modify Sutherland-Hodgman. From result of research some case which have been identified can handle better.   Keywords: Cutting of Surface, Trilateral Polygon, Algorithm of Sutherland-Hodgman
Klasifikasi Protein Berdasarkan Frekuensi Warna RGB Dengan Metode Naïve Bayes Classifier Endang Wahyu Handamari
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Pengklasifikasian enzim  berdasarkan frekuensi warna RGB,  dimana satu atau lebih frekuensi warna RGB terbesar yang didapat melalui  Discrete Cosine Transform, dipakai sebagai  atribut. Metode pangklasifikasian ini bertujuan untuk memprediksi kelas  sebuah gambar struktur enzim dengan cara mengklasifikasikan gambar tersebut ke dalam salah satu kelas dari beberapa kelas yang tersedia pada  database. Metode untuk melakukan proses klasifikasi ini adalah metode Naive Bayes Classifier, dengan asumsi bahwa setiap atribut bersifat independent. Hasil dari 47 data gambar struktur enzim diperoleh kesalahan minimal 8 pada kombinasi atribut 12 merah(R), 12 hijau(G) dan 12 biru(B) Kata kunci: Atribut, Discrete Cosine Transform, Naive Bayes Classifier     ABSTRACT Classification of enzyme according to frequency of RGB color, one or more the most frequency of RGB color which is got from Discrete Cosine Transform is used as attribute. This classification method has purpose to predict the class of enzyme structure picture by classifying the picture into one of the several classes that available on database. Method for doing this classification process is Naive Bayes Classifier method, with the assumption that each attribute is independent. The result which is got by using 47 data of enzyme structure picture makes at least 8 fault on attribute combination of 12 red (R), 12 green (G) and 12 blue (B).   Keywords: Attribute, Discrete Cosine Transform, Naive Bayes Classifier

Page 2 of 2 | Total Record : 20