Claim Missing Document
Check
Articles

Found 26 Documents
Search

Pengembangan Aplikasi Pendeteksi Potensi Bencana Gunung Berapi Menggunakan Pengklasifikasi Bayesian Liliana, Dewi Yanti
MULTINETICS Vol 1, No 1 (2015): MULTINETICS Mei (2015)
Publisher : POLITEKNIK NEGERI JAKARTA

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32722/multinetics.Vol1.No.1.2015.pp.15-18

Abstract

Letak geografis Indonesia berada di pertemuan dua lempeng yaitu Asia dan Australia, menyebabkan banyak terdapat gunung berapi. Selain itu pegunungan di Indonesia didominasi oleh gunung yang aktif dan berpotensi meletus sewaktu-waktu. Kondisi tersebut mengharuskan warga negara Indonesia, khususnya yang tinggal di sekitar pegunungan berapi aktif tanggap akan bencana letusan gunung berapi. Berkembangnya sains dan teknologi informasi dapat memberi kontribusi dalam rangka mitigasi bencana geologi yang diakibatkan aktivitas vulkanik dalam bentuk aplikasi pendeteksi potensi bencana gunung berapi. Penelitian ini menghasilkan suatu aplikasi pendeteksi status gunung berapi. Data latih yang digunakan diambil dari situs Pusat Vulkanologi dan Mitigasi Bencana Gunung Berapi yang diklasifikasikan dalam tiga status yaitu normal, siaga, dan waspada. Pengklasifikasi Bayesian digunakan karena merupakan metode berbasis probabilitas yang sederhana namun handal. Berdasarkan hasil pengujian jumlah data latih terbesar mencapai tingkat akurasi 90%. Dengan demikian dapat dikatakan bahwa aplikasi pendeteksi potensi bencana gunung berapi memiliki performa yang baik dalam mengklasifikasi status gunung berapi.
PENGENALAN MOTIF SONGKET PALEMBANG MENGGUNAKAN DETEKSI TEPI CANNY, PCA DAN KNN Hasan, Moh Arie; Liliana, Dewi Yanti
MULTINETICS Vol 6, No 1 (2020): Multinetics May (2020)
Publisher : POLITEKNIK NEGERI JAKARTA

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32722/multinetics.Vol6.No.1.2020.pp.1-6

Abstract

Songket Palembang merupakan salah satu jenis songket ciri khas budaya Indonesia yang memiliki berbagai jenis motif. Jenis motif yang beragam menyulitkan orang awam untuk mengenali songket yang memiliki kemiripan motif. Penelitian ini bertujuan untuk mengenali 2 jenis motif songket palembang, yaitu songket bintang berante dan nampan perak. Proses klasifikasi akan melalui 3 tahap yaitu preprosesing, feature extraction dan klasifikasi. Preproses mengubah citra warna songket menjadi citra grayscale. Pada tahap ekstraksi fitur, citra grayscale ditingkatkan kontrasnya dengan histogram equalization dan kemudian menggunakan deteksi tepi Canny untuk mendapatkan pola dari motif songket tersebut. Hasil ekstraksi kemudian dikelompokkan dan diberi label sesuai motifnya dan kemudian diklasifikasikan menggunakan k-Nearest Neighbor. Hasil uji coba diperoleh akurasi tertinggi mencapai 91,67 %. 
Penggalian Data dalam Penentuan Keterkaitan Topik pada Terjemahan Ayat-ayat Al-Qur’an Muflikah, Lailil; Marji, Marji; Liliana, Dewi Yanti
Journal of Natural A Vol 1, No 1 (2013)
Publisher : Fakultas MIPA Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (13.216 KB)

Abstract

Dalam mempelajari isi kandungan Al-Qur’an, seringkali kita hanya membaca dan memahami suatu ayat yang berada dalam satu topik tertentu saja tanpa menyadari adanya ketersinggungan dengan ayat lain dengan topik yang berbeda. Padahal, isi dari suatu ayat seringkali diperjelas pada ayat dan bahkan surat yang berbeda. Oleh karena itu, pada penelitian ini bertujuan melakukan penggalian data dengan cara mengetahui adanya keterkaitan antar topik dalam terjemahan ayat-ayat Al-Qur’an.Adapun metode yang digunakan dalam penelitian ini dengan memadukan dua metode yakni Weighted K-Nearest Neighbour (WKNN) dengan Multiple Direct Hashing and Prunning (M-DHP). WKNN merupakan salah satu dari algoritma klasifikasi yang berfungsi sebagai preprocessing data untuk menentukan topik dalam suatu terjemahan ayat. Sedangkan M-DHP berfungsi sebagai pencarian keterkaitan topik-topik dalam terjemahan ayat Al-Qur’an. Pengujian kinerja penelitian ini dilakukan terhadap penentuan topik dengan mencari nilai precision, recall dan f-measure. Dari hasil pengujian didapatkan nilai rata-rata precision=0.810, recall=0.699 dan f-measure=0.750. Selanjutnya uji coba dilakukan terhadap tingkat kekuatan rule yang dihasilkan. Rule-rule yang dihasilkan memiliki keakuratan tertinggi dengan nilai confidence mencapai 100% dan nilai confiction tak berhingga.
Pengembangan Aplikasi Pendeteksi Potensi Bencana Gunung Berapi Menggunakan Pengklasifikasi Bayesian Dewi Yanti Liliana
MULTINETICS Vol. 1 No. 1 (2015): MULTINETICS Mei (2015)
Publisher : POLITEKNIK NEGERI JAKARTA

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32722/multinetics.v1i1.1030

Abstract

Letak geografis Indonesia berada di pertemuan dua lempeng yaitu Asia dan Australia, menyebabkan banyak terdapat gunung berapi. Selain itu pegunungan di Indonesia didominasi oleh gunung yang aktif dan berpotensi meletus sewaktu-waktu. Kondisi tersebut mengharuskan warga negara Indonesia, khususnya yang tinggal di sekitar pegunungan berapi aktif tanggap akan bencana letusan gunung berapi. Berkembangnya sains dan teknologi informasi dapat memberi kontribusi dalam rangka mitigasi bencana geologi yang diakibatkan aktivitas vulkanik dalam bentuk aplikasi pendeteksi potensi bencana gunung berapi. Penelitian ini menghasilkan suatu aplikasi pendeteksi status gunung berapi. Data latih yang digunakan diambil dari situs Pusat Vulkanologi dan Mitigasi Bencana Gunung Berapi yang diklasifikasikan dalam tiga status yaitu normal, siaga, dan waspada. Pengklasifikasi Bayesian digunakan karena merupakan metode berbasis probabilitas yang sederhana namun handal. Berdasarkan hasil pengujian jumlah data latih terbesar mencapai tingkat akurasi 90%. Dengan demikian dapat dikatakan bahwa aplikasi pendeteksi potensi bencana gunung berapi memiliki performa yang baik dalam mengklasifikasi status gunung berapi.
Pengenalan Motif Songket Palembang Menggunakan Deteksi Tepi Canny, PCA dan KNN Moh Arie Hasan; Dewi Yanti Liliana
MULTINETICS Vol. 6 No. 1 (2020): MULTINETICS Mei (2020)
Publisher : POLITEKNIK NEGERI JAKARTA

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32722/multinetics.v6i1.2700

Abstract

Songket Palembang merupakan salah satu jenis songket ciri khas budaya Indonesia yang memiliki berbagai jenis motif. Jenis motif yang beragam menyulitkan orang awam untuk mengenali songket yang memiliki kemiripan motif. Penelitian ini bertujuan untuk mengenali 2 jenis motif songket palembang, yaitu songket bintang berante dan nampan perak. Proses klasifikasi akan melalui 3 tahap yaitu preprosesing, feature extraction dan klasifikasi. Preproses mengubah citra warna songket menjadi citra grayscale. Pada tahap ekstraksi fitur, citra grayscale ditingkatkan kontrasnya dengan histogram equalization dan kemudian menggunakan deteksi tepi Canny untuk mendapatkan pola dari motif songket tersebut. Hasil ekstraksi kemudian dikelompokkan dan diberi label sesuai motifnya dan kemudian diklasifikasikan menggunakan k-Nearest Neighbor. Hasil uji coba diperoleh akurasi tertinggi mencapai 91,67 %. 
Pengembangan Sistem Pemantauan Sentimen Berita Berbahasa Indonesia Berdasarkan Konten dengan Long-Short-Term Memory Dewi Yanti Liliana; Nadia Nurul Hikmah; Maykada Harjono
Jurnal Teknologi Informasi dan Ilmu Komputer Vol 8 No 5: Oktober 2021
Publisher : Fakultas Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.25126/jtiik.2021854624

Abstract

Kementerian Komunikasi dan Informatika (Kemkominfo) memiliki tugas salah satunya untuk mengawasi konten berita yang beredar di media digital. Dengan terus bertambahnya berita online di internet, Kemkominfo dihadapkan pada permasalahan pengklasifikasian sentimen berita yang masih dilakukan secara manual dengan membaca konten berita satu persatu lalu menangkap sentimen dari berita, yaitu sentimen positif, negatif, atau netral. Hal ini sangat melelahkan dan memakan waktu mengingat volume dan kecepatan pertumbuhan berita setiap harinya semakin masif. Untuk itu diperlukan pengembangan sistem pengklasifikasi sentimen berita daring secara otomatis untuk pemantauan berita berbahasa Indonesia. Sistem pengklasifikasi secara otomatis berbasis machine learning dilakukan dengan membangun model pembelajaran dari korpus berita yang berasal dari situs berita daring. Korpus data tersebut kemudian diproses menggunakan algoritma Long Short-Term Memory (LSTM). LSTM biasa digunakan untuk menangani kasus klasifikasi dalam berbagai bidang khususnya dengan input berupa teks sekuensial. Model LSTM diimplementasikan ke dalam aplikasi berbasis web untuk menentukan jenis dari sentimen berita. Berdasarkan hasil pengujian yang dilakukan, model LSTM yang dibuat memiliki tingkat akurasi sebesar 86%. Dengan demikian implementasi LSTM mampu menjadi suatu solusi untuk mengatasi masalah pengklasifikasian sentimen berita daring secara otomatis untuk pemantauan sentimen berita di Kemkominfo. AsbtractThe Ministry of Communication and Informatics (Kemkominfo) has one duty to monitor news content circulating in digital media. With the increasing number of online news in the internet, Kemkominfo is facing the problem of classifying news sentiment which is still done manually by reading the contents of the news one by one, and then capturing the sentiment of the news; either positive, negative, or neutral. This is very exhausting and time consuming considering the volume and speed of growth of news every day is getting massive. This requires the development of an automatic online news sentiment classification system for monitoring Indonesian news. Machine learning-based automatic classification systems are carried out by building a learning model from a news corpus originating from news sites. The data is then processed using the Long Short Term Memory (LSTM) algorithm. LSTM is commonly used to handle classification in various fields especially in a sequential input. The LSTM model is implemented into a web-based application to determine the types of news sentiment. Based on the results of the tests carried out, the LSTM model created has an accuracy rate of 86%. Thus, the implementation of LSTM is potentially become a solution to overcome the problem of automatic online news sentiment classification for the news content monitoring system at the Ministry of Communication and Information.
Deteksi Wajah Manusia pada Citra Menggunakan Dekomposisi Fourier Dewi Yanti Liliana; Muh. Arif Rahman; solimun solimun
Journal of Natural A Vol 1, No 1 (2013)
Publisher : Fakultas MIPA Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1033.82 KB)

Abstract

Pada dua dekade ini banyak dilakukan penelitian yang berhubungan dengan identifikasi dan pengenalan wajah. Wajah adalah bagian dari manusia dan merupakan bagian yang dapat dibedakan dengan manusia lainnya. Ada beberapa pendekatan dalam penelitian wajah yaitu secara geometri, template, dan karakteristik obyek wajah. Salah satu penelitian berbasis karakteristik obyek wajah adalah dengan menggunakan transformasi avelet. Terdapat kesamaan dan ketidak samaan antara transformasi wavelet dan transformasi Fourier. Dengan memperhatikan keunggulan masing-masing maka penelitian ini memfokuskan diri pada pengenalan obyek wajah menggunakan karakteristik obyek wajah yaitu dengan menggunakan dekomposisi Fourier.
Teknik Kompresi Citra Menggunakan Dekomposisi Nilai Singulir Berbasis Blok Dewi Yanti Liliana; Dian Eka Ratnawati; Marji -
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Kompresi citra merupakan teknik yang sangat penting pada pengolahan citra digital baik untuk penyimpanan maupun untuk transmisi. Citra yang tidak dikompresi memerlukan kapasitas penyimpanan yang besar, sedangkan pengiriman file citra berukuran besar dapat memperlambat laju transmisi data. Penelitian ini mengkompresi citra menggunakan teknik komputasi numerik yaitu dengan mendekomposisi matriks citra menjadi tiga buah matriks; sebuah matriks diagonal dan dua buah matriks ortogonal yang dikenal dengan teknik dekomposisi nilai singulir (DNS). Selanjutnya kompresi akan dilakukan terhadap matriks singulir dari citra dengan cara mereduksi dimensi matriks secara bertahap sampai mencapai nilai rank maksimal. Selain itu citra juga akan dibagi menjadi blok-blok citra dan DNS diterapkan terhadap masing-masing blok dengan tujuan untuk memperbesar rasio kompresi citra. Pengujian kinerja teknik kompresi dilakukan melalui perhitungan rasio kompresi, MSE dan PSNR. Berdasarkan pengujian diperoleh hasil bahwa penggunaan nilai singulir yang semakin sedikit akan menaikkan rasio kompresi. Sedangkan penggunaan blok juga dapat meningkatkan rasio kompresi, namun jumlah blok tidak berpengaruh terhadap hasil kompresi. Kata kunci : kompresi, citra digital, dekomposisi nilai singulir   ABSTRACT Image compression is a very important technique in digital image processing either for storage or for transmission. Uncompressed image requires large storage capacity, while the delivery of large image files can slow the rate of data transmission. This research make use of image compression techniques of numerical computation by decomposing the image matrix into three matrices which are a diagonal matrix and two orthogonal matrices technique known as single value decomposition (SVD). Further compression is performed on a singulir matrix by reducing gradually the dimensional of matrix until reaching the maximum rank value. In addition, the image will be divided into blocks of image and SVD is applied to each block in order to enlarge the image compression ratio. Testing the performance of compression techniques is done through calculation of compression ratio, MSE and PSNR. Based on the testing showed that the use of less singular value will raise the compression ratio. While the use of block can also increase the compression ratio, but the number of blocks did not affect the compression results. Keywords : compression, digital image, singular value decomposition
Optimasi Kompresi File Dengan Menggunakan Gabungan Metode Run-Length-Encoding (RLE), Shannon- Fano Dan Lempel-Ziv-Welch(LZW) Dian Eka Ratnawati; Marji -; Dewi Yanti Liliana
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Permasalahan yang penting dalam dunia teknologi informasi adalah bagaimana cara mengolah data dari informasi-infomasi yang semakin besar dan kompleks, sehingga lebih cepat, mudah, aman, dan efisien baik dalam proses penyimpanannya maupun transfer data. Salah satu cara agar transfer data bisa cepat adalah dengan melakukan kompresi data. Penyimpanan data kedalam  blok bertujuan untuk peningkatan kecepatan dan penghematan tempat penyimpanan[4].  Pada penelitian ini akan dilakukan kompresi terhadap setiap blok dengan  menggunakan metode Run-Length-Encoding (RLE), Shannon- Fano dan Lempel-Ziv-Welch(LZW). Rasio kompresi metode gabungan paling baik dibandingkan dengan ke-3 metode kompresi yang lain. Dari hasil penelitian, rasio kompresi metode Gabungan paling baik ada pada file access dilanjutkan dengan .bmp ,.txt, dan disusul .doc   Kata kunci: blok, Run-Length-Encoding (RLE) ,Shannon- Fano dan Lempel-Ziv-Welch(LZW)  ABSTRACT Issues that are important in the information technology is how to process data from informations that increasingly large and complex, making it fast, easy, secure, and efficient both in storage and data transfer process. One way for fast data transfer is to compress data. Storage of data into blocks aims to increase the speed and storage efficiency [4]. In this research, the compression of each block by using the Run-Length-Encoding (RLE), Shannon-Fano and Lempel-Ziv-Welch (LZW). The stages of research to be conducted in general is to perform design system, making software, carried out tests on the software, and the latter is to conduct an analysis of trial results. Compression ratio combination method is the best compared with  others compression methods. From the results of the study, the compression ratio is the best combination method on file access, followed by. bmp ,txt, and followed. doc   Keywords: blok, Run-Length-Encoding (RLE) ,Shannon-Fano dan Lempel-Ziv-Welch(LZW)
Deteksi Obyek Manusia dengan Particle Swarm Optimization dan Pengklasifikasi Support Vector Machine Dewi Yanti Liliana; M Rahmat Widyanto
Jurnal POINTER Vol 1, No 1 (2010): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Pada paper ini metode Particle Swarm Optimization (PSO) digunakan untuk medeteksi obyek manusia. Proses deteksi diawali dengan ektraksi fitur citra menggunakan metode Haar-wavelet. Proses pelatihan dengan pengklasifikasi Support Vector Machine (SVM). Tahap deteksi dengan PSO dilakukan menggunakan sekumpulan partikel yang tersebar di ruang pencarian dan mengoptimasi fungsi obyektif untuk mendeteksi obyek manusia. Hasil eksperimen pada database gambar sebanyak 50 citra berhasil medeteksi obyek manusia dengan tingkat akurasi 86%. Pendeteksian dengan metode PSO bisa digunakan untuk berbagai aplikasi keamanan dan pengawasan yang memerlukan waktu deteksi cepat.   Kata kunci : particle swarm optimization, deteksi obyek, support vector machine    ABSTRACT In this paper Particle Swarm Optimization (PSO) method  is used to detect human object. The detection process is iniatiated by extracting the image features using Haar-wavelet method. At the training phase the Support Vector Machine (SVM) Classifier is employed. The detection phase by the PSO method is using a group of particles which are spread over the search space and optimizing the objective function to detect human objects. The experiment results in the image database consist of 50 images is successfully detect objects with an accuracy rate of 86%. The Particle Swarm Optimization (PSO) detection can be applied in the surveillance and monitoring application which need a rapid detection.   Keywords : particle swarm optimization, object detection, support vector machine