Claim Missing Document
Check
Articles

Found 7 Documents
Search

Aplikasi Pendeteksi Dan Analisa Cuaca Menggunakan Metode K-Nearest Neighbor Berbasis Android Jaguari Brawijaya; Felix Djohan; Kristien Margi Suryaningrum
Jurnal Sarjana Teknik Informatika Vol 8, No 2 (2020): Juni
Publisher : Teknik Informatika, Universitas Ahmad Dahlan

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.12928/jstie.v8i1.14623

Abstract

Cuaca adalah faktor penentu dalam kehidupan sehari-hari makhluk hidup, terutama manusia, cuaca sendiri adalah sebuah fenomena alam yang terjadi di atmosfer Bumi. Cuaca adalah suatu aktivitas yang dapat berlangsung selama beberapa hari. Cuaca dengan aktivitas jangka waktu yang lebih lama lebih dikenal sebagai iklim. Cuaca terjadi karena reaksi suhu dan kelembaban yang berbeda antara satu tempat dengan tempat lainnya. Perbedaan ini bisa terjadi karena sudut pemanasan matahari yang berbeda dari satu tempat ke tempat lainnya. Untuk dapat memprediksi cuaca secara praktis untuk menyiapkan diri pada situasi – situasi yang tidak terduga, maka didasari oleh algoritma K-NN ,perhitungan jarak Euclidean dan metode perhitungan RGB untuk penentuan cuaca. Algoritma K-NN sebagai dasar pengambilan keputusan dari variabel yang telah ditentukan, perhitungan jarak Euclidean untuk dasar penentuan serta metode perhitungan RGB untuk ekstraksi fitur dari gambar. Tujuan pembuatan aplikasi ini adalah menghasilkan aplikasi mobile yang dapat memprediksi cuaca dengan kamera dan gambar. Hasil dari penelitian ini aplikasi mobile yang dapat memprediksi cuaca dari gambar ataupun dari kamera yang berhasil sebanyak 64 kali dalam 100 kasus, maka dapat disimpulkan hasil cukup baik.
Pengklasifikasian Berdasarkan Similiaritas pada Abstrak menggunakan Algoritma Vektor Space Model Kristien Margi Suryaningrum
Prosiding Semnastek PROSIDING SEMNASTEK 2019
Publisher : Universitas Muhammadiyah Jakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Kemiripan dokumen pada abstrak dapat digunakan untuk menjadi petunjuk dan contoh mencari informasi yang sama. Tujuan utama aplikasi ini adalah mencari kesamaan sehingga dapat mengurangi waktu. Untuk menggambarkan tingkat kesamaan antar dokumen melalui abstrak, dapat diukur oleh Metode Vector Space Model dan Algoritma Connected Component. Berdasarkan tingkat kesamaan dokumen dapat diklasifikasikan dengan menggunakan Algoritma Connected Component. Aplikasi ini dibangun dengan menggunakan bahasa pemrograman PHP, web server Apache, dan MySql untuk database server. Objek penelitian ini adalah tentang deteksi kesamaan abstrak dari topik Jurnal Teknik Informatika yang telah dikelompokkan. Hasil penelitian ini akan menghasilkan tingkat kesamaan pada abstrak yang dibandingkan.
OPTICAL CHARACTER RECOGNITION JEPANG MENGGUNAKAN MATRIKS POPULASI PIKSEL DAN L1-METRIC Ade Setiawan; Kristien Margi Suryaningrum
Jurnal Ilmiah Teknologi Infomasi Terapan Vol. 4 No. 1 (2017)
Publisher : Universitas Widyatama

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (567.631 KB) | DOI: 10.33197/jitter.vol4.iss1.2017.151

Abstract

[Id]Aksara Hiragana dan Katakana merupakan bahasa yang berasal dari negara Jepang. Bahasa Jepang juga telah menyebar di Indonesia khususnya dalam pembelajaran. Namun dikarenakan bahasa Jepang bukanlah bahasa dari daerah Indonesia dan bukan bahasa Internasional maka bahasa ini sulit dipelajari dan dibaca bagi seorang pemula yang ingin mempelajari bahasa tersebut. Oleh karena itu, diperlukan sebuah sistem yang dapat membaca aksara Jepang. Penelitian ini akan difokuskan pada perancangan aplikasi pengenalan karakter optik aksara Jepang dengan menggunakan fitur matriks populasi piksel dan l1-metric distance dalam melakukan pengenalan pada citra aksara Jepang dimana fitur matriks populasi piksel digunakan untuk mendapatkan fitur dari karakter dan l1-metric distance untuk pengukuran jarak. Serta dalam membangun aplikasi digunakan bahasa pemograman java. ?Proses dalam penelitian ini terdiri dari 4 tahap yaitu pre-processing, segmentasi, ekstrasi fitur, dan pengukuran jarak. Pre-processing dilakukan dengan proses binerisasi. Segmentasi dilakukan dengan segmentasi karakter dalam sebuah kata. Ekstrasi fitur dilakukan untuk mendapatkan fitur dari aksara. Pengukuran jarak dilakukan untuk menghitung selisih antara data yang diuji dengan data yang terdapat dalam basis data lalu membandingkan dimana jarak yang terkecil merupakan data sampel yang mendekati data uji.Hasil pengujian yang dilakukan dengan fitur matriks populasi piksel dan l1-metric distance menunjukan bahwa 82,61% aksara jepang dengan jenis font yang berbeda dengan data sampel berhasil dikenali. Namun masih 17,39% masih terdapat kegagalan dalam mengenali aksara tersebut. Kegagalan ini dikarenakan proses binerisasi dan segmentasi yang kurang baik dimana proses binerisasi kadang menghilangkan piksel-piksel yang seharusnya tidak hilang dan segmentasi kurang mampu memisahkan per karakter.[En]Hiragana and Katakana is a language that comes from Japan. Japanese language has spread in Indonesia especially in learning. But because of Japanese language is not a language from Indonesia and not International language then this language is difficult to learn and read for a beginner who wants to learn the language. Therefore, it takes a system that can read Japanese script. This research will be focused on design application of optical character recognition of Japanese scriptby using pixel population matrix and l1-metric distance in the introduction of Japanese image where pixel population matrix is used to obtain feature of character and l1-metric distance for distance measurement. And in building applications used java programming language. The process in this research consists of 4 stages of pre-processing, segmentation, feature extraction, and distance measurement. Pre-processing is done by binary process. Segmentation is done by segmenting characters in a word. Feature extraction is done to get the feature of the script. Distance measurements are performed to calculate the difference between the data tested and the data contained in the database and then compare where the smallest distance is the sample data close to the test data. The test results were performed with the pixel population matrix and l1-metric distance indicates that 82.61% japanese characters with different font types with sample data are identified. But still 17.39% there are still failures in recognizing the script. This failure is due to the poor binary and segmentation process where the binary process sometimes removes the pixels that should not be lost and the segmentation is less able to separate per character.
IMPLEMENTASI ALGORITMA HUFFMAN DAN RUN LENGTH ENCODING PADA APLIKASI KOMPRESI BERBASIS WEB Eka Prayoga; Kristien Margi Suryaningrum
Jurnal Ilmiah Teknologi Infomasi Terapan Vol. 4 No. 2 (2018)
Publisher : Universitas Widyatama

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (951.742 KB) | DOI: 10.33197/jitter.vol4.iss2.2018.154

Abstract

[Id]Meningkatnya penggunaan media digital dalam kehidupan sehari-hari secara tidak langsung turut meningkatkan kebutuhan dalam penyimpanan data, oleh karena itu dibutuhkan sebuah metode untuk menangani hal tersebut, salah satunya adalah dengan menerapkan kompresi data. Kompresi adalah teknik dalam memampatkan suatu data untuk menghemat media penyimpanan yang digunakan, selain itu, kompresi pun dapat dimanfaatkan untuk kebutuhan lain, seperti backup data, proses pengiriman data, serta keamanan data. Pemampatan atau kompresi pada umumnya diterapkan pada mesin komputer, karena setiap simbol yang ditampilkan memiliki bit-bit yang berbeda. Penulis menggunakan algoritma Huffman dan Run Length Encoding dalam proses pemampatan yang dilakukan, dimana masukkannya adalah file TXT. Tujuan penelitian ini adalah untuk mengetahui bagaimana implementasi dari gabungan antara kedua algoritma tersebut, selain itu, penelitian ini juga bertujuan untuk mengetahui bagaimana rasio perbandingan ukuran file antara file awal dan file yang terkompresi. Implementasi sistem yang dilakukan memanfaatkan aplikasi berbasis web untuk memudahkan pengguna dalam memanfaatkan fitur sistem yang ada, dimana dalam sistem ini memuat proses kompresi dan dekompresi. Tahapan kompresi digunakan untuk proses pemampatan, dan tahapan dekompresi untuk proses pengembalian file ke bentuk dan ukuran yang semula. Penelitian dilakukan dengan menggunakan 5 data uji, dan menunjukkan ukuran file hasil dekompres tidak seperti semula karena proses kompresi yang bersifat lossy.Kata kunci :Kompresi, TXT, Dekompresi, Huffman, Run Length Encoding[En]Increasing the use of digital media in life indirectly also increases the need for data storage, therefore needed a method to handle it, one of them is by applying data compression. Compression is a technique which compress data to save used storage, in addition, any compression can be used for other needs, such as data backup, data transmission process, and data security. Compression or compression is generally applied to a computer machine, because every symbol displayed has different bits. Writer here used Huffman and Run Length Encoding algorithm in the compression process, where the input is TXT file. The purpose of this study is to find out how the implementation of the combination between the two algorithms, in addition, this study also aims to find out how the ratio of file sizes between the initial file and the compressed file. Implementation of the system made use of web-based applications to facilitate users in utilizing the features of existing systems, which in this system includes the compression and decompression process. The compression stages are used for the compression process, and the decompression stage for the process of returning the file to its original shape and size. The study was conducted using 5 test data, and showed the decompress file size is not as original because the compression process is categorized as lossy
Pemilihan Graphics Processing Unit Nvidia dan AMD Menggunakan Algoritma Simple Additive Weighting Jeffrey Jahja; Rizky Albert Hartono; Kristien Margi Suryaningrum
CogITo Smart Journal Vol 6, No 1 (2020): Cogito Smart Journal
Publisher : Fakultas Ilmu Komputer, Universitas Klabat

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (628.51 KB) | DOI: 10.31154/cogito.v6i1.197.25-37

Abstract

Graphics Processing Unit (GPU) merupakan komponen komputer yang bekerja untuk mengelola grafis pada komputer baik dalam bentuk video, gambar, animasi. Pemilihan Graphics Processing Unit bagi pengguna komputer merupakan hal yang harus diperhatikan demi penggunaan yang maksimal. Penelitian dilakukan bertujuan untuk membangun sistem pengambilan keputusan untuk pemilihan Graphics Processing Unit. Metode yang digunakan dalam penelitian ini adalah (SAW) Simple Additive Weighting. Konsep dari Simple Additive Weighting adalah dengan memberikan bobot pada setiap kriteria yang digunakan kemudian dilanjutkan dengan perangkingan untuk mendapatkan hasil yang sesuai dengan bobot kriteria yang paling sesuaai. Penelitian ini dilakukan dengan urutan analisis, desain, program, serta pengujian. Kesimpulan yang didapat dalam penelitian ini adalah dengan dibuatnya sistem pendukung keputusan untuk pemilihan (GPU) Graphics Processing Unit mempermudah proses pemilihan (GPU) bagi penggunannya.
PENENTUAN RUTE TERPENDEK MENUJU PUSAT PERBELANJAAN DI JAKARTA MENGGUNAKAN ALGORITMA DIJKSTRA Jodi Setiawan; Rezy S. Prakoso; Kristien Margi Suryaningrum
Jurnal Ilmiah Matrik Vol 21 No 3 (2019): Jurnal Ilmiah Matrik
Publisher : Direktorat Riset dan Pengabdian Pada Masyarakat (DRPM) Universitas Bina Darma

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1070.716 KB) | DOI: 10.33557/jurnalmatrik.v21i3.715

Abstract

Abstract : Shopping centers are easy to find in big cities like Jakarta and because there are too many times people are often confused which one to go to, not to mention if people from outside Jakarta come and want to visit a shopping center. The problem to choose a shopping center that encourages researchers to conduct a study to develop applications to find the nearest shopping center using the Dijkstra algorithm that can be used on smartphones in order to make it easier to find and find shopping centers around users. The application was designed using flowchart and UML and was made using Android Studio with the help of the Google Maps API to display maps, display pins, find and display the nearest route using latitude and longitude from Google Maps. Algorithm to calculate and determine the route that must be traversed using the Dijkstra algorithm. The accuracy of the calculation results using the Dijkstra algorithm reaches 93%
Implementasi Algoritma Confix Stripping untuk Pendeteksian Kesalahan pada Tenses Kristien Margi Suryaningrum
AITI Vol 16 No 1 (2019)
Publisher : Fakultas Teknologi Informasi Universitas Kristen Satya Wacana

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (270.307 KB) | DOI: 10.24246/aiti.v16i1.88-98

Abstract

Penelitian ini membahas bagaimana cara melakukan deteksi kesalahan penulisan tenses Bahasa Inggris dengan menggunakan metode stemming. Algoritma yang digunakan untuk melakukan stemming adalah algoritma Confix Stripping. Algoritma Confix-Stripping (CS) berdasarkan pada aturan morfologi bahasa Indonesia yang dikelompokkan menjadi satu dan di-enkapsulasi pada imbuhan, termasuk awalan, akhiran, sisipan, dan kombinasi. Algoritma Confix-Stripping (CS) menggunakan tiga komponen: kumpulan imbuhan, rule-rule, dan kamus. Pada penelitian ini akan dilakukan analisis penerapan algoritma Confix-Stripping (CS) tersebut pada Information Retrieval system. Kalimat yang akan dideteksi dipisahkan menjadi kata per kata untuk kemudian di tentukan posisinya di dalam kalimat. Setelah posisi setiap kata ditentukan, kata yang mendapatkan posisi sebagai verb akan melalui proses stemming untuk mendapatkan bentuk kata dasarnya. Setelah didapatkan kata dasarnya maka bentuknya akan dirubah sesuai dengan bentuk tenses dari kalimat. Penggunaan metode stemming dengan algoritma Confix Stripping dijalankan untuk melakukan deteksi kesalahan penulisan tenses Bahasa Inggris