Claim Missing Document
Check
Articles

Found 21 Documents
Search
Journal : eProceedings of Engineering

Analisis Implementasi Csr-adaptive Pada Perkalian Matriks Jarang Dengan Vektor Menggunakan Gpu - Cuda Iksandi Lojaya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Perkalian antara matriks jarang dengan vektor merupakan kernelpaling penting dalam pemrosesan matriks jarang. Sebelum diproses, matriks jarang umumnya akan disimpan menggunakan skema penyimpanan khusus, salah satunya adalah Compressed Sparse Row(CSR). Kemampuannya CSR untuk merepresentasikan segala jenis matriks jarang secara efisien membuat skema ini menjadi skema paling populer. Sayangnya, implementasi CSR menggunakan GPU menghasilkan kinerja yang kurang memuaskan dikarenakan akses memori tak berkesinambungan (uncoalesced) dan minimnya pemrosesan secara paralel.CSR-Adaptive adalah metode yang mampu menjadi jawaban atas kekurangan implementasi CSR terdahulu. Selagi dapat mengakses memori secara berkesinambungan, CSR-Adaptive juga dapat memaksimalkan pemrosesan secara paralel. Implementasinya memberikan rata-rata peningkatan kecepatan hingga 23.7 kali lipat dibandingkan dengan implementasi CSR terdahulu. Dalam penelitian ini akan dianalisis kinerja dari implementasi CSR-Adaptive yang memanfaatkan teknologi CUDA pada GPU. Kata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalescedKata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalesced
Analisis Pengolahan Text File Pada Hadoop Cluster Dengan Memperhatikan Kapasitas Random Access Memory (ram) Irvan Nur Aziz; Fitriyani Fitriyani; Kemas Rahmat Saleh Wiharja
eProceedings of Engineering Vol 2, No 2 (2015): Agustus, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Implementasi Hadoop cluster untuk pengolahan data secara terdistribusi dalam skala besar sudah menjadi tren saat ini. Hadirnya hadoop cluster sangat membantu dalam bidang pengolahan data, banyak perusahaan yang mengimplementasikan hadoop cluster seperti facebook, yahoo, dan amazon. Hal ini didasari oleh kelebihan hadoop yang dapat memiliki performansi tinggi dengan menggunakan hardware sederhana. Tujuan dari penelitian ini adalah mengimplementasikan hadoop cluster dengan menggunakan benchmark wordcount sebagai tools untuk mengetahui tingkat performansi dari jenis file text dengan memperhatikan kapasitas Random Access Memory (RAM). Waktu ujicoba yang dihasilkan dari jenis-jenis text file tersebut menunjukan urutan tingkat performansi terbaik dimulai dari jenis text file csv, txt, xlsx, pdf dan yang terakhir adalah jenis file doc. Waktu peningkatan performansi dari semua jenis file tidak mengalami peningkatan yang sama dengan peningkatan kapasitas RAM, pada saat kapasitas RAM ditingkatkan menjadi 100% hasil percobaan menunjukan performansi dari jenis file doc mengalami peningkatan sebesar 4,58%, file pdf sebesar 7,57%, file csv sebesar 8,87%, file xlsx sebesar 8,35% dan file txt sebesar 12,82%. Kata Kunci : Cluster, Hadoop, MapReduce, HDFS, RAM, Bandwidth
Perbandingan Algoritma Velocity Verlet Dengan Algoritma Beeman Pada Simulasi Molecular Dynamics Muchlis Insani; Fitriyani Fitriyani; Nurul Ikhsan
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Simulasi merupakan suatu teknik yang berfungsi untuk merepresentasikan sebuah masalah atau keadaan yang ingin dianalisis. Pada umumnya simulasi dilakukan untuk kondisi-kondisi yang terlalu mahal atau tidak mungkin dilakukan melalui eksperimen. Salah satunya adalah simulasi Molecular Dynamics (MD). MD merupakan simulasi yang biasanya digunakan untuk menyelesaikan masalah yang berbasis hukum fisika dalam kehidupan sehari-hari, seperti gerak partikel, molekul atau protein. Selain itu bisa juga digunakan untuk memprediksi karakteristik zat padat, sampai prediksi lalu lintas. Untuk melakukan simulasi MD dibutuhkan algoritma yang memberikan tingkat akurasi dan efesiensi yang tinggi. Algoritma Velocity Verlet dan algoritma Beeman digunakan untuk mencari kecepatan dan posisi partikel terhadap waktu. Pada tugas akhir ini, kedua algoritma tersebut digunakan untuk melakukan simulasi MD. Parameter input yang digunakan sebesar 32, 108, 256 dan 500. Dengan suhu 0°K, 84,4°K dan 91,8°K. Selama program dijalankan parameter hasil yang akan dicatat berupa Radial Distribution Function (RDF), Mean Square Displacement (MSD) dan suhu aktual. Hasil dibandingkan dengan penelitian yang telah dilakukan sebelumnya [1]. Setelah keluaran yang dihasilkan benar hitung waktu komputasi. Hasil yang didapatkan menunjukan bahwa algoritma Beeman membutuhkan waktu komputasi yang lebih besar dibandingkan dengan algoritma Velocity Verlet pada keadaan jumlah molekul sebesar 500, 856, 1372, 4000 dan 5324. Kata kunci : velocity verlet, beeman, molecular dynamics.
Real-time Rendering Dan Kompresi Video Paralel Dengan Menggunakan Algoritma Run-length Encoding (rle) Yunasz Praditya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pengolahan citra semakin dibutuhkan untuk pengoptimalan waktu dan ukuran sebuah citra digital dalam dunia teknologi saat ini. Dengan adanya sebuah algoritma kompresi dapat memperkecil ukuran penyimpanan suatu citra digital. Namun, beberapa algoritma yang digunakan memakan banyak waktu untuk menyelesaikan proses kompresi pada sebuah semakin mengoptimalkan waktu kompresi. Penggunaan kompresi pada real-time rendering and compression ini menggunakan algoritma Run Length Encoding (RLE) karena algoritma ini sangat mudah, dengan prinsip kerjanya yaitu mencari piksel citra digital yang bertetanggaan dan menghitung jumlah panjang piksel sama yang bertetanggan. Hasil pengujian yang diharapkan yaitu real-time rendering and compression menggunakan algoritma kompresi RLE melalui parallel computing akan mengoptimalkan waktu dan ukuran data pada hasil kompresi. Kata Kunci : Kompresi, Run Length Encoding (RLE), Citra digital, Parallel Computing, Rendering
Desain, Implementasi, Dan Analisis Network Management System (NMS) Berbasis Cacti Anggit Wulandoro; Fitriyani Fitriyani; Galih Nugraha Nurkahfi
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Perkembangan infrastruktur jaringan saat ini sangat pesat, sehingga diperlukan adanya suatu manajemen perangkat jaringan untuk pengelolaannya. Untuk mengelola perangkat jaringan tersebut, dibutuhkan suatu sistem seperti Network Management System (NMS). NMS merupakan suatu sistem untuk mengelola perangkat-perangkat jaringan berbasis Internet Protocol (IP). Untuk menjalankan NMS, dibutuhkan suatu aturan atau protokol yang mendasari sistem tersebut, protokol tersebut adalah Simple Network Management Protocol (SNMP). Protokol SNMP memungkinkan administrator untuk mengelola dan mengatur kinerja perangkat jaringan secara jarak jauh. Pada tugas akhir ini akan diimplementasikan sistem pemantauan jaringan pada cluster yang terdapat di laboratorium High Performance Computing (HPC) Universitas Telkom. Implementasi NMS ini menggunakan sebuah aplikasi yaitu Cacti. Cacti merupakan aplikasi open source yang menyediakan sistem pemberitahuan melalui email, menampilkan hasil dalam bentuk grafik secara harian, mingguan, bulanan bahkan tahunan. Hasil penelitian ini menggambarkan keadaan sistem berdasarkan indikator seperti : bandwith, beban kerja prosesor, dan penggunaan memori. Kata kunci : NMS, Cacti, SNMP.
Algoritma Genetika (ag) Paralel Untuk Menyelesaikan Traveling Salesman Problem (tsp) Menggunakan Message Passing Interface (mpi) Rahadian Rizkina; Fhira Nhita; Fitriyani Fitriyani
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Traveling Salesman Problem baik dikenal sebagai masalah penting optimasi kombinatorial. Tujuannya adalah untuk menemukan jalur terpendek dari sebuah kota awal ke kota tujuan yang setiap kota hanya boleh dilewati tepat satu kali kemudian kembali ke kota awal. Metode untuk memecahkan TSP salah satunya adalah Genetic Algorithm (GA). GA adalah sebuah metode yang dapat menghasilkan solusi dan waktu yang optimal. Meskipun GA adalah metode yang optimal dan pendekatan yang baik untuk TSP namun saat jumlah kota pada TSP meningkat waktu yang dibutuhkan akan semakin besar. Hal ini disebabkan karena perhitungan nilai fitness setiap generasinya akan semakin banyak setiap jumlah kota bertambah. Oleh karena itu akan dibuat sebuah sistem untuk menangani masalah tersebut dengan memparalelkan metode GA. Sistem tersebut akan dijalankan pada Microsoft – MPI menggunakan Parallel Genetic Algorithm agar menghasilkan komplesitas waktu yang optimal. Hasil observasi menunjukan bahwa performa Paralel AG lebih baik daripada Serial AG. Parallel AG pada TSP menghasilkan nilai jarak terpendek sebesar 4697,18 dan nilai fitness 0,000213 untuk penggunaan 100 generasi, ukuran populasi sebanyak 100, probabilitas crossover 0,9 dan probabilitas mutasi 0,1 dengan waktu yang dibutuhkan sebesar 1,67 detik. Sedangkan Serial AG pada TSP menghasilkan nilai jarak terpendek sebesar 4801,91 dan nilai fitness 0,000208 untuk penggunaan 100 generasi, ukuran populasi sebanyak 100, probabilitas crossover 0,9 dan probabilitas mutasi 0,1 dengan perhitungan waktu 5,04 detik. Kata kunci : Traveling Salesman Problem, Genetic Algorithm, Microsoft Cluster
Evaluasi Kinerja Sparse Matrix-vector Multiplication Menggunakan Format Penyimpanan Csr Dan Bcsr Pada Mpi Akyas Khaqqi Maulana; Fitriyani Fitriyani
eProceedings of Engineering Vol 4, No 1 (2017): April, 2017
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Banyak permasalahan di dunia ini yang dimodelkan dengan matematika dalam proses penyelesaiannya, salah satunya memodelkan dalam bentuk matriks, Banyak penelitian menggunakan matriks jarang yang dihitung menjadi Sparse Matrix-Vector Multiplication (SpMV) dalam benchmarking perangkat keras mereka, dengan tujuan mendapatkan waktu optimal dalam mengeksekusi matriks tersebut, sehingga semakin cepat waktu eksekusinya, akan semakin baik kinerja dari perangkat keras mereka. Untuk mempermudah pemetaan matriks dibutuhkan format penyimpanan yang baik pula, format penyimpanan ini akan berfungsi penuh saat pemetaan matriks dan mempermudah pembacaan suatu matriks yang sudah di konversi dari matriks koordinat,penelitian ini akan menggunakan dua format penyimpanan yaitu CSR dan BCSR. , kinerja kedua format ini di evaluasi dan di jalankan pada personal computer dengan dua mekanisme yaitu secara serial dan parallel, pada mekanisme parallel akan dijalankan dengan protokol komunikasi MPI. Hasil pengujian menggunakan beberapa matriks dengan tipe data yang berbeda-beda dan dengan ukuran baris kolom yang beragam, masing-masing matriks di eksekusi dengan lima iterasi agar mendapatkan hasil yang optimal, masing-masing format penyimpanan menghasilkan hasil yang beragam, disebabkan oleh ukuran matriks dan sebaran data pada matriks koordinat, pada format CSR peningkatan kecepatan sebanyak 229 kali terdapat pada thread 3 menuju thread 4, pada dan pada format BCSR, peningkatan kecepatan 300 kali lebih cepat pada thread 4, namun penurunan kecepatan pada thread 3 untuk setiap matriks, dalam hal ini dapat disimpulkan setiap metode memiliki keunggulan dan kelemahan tersendiri dalam mengeksekusi SpMV. Yaitu pengaruh pada ukuran matriks dan sebaran data pada matriks tersebut. Kata kunci: SpMV, CSR, BCSR, MPI, thread
Implementasi Sistem Grid Computing Berbasis Cluster Di Prodi Ilmu Komputasi Andi Farid Arif Nur; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Grid computing adalah teknologi komputasi terdistribusi yang memanfaatkan sumber daya yang terhubung  melalui  jaringan  komputer  secara  bebas  tapi  terkoordinasi dengan  mekanisme  tertentu. Dengan menyediakan sumber daya yang dapat dipakai bersama dapat mempermudah akses dan meningkatkan Quality of Service. Pembangunan infrastruktur Grid computing tidaklah mudah karena membutuhkan kemampuan dan pengalaman di dalam instalasi dan konfigurasi program berbasis Linux. Tujuan akhir dari penelitian ini, penulis membangun infrastruktur Grid computing berbasis pada cluster yang  akan  dijadikan  sebagai  sumber  daya  back-end  dengan  menggunakan  Globus  Tookit  sebagai midlleware pengalokasian sumber daya. Penelitian ini menggunakan jaringan lokal Universitas Telkom. Kata kunci: grid computing, globus toolkit, cluster
Kriptanalisis Md5 Dengan Menggunakan Pendekatan Komputasi Kinerja Tinggi Rizky Alfiansyah; Fitriyani Fitriyani; Nurul Ikhsan
eProceedings of Engineering Vol 2, No 2 (2015): Agustus, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak MD5 merupakan sebuah algoritma kriptografi hash function yang banyak digunakan sebagai digital signature dari sebuah file atau sebagai enkripsi password dalam database. Salah satu teknik kriptanalisis yang bisa diterapkan untuk menembus enkripsi MD5 adalah exhaustive key search. Kebutuhan performa komputasi tingkat tinggi dari teknik ini akan diatasi dengan penggunaan dua buah GPU kelas high-end (NVIDIA & AMD), dengan kriptanalisis yang diimplementasikan secara paralel dengan menggunakan bahasa CUDA dan OpenCL. Pengujian dilakukan dengan menggunakan 1 s/d 9 digit random string yang berdasar dari 65 macam karakter. Hasil pengujian menunjukkan sebuah high-end GPU memiliki batas kemampuan kriptanalisis hingga 8 s/d 9 digit random string, dengan waktu kriptanalisis terlama mencapai lebih dari 1 minggu. Sedangkan untuk perbandingan performansi, OpenCL pada GPU AMD menghasilkan performa terbaik jika dibandingkan dengan CUDA & OpenCL pada GPU NVIDIA. Kata kunci : MD5, Kriptanalisis, CUDA, OpenCL, GPU.
Paralelisasi Klasifikasi Data Ekspresi Gen Kanker Dengan Algoritma Deep Neural Network Menggunakan Stacked Sparse Autoencoder Aswindo Putra; Jondri Jondri; Fitriyani Fitriyani
eProceedings of Engineering Vol 5, No 3 (2018): Desember 2018
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Penelitian bidang bioinformatika menjadi populer saat ini sebagai solusi bagi dunia medis. Salah satunya klasifikasi penyakit kanker menggunakan data gene expression. Deep learning telah menjadi penelitian yang menarik pada bidang bioinformatika. Banyak penelitian tentang klasifikasi kanker yang diangkat menggunakan deep learning. Klasifikasi menggunakan data gene expression berguna di dunia medis. Karena dapat mengklasifikasikan penyakit hanya menggunakan gen. Penelitian ini mengangkat klasifikasi gene kanker menggunakan metode deep neural network dengan stacked spare autoencoder dan autoencoder sebagai metode extraksinya. Selain itu digunakan juga sparse autoencoder sebagai representasi dari pembelajaran neural network. Ini digunakan untuk mengurangi masalah saat pembelajaran. Fine-tune digunakan sebagai optimasi bobot dan bias untuk jaringan neural network dengan metode gradient descent. Pengklasifikasian hasil dari pembelajaran menggunakan softmax classifier. Data yang digunakan bersumber dari portal of National Center for Biotechnology Information. Jumlah dataset yang digunakan sebanyak 1065 sampel dari 8 kategori kelas untuk beberapa penyakit kanker dan non kanker. Dengan ini diperoleh hasil akurasi tertinggi 97,3 % untuk training dan 92,6 % untuk testing. Paralelisasi dari algoritma ini dapat bekerja dengan baik, dimana efesiensi terhadap waktu komputasi lebih cepat dengan speed up sekitar 13,03 terhadap komputasi sekuensial. Tentunya ini menjadi momentum untuk mengembangkan algoritma neural network lainnya dengan teknik paralelisasi. Kata Kunci : Deep Learning, SSAE, Parallel Computing, High Performance Computing, Cancer Classification, gene expression Nowadays, research in bioinformatics can be one of the popular researches for the medical professional researcher. One of them is the classification using data gene expression. Deep learning has become an interesting research in bioinformatics fields. Many kinds of research about cancer classification are appointed using deep learning. Classification using gene expression dataset is useful in the medical profession. Because it can classify diseases using gene only. This research raised the classification gene expression cancer using deep neural network with stacked sparse autoencoder and autoencoder as an extraction method. In addition, sparse autoencoder is also used as a represented of neural network learning. Fine tuning is used as weight and bias optimization for neural network with gradient descent method. Classification of the learning result using the softmax classifier. This research, the data is sourced from the portal of National Center for Biotechnology Information. With this obtained, the highest accuracy of 97.3% for training and 92,6 % for testing. Parallelization for this algorithm work quite well, this shows to the efficiency of the computation time is faster with speed up 000% for sequential computation. Of course, this research becomes the best moment for other neural network algorithm development with parallelism technique. Keyword: Deep Learning, SSAE, Parallel Computing, High Performance Computing, Cancer Classification, gene expression