Claim Missing Document
Check
Articles

Found 25 Documents
Search

Perbandingan Algoritma Brute Force (bf) Dengan Algoritma Genetika (ag) Menggunakan Pendekatan Komputasi Kinerja Tinggi Erqy Sara Quartian; Fhira Nhita; Fitriyani Fitriyani
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Kemajuan yang terjadi pada bidang komputasi semakin terlihat dengan dikembangkannya berbagai penemuan dalam bidang teknologi, terutama untuk permasalahan yang menggunakan data yang besar sebagai perhitungan, sehingga apabila dilakukan perhitungan secara serial akan cukup memakan waktu. Kerja komputer secara parallel sangatlah mempengaruhi kinerja dari komputasi itu sendiri. Dengan coding yang efektif, maka pekerjaan komputer secara parallel akan memangkas waktu perhitungan algoritma secara signifikan. Penelitian tugas akhir ini akan membahas bagaimana perbandingan yang dihasilkan dari dua algoritma, yaitu Algoritma Genetika (AG) baik secara serial maupun parallel dan Algoritma Brute Force (BF) dengan menggunakan bahasa C yang terdapat pada arsitektur CUDA yang diterapkan pada studi kasus TSP untuk 101 kota. Keunggulan dari penggunaan AG adalah kemampuannya untuk menyimpan individu terbaik dari sekian perulangan yang telah ditentukan sehingga akan didapat individu terbaik pada akhir perhitungan. AG Serial menghasilkan performansi nilai jarak terpendek sebesar 4801.91 dan nilai fitness 0.000208 untuk penggunaan 100 generasi, ukuran populasi sebanyak 100, probabilitas crossover 0.9, dan probabilitas mutasi 0.1 dengan perhitungan waktu 1.19 detik, sedangkan AG Parallel menghasilkan performansi nilai jarak terpendek sebesar 4739,34 dan fitness 0,000211 untuk penggunaan 100 generasi, ukuran populasi sebanyak 150, probabilitas crossover 0.9, probabilitas mutasi 0.5 dengan perhitungan waktu 1.04 detik. Kata kunci : Algoritma Genetika, Algoritma Bruteforce, Trevelling Salesman Problem, High Performance Computing, CUDA Programming.
Real-time Rendering Dan Kompresi Video Paralel Menggunakan Algoritma Huffman Hanif Wicaksono; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Video sebagai salah satu komponen multimedia memegang peranan penting sebagai bentuk informasi visual. Namun kendala terbesar adalah besarnya tempat penyimpanan file. Masalah kedua yang sering dihadapi adalah saat proses kompresi memakan waktu yang cukup lama karena itu digunakan Parallel computing untuk menyelesaikannya. Di dalam tugas akhir ini dibahas penggunaan metode Huffman Code untuk kompresi dengan jumlah data yang besar, yaitu pada sebuah Frame Video dengan menggunakan nilai intensitas warna pada setiap pixel sebagai data dan letak pixel sebagai dimensi matriks. Data yang diamati adalah kecepatan proses kompresi, rasio antara jumlah bit sebelum dan sesudah kompresi, dan perbedaannya menggunakan serial (sekuensial) dan Parallel computing (paralel). Hasil menunjukkan bahwa kecepatan proses kompresi untuk 1 frame membutuhkan waktu sekitar 8 menit sedangkan proses kompresi untuk 1 frame dengan Parallel computing membutuhkan waktu sekitar 4 menit. Sedangkan rasio kompresi antara sekuensial dan paralel sama sekitar 89,82% dan 95,71%. Kata kunci: Pemampatan (kompresi), kode huffman, rendering, Paralel, Skuensial
Analisis Implementasi Low Cost Cluster- High Performance Computing Tiara Nursyahdini; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Bidang komputasi mengalami kemajuan yang sangat signifikan setiap tahunnya, semua hal tersebut dibuat untuk satu tujuan, membuat ukuran perangkat semakin compact yang digunakan untuk pengolahan data yang semakin besar. Kebutuhan akan komputer berkinerja tinggi yang sangat erat hubungannya dengan supercomputer dan massively parallel processors (MPP) menurut beowulf telah dapat dipenuhi oleh komputer cluster. Supercomputer and MPP sangat kompleks untuk dikembangkan dan membutuhkan biaya yang besar, sedangkan komputer cluster dapat dibangun dari komputer-komputer sebagai node dengan harga yang lebih murah dengan jaringan berkecepatan tinggi. Perangkat lama yang semakin ditingggalkan dan menjadi tumpukan menjadi ide untuk memanfaatkan beberapa perangkat komputer lama menjadi satu kesatuan (pararel) yang memiliki performa lebih tinggi. Kinerja komputer secara pararel akan meningkatkan waktu komputasi, hal ini lah yang menjadi dasar dibuatnya komputer cluster. Penelitian tugas akhir ini akan membahas bagaimana low cost cluster dapat digunakan untuk mengerjakan kasus komputasi kinerja tinggi, dalam hal ini rendering animasi. Pada rendering, mutlak membutuhkan kinerja komputer yang mumpuni. Jika sekuel Lord of The Ring dikerjakan dengan personal computer (PC) yang tercepat saat ini, dibutuhkan waktu lebih dari 10 tahun untuk menyelesaikan proses rendering. Bagi para artis grafis 3D atau animator, hal yang paling menyita waktu adalah menunggu proses rendering. Di Indonesia sendiri, produsen animasi rumahan sudah mulai menggeliat, membuat renderfarm sederhana yang berbiaya rendah, akan jadi pilihan yang efisien daripada menyewa atau membeli sejumlah komputer server yang berbiaya tinggi. Penelitian ini menggunakan PC desktop sejumlah 32 node, dengan 1 master untuk membuat renderfarm. Sistem operasi yang digunakan adalah Linux, dengan rendering tools yaitu blender dan brender. Hasil dari penelitian ini menunjukkan bahwa peningkatan jumlah node dua kali lipat tidak linear dengan peningkatan waktu komputasi. Speed up terbaik pada ray tracing rendering didapat pada kenaikan 4 node menjadi 8 node, yaitu 93%, speed up cycles rendering terbaik terdapat pada peningkatan 8 node menjadi 16 node yaitu sebesar 91%, dan speed up motion capture terbaik ada pada peningkatan 16 node menjadi 32 node, yaitu sebesar 95%. Kata kunci : komputer cluster, komputasi kinerja tinggi, rendering, renderfarm, blender, brender.
Rendering Animasi Pada Lingkungan Komputasi Kinerja Tinggi Yogi Nugraha; Fitriyani Fitriyani; Nurul Ikhsan
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Render adalah proses perubahan sebuah scene objek yang berbentuk vektor menjadi pixel untuk ditampilkan menjadi file gambar atau video. Untuk merender objek yang memiliki kompleksitas yang tinggi akan memerlukan waktu proses yang lama. Oleh karena itu, render dapat dilakukan secara paralel untuk mempersingkat waktu proses rendering. Proses rendering secara paralel dilakukan pada lingkungan komputasi kinerja tinggi, yaitu pada cluster dan Graphics Processing Unit (GPU). Pada cluster terdapat banyak komputer yang terhubung pada jaringan yang dapat mengerjakan proses render secara bersamaan sehingga waktu prosesnya lebih singkat, dan pada GPU proses render dilakukan pada framebuffer GPU yang memiliki kecepatan lebih tinggi dibandingkan default buffer pada RAM yang dapat mempercepat proses render. Pengujian pada network render dilakukan dengan blender menggunakan file blender dolphin dengan 1 dan 10 objek untuk dirender dengan jumlah frame kelipatan 100 dari 100 hingga 1000 dan kelipatan 1000 dari 1000 hingga 10000. Hasil menunjukkan waktu render meningkat sesuai dengan bertambahnya jumlah frame, dan apabila render dilakukan dengan lebih banyak prosesor, maka waktu prosesnya membutuhkan waktu yang lebih singkat. Pengujian GPU dilakukan dengan menggunakan OpenGL pada objek dolphin yang sama yang sudah diekspor menjadi file .obj yang didalamnya terdapat koordinat vertex dan polygon untuk kemudian dibaca dan dirender menjadi sebuah objek dolphin. Hasil menunjukkan pada OpenGL GPU waktu proses render lebih singkat dan objek hasil rendernya terlihat lebih halus dan memiliki proporsi warna yang lebih baik dibandingkan pada OpenGL standar, karena pada OpenGL GPU terdapat proses tambahan yaitu shading dan texturing. Kata Kunci : Render, cluster, paralel, blender, OpenGL.
Analisis Implementasi Csr-adaptive Pada Perkalian Matriks Jarang Dengan Vektor Menggunakan Gpu - Cuda Iksandi Lojaya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Perkalian antara matriks jarang dengan vektor merupakan kernelpaling penting dalam pemrosesan matriks jarang. Sebelum diproses, matriks jarang umumnya akan disimpan menggunakan skema penyimpanan khusus, salah satunya adalah Compressed Sparse Row(CSR). Kemampuannya CSR untuk merepresentasikan segala jenis matriks jarang secara efisien membuat skema ini menjadi skema paling populer. Sayangnya, implementasi CSR menggunakan GPU menghasilkan kinerja yang kurang memuaskan dikarenakan akses memori tak berkesinambungan (uncoalesced) dan minimnya pemrosesan secara paralel.CSR-Adaptive adalah metode yang mampu menjadi jawaban atas kekurangan implementasi CSR terdahulu. Selagi dapat mengakses memori secara berkesinambungan, CSR-Adaptive juga dapat memaksimalkan pemrosesan secara paralel. Implementasinya memberikan rata-rata peningkatan kecepatan hingga 23.7 kali lipat dibandingkan dengan implementasi CSR terdahulu. Dalam penelitian ini akan dianalisis kinerja dari implementasi CSR-Adaptive yang memanfaatkan teknologi CUDA pada GPU. Kata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalescedKata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalesced
Analisis Pengolahan Text File Pada Hadoop Cluster Dengan Memperhatikan Kapasitas Random Access Memory (ram) Irvan Nur Aziz; Fitriyani Fitriyani; Kemas Rahmat Saleh Wiharja
eProceedings of Engineering Vol 2, No 2 (2015): Agustus, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Implementasi Hadoop cluster untuk pengolahan data secara terdistribusi dalam skala besar sudah menjadi tren saat ini. Hadirnya hadoop cluster sangat membantu dalam bidang pengolahan data, banyak perusahaan yang mengimplementasikan hadoop cluster seperti facebook, yahoo, dan amazon. Hal ini didasari oleh kelebihan hadoop yang dapat memiliki performansi tinggi dengan menggunakan hardware sederhana. Tujuan dari penelitian ini adalah mengimplementasikan hadoop cluster dengan menggunakan benchmark wordcount sebagai tools untuk mengetahui tingkat performansi dari jenis file text dengan memperhatikan kapasitas Random Access Memory (RAM). Waktu ujicoba yang dihasilkan dari jenis-jenis text file tersebut menunjukan urutan tingkat performansi terbaik dimulai dari jenis text file csv, txt, xlsx, pdf dan yang terakhir adalah jenis file doc. Waktu peningkatan performansi dari semua jenis file tidak mengalami peningkatan yang sama dengan peningkatan kapasitas RAM, pada saat kapasitas RAM ditingkatkan menjadi 100% hasil percobaan menunjukan performansi dari jenis file doc mengalami peningkatan sebesar 4,58%, file pdf sebesar 7,57%, file csv sebesar 8,87%, file xlsx sebesar 8,35% dan file txt sebesar 12,82%. Kata Kunci : Cluster, Hadoop, MapReduce, HDFS, RAM, Bandwidth
Perbandingan Algoritma Velocity Verlet Dengan Algoritma Beeman Pada Simulasi Molecular Dynamics Muchlis Insani; Fitriyani Fitriyani; Nurul Ikhsan
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Simulasi merupakan suatu teknik yang berfungsi untuk merepresentasikan sebuah masalah atau keadaan yang ingin dianalisis. Pada umumnya simulasi dilakukan untuk kondisi-kondisi yang terlalu mahal atau tidak mungkin dilakukan melalui eksperimen. Salah satunya adalah simulasi Molecular Dynamics (MD). MD merupakan simulasi yang biasanya digunakan untuk menyelesaikan masalah yang berbasis hukum fisika dalam kehidupan sehari-hari, seperti gerak partikel, molekul atau protein. Selain itu bisa juga digunakan untuk memprediksi karakteristik zat padat, sampai prediksi lalu lintas. Untuk melakukan simulasi MD dibutuhkan algoritma yang memberikan tingkat akurasi dan efesiensi yang tinggi. Algoritma Velocity Verlet dan algoritma Beeman digunakan untuk mencari kecepatan dan posisi partikel terhadap waktu. Pada tugas akhir ini, kedua algoritma tersebut digunakan untuk melakukan simulasi MD. Parameter input yang digunakan sebesar 32, 108, 256 dan 500. Dengan suhu 0°K, 84,4°K dan 91,8°K. Selama program dijalankan parameter hasil yang akan dicatat berupa Radial Distribution Function (RDF), Mean Square Displacement (MSD) dan suhu aktual. Hasil dibandingkan dengan penelitian yang telah dilakukan sebelumnya [1]. Setelah keluaran yang dihasilkan benar hitung waktu komputasi. Hasil yang didapatkan menunjukan bahwa algoritma Beeman membutuhkan waktu komputasi yang lebih besar dibandingkan dengan algoritma Velocity Verlet pada keadaan jumlah molekul sebesar 500, 856, 1372, 4000 dan 5324. Kata kunci : velocity verlet, beeman, molecular dynamics.
Real-time Rendering Dan Kompresi Video Paralel Dengan Menggunakan Algoritma Run-length Encoding (rle) Yunasz Praditya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pengolahan citra semakin dibutuhkan untuk pengoptimalan waktu dan ukuran sebuah citra digital dalam dunia teknologi saat ini. Dengan adanya sebuah algoritma kompresi dapat memperkecil ukuran penyimpanan suatu citra digital. Namun, beberapa algoritma yang digunakan memakan banyak waktu untuk menyelesaikan proses kompresi pada sebuah semakin mengoptimalkan waktu kompresi. Penggunaan kompresi pada real-time rendering and compression ini menggunakan algoritma Run Length Encoding (RLE) karena algoritma ini sangat mudah, dengan prinsip kerjanya yaitu mencari piksel citra digital yang bertetanggaan dan menghitung jumlah panjang piksel sama yang bertetanggan. Hasil pengujian yang diharapkan yaitu real-time rendering and compression menggunakan algoritma kompresi RLE melalui parallel computing akan mengoptimalkan waktu dan ukuran data pada hasil kompresi. Kata Kunci : Kompresi, Run Length Encoding (RLE), Citra digital, Parallel Computing, Rendering
Desain, Implementasi, Dan Analisis Network Management System (NMS) Berbasis Cacti Anggit Wulandoro; Fitriyani Fitriyani; Galih Nugraha Nurkahfi
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Perkembangan infrastruktur jaringan saat ini sangat pesat, sehingga diperlukan adanya suatu manajemen perangkat jaringan untuk pengelolaannya. Untuk mengelola perangkat jaringan tersebut, dibutuhkan suatu sistem seperti Network Management System (NMS). NMS merupakan suatu sistem untuk mengelola perangkat-perangkat jaringan berbasis Internet Protocol (IP). Untuk menjalankan NMS, dibutuhkan suatu aturan atau protokol yang mendasari sistem tersebut, protokol tersebut adalah Simple Network Management Protocol (SNMP). Protokol SNMP memungkinkan administrator untuk mengelola dan mengatur kinerja perangkat jaringan secara jarak jauh. Pada tugas akhir ini akan diimplementasikan sistem pemantauan jaringan pada cluster yang terdapat di laboratorium High Performance Computing (HPC) Universitas Telkom. Implementasi NMS ini menggunakan sebuah aplikasi yaitu Cacti. Cacti merupakan aplikasi open source yang menyediakan sistem pemberitahuan melalui email, menampilkan hasil dalam bentuk grafik secara harian, mingguan, bulanan bahkan tahunan. Hasil penelitian ini menggambarkan keadaan sistem berdasarkan indikator seperti : bandwith, beban kerja prosesor, dan penggunaan memori. Kata kunci : NMS, Cacti, SNMP.
Algoritma Genetika (ag) Paralel Untuk Menyelesaikan Traveling Salesman Problem (tsp) Menggunakan Message Passing Interface (mpi) Rahadian Rizkina; Fhira Nhita; Fitriyani Fitriyani
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Traveling Salesman Problem baik dikenal sebagai masalah penting optimasi kombinatorial. Tujuannya adalah untuk menemukan jalur terpendek dari sebuah kota awal ke kota tujuan yang setiap kota hanya boleh dilewati tepat satu kali kemudian kembali ke kota awal. Metode untuk memecahkan TSP salah satunya adalah Genetic Algorithm (GA). GA adalah sebuah metode yang dapat menghasilkan solusi dan waktu yang optimal. Meskipun GA adalah metode yang optimal dan pendekatan yang baik untuk TSP namun saat jumlah kota pada TSP meningkat waktu yang dibutuhkan akan semakin besar. Hal ini disebabkan karena perhitungan nilai fitness setiap generasinya akan semakin banyak setiap jumlah kota bertambah. Oleh karena itu akan dibuat sebuah sistem untuk menangani masalah tersebut dengan memparalelkan metode GA. Sistem tersebut akan dijalankan pada Microsoft – MPI menggunakan Parallel Genetic Algorithm agar menghasilkan komplesitas waktu yang optimal. Hasil observasi menunjukan bahwa performa Paralel AG lebih baik daripada Serial AG. Parallel AG pada TSP menghasilkan nilai jarak terpendek sebesar 4697,18 dan nilai fitness 0,000213 untuk penggunaan 100 generasi, ukuran populasi sebanyak 100, probabilitas crossover 0,9 dan probabilitas mutasi 0,1 dengan waktu yang dibutuhkan sebesar 1,67 detik. Sedangkan Serial AG pada TSP menghasilkan nilai jarak terpendek sebesar 4801,91 dan nilai fitness 0,000208 untuk penggunaan 100 generasi, ukuran populasi sebanyak 100, probabilitas crossover 0,9 dan probabilitas mutasi 0,1 dengan perhitungan waktu 5,04 detik. Kata kunci : Traveling Salesman Problem, Genetic Algorithm, Microsoft Cluster