Claim Missing Document
Check
Articles

Found 13 Documents
Search
Journal : eProceedings of Engineering

Prediksi Indeks Harga Saham Menggunakan Self Organizing Map Dan Genetic Programming Lintong Aldiron Sihombing; Rian Febrian Umbara; Izzatul Ummah
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Investasi dalam bidang keuangan adalah penting untuk semua orang. Salah satu investasi keuangan adalah saham. Indeks harga saham merupakan indikator yang menggambarkan pergerakan harga saham dalam suatu periode. Prediksi indeks harga saham dapat dilakukan menggunakan metode gabungan Self Organizing Map (SOM) dan Genetic Programming (GP) yang ditemukan oleh Chih-MungHsu. Self Organizing Map  adalah salah satu metode yang bertujuan untuk mengelompokkan data, kemudian metode Genetic Programming fokus pada salah satu tujuan utama ilmu komputer, yaitu automatic programming. Keluaran dari metode ini adalah sebuah formula aritmatika yang direpresentasikan dalam bentuk pohon (tree).  Metode Self Organizing Map dan Genetic Programming mempresentasikan formula-formula prediksi di setiap cluster. Hasil prediksi dari gabungan metode Self Organizing Map dan Genetic Programming ini dapat diukur keakuratan nya dengan menghitung Root Mean Square Error (RMSE) dan Mean Absolute Persentage Error (MAPE). Error yang didapatkan untuk prediksi Indeks Harga Saham Gabungan (IHSG) dengan menggunakan metode Self Organizing Map dan Genetic Programming untuk data training adalah RMSE = 0.0807 dan MAPE = 13.7536%, data testing RMSE = 0.0682 dan MAPE = 0.12.9248%, data validasi RMSE = 0.0517 dan MAPE = 9.5406%. Sedangkan menggunakan Genetic Programming saja, didapatkan hasil untuk data training, RMSE = 0.4397 MAPE = 95.0631%, data testing RMSE = 0.4454 MAPE = 95.0264%, dan data validasi RMSE = 0.4702 MAPE = 97.4519%. Dengan nilai ini disimpulkan bahwa metode Self Organizing Map dan Genetic Programming tersebut terbukti mampu memprediksi harga penutupan Indeks Harga Saham Gabungan (IHSG) dengan nilai yang cukup akurat. Kata kunci : Indeks harga saham, Self Organizing Map, Genetic Programming.
Implementasi Dan Analisis Algoritma Paralel Fuzzy C-means Clustering Dengan Pendekatan Graphics Processing Units (GPU) Dimas Andika Winarto; Fhira Nhita; Izzatul Ummah
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Data mining adalah metode untuk mengambil informasi pada dataset. Pada data mining teknik clustering mempunyai peran yang penting karena dapat digunakan untuk mengelompokkan penyakit berdasarkan karakteristik yang diderita. Permasalahan pada data medis adalah kesulitan mendapatkan kecepatan waktu eksekusi dan performansi yang baik dalam mengolah data berdimensi tinggi. Fuzzy C-Means Clustering (FCM) adalah algoritma clustering yang pengerjaannya berdasarkan pada logika fuzzy, dimana pengelompokan data berdasarkan pada nilai derajat keanggotaan dan mengizinkan data menjadi anggota lebih dari satu kelompok. Untuk mengatasi permasalahan tersebut maka FCM diimplementasikan dengan pendekatan Graphics Processing Units (GPU) sehingga dapat meningkatkan kecepatan waktu eksekusi dan performansi dibandingkan penerapannya secara sekuensial. Penerapan GPU mengoptimalkan kinerja komputasi karena dapat bekerja secara paralel. Salah satu metode penerapannya dengan menjadikan fungsi perhitungan dalam mencari nilai derajat keanggotaan dijalankan secara paralel di GPU. Hasilnya mampu mempersingkat waktu eksekusi sebesar 10,70287 detik untuk data berdimensi 15.154 dan 4,13423 detik untuk data berdimensi 12.600. Kata kunci: Data Mining, Fuzzy C-Means, paralel, clustering, GPU, Waktu Eksekusi.
Analisis Penyelesaian Traveling Salesman Problem Dengan Metode Brute Force Menggunakan Graphic Processing Unit Andrew Wilson; Yuliant Sibaroni; Izzatul Ummah
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Komputasi paralel sangat dibutuhkan dalam masalah komputasi yang memiliki kompleksitas tinggi sehingga dapat dikerjakan dalam waktu yang cepat. Komputasi paralel membutuhkan hardware yang memiliki kinerja tinggi dan software yang memadai untuk mengeksekusi algoritma secara parallel. Salah satu pendekatan komputasi paralel adalah Graphic Processing Unit (GPU) Computing, dimana dalam sebuah GPU terdapat banyak thread yang mampu ditugaskan secara paralel. Brute Force adalah teknik pemecahan masalah yang sangat umum dan dapat digunakan untuk menyelesaikan masalah komputasi untuk menemukan jalur terbaik. Brute Force bekerja dengan meng-enumerasi semua kandidat kemungkinan yang ada, sehingga menghasilkan solusi yang terbaik. Pada penelitian ini akan diimpelementasikan Brute Force dengan teknik Exhaustive Search pada GPU, dan menganalisis jumlah threadProcess pada setiap thread dan pengaruh block dan thread pada GPU. Setelah dilakukan penelitian dan uji statistik, didapatkan bahwa Perubahan threadProcess yang semakin besar akan mengakibatkan persentase penurunan waktu semakin besar dan juga semakin banyak threadProcess maka kecepatan komputasi GPU akan menuju satu titik, karena kecepatan komputasi pada device GPU telah mencapai titik maksimal. Pada percobaan yang dilakukan, GPU akan mengungguli kinerja CPU ketika jumlah maxCity>10. Kemudian terdapat perbedaan waktu yang signifikan antara threadProcess 1 dan threadProcess 2 sebesar 41.35%, hal ini disebabkan karena device GPU tersebut tidak dipakai secara maksimal. Untuk presentase penurunan waktu terbesar ketika menggunakan metode parallel adalah ketika user mampu menemukan kombinasi thread dan block yang pas, karena penambahan jumlah thread dan block tidak selalu menjamin penurunan kecepatan waktu pencarian, dimana waktu pencarian akan mencapai titik konvergen. Kata kunci : TSP, Brute Force, GPU, CUDA.
Perancangan Dan Analisis Jaringan Virtual Berbasis Software-define Networking (SDN) Desianto Abdillah; Yuliant Sibaroni; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pada saat ini perkembangan teknologi sangatlah pesat, tidak terkecuali pada jaringan komputer. Pada perkembangan teknologi ini muncul lah ide baru atau konsep baru yaitu Software-Define Networking (SDN). Software-Define Networking (SDN)   adalah sebuah konsep pendekatan baru untuk mendesain, membangun dan mengelola jaringan komputer dengan memisahkan control plane dan data plane. Konsep utama pada SDN adalah sentralisasi jaringan dengan semua pengaturan berada pada control plane. Dalam SDN terdapat protokol yang paling menonjol yaitu OpenFlow. OpenFlow adalah sebuah protokol atau standar komunikasi antarmuka yang berada antara control dan forwarding layer. Pada tugas akhir ini akan disimulasikan jaringan SDN pada jaringan virtual. Simulasi jaringan virtual SDN ini menggunakan sebuah tool atau aplikasi yaitu Mininet. Mininet merupakan aplikasi yang berbasis light-weight virtualization yang dapat menciptakan jaringan virtual yang realistik, menjalankan real kernel, switch dan kode aplikasi. Hasil penelitian menunjukkan konsep jaringan SDN berjalan, mengukur kinerja dari jaringan SDN seperti delay, jitter dan throughput dengan beberapa skenario topologi yaitu 2 switch, 4 switch , 8 switch dan 16 switch. Kata kunci : SDN , OpenFlow, Mininet, delay, jitter, throughput
Real-time Rendering Dan Kompresi Video Paralel Menggunakan Algoritma Huffman Hanif Wicaksono; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Video sebagai salah satu komponen multimedia memegang peranan penting sebagai bentuk informasi visual. Namun kendala terbesar adalah besarnya tempat penyimpanan file. Masalah kedua yang sering dihadapi adalah saat proses kompresi memakan waktu yang cukup lama karena itu digunakan Parallel computing untuk menyelesaikannya. Di dalam tugas akhir ini dibahas penggunaan metode Huffman Code untuk kompresi dengan jumlah data yang besar, yaitu pada sebuah Frame Video dengan menggunakan nilai intensitas warna pada setiap pixel sebagai data dan letak pixel sebagai dimensi matriks. Data yang diamati adalah kecepatan proses kompresi, rasio antara jumlah bit sebelum dan sesudah kompresi, dan perbedaannya menggunakan serial (sekuensial) dan Parallel computing (paralel). Hasil menunjukkan bahwa kecepatan proses kompresi untuk 1 frame membutuhkan waktu sekitar 8 menit sedangkan proses kompresi untuk 1 frame dengan Parallel computing membutuhkan waktu sekitar 4 menit. Sedangkan rasio kompresi antara sekuensial dan paralel sama sekitar 89,82% dan 95,71%. Kata kunci: Pemampatan (kompresi), kode huffman, rendering, Paralel, Skuensial
Implementasi Density Based Clustering Menggunakan Graphics Processing Unit (GPU) Dede Nofrianda Utama; Fhira Nhita; Izzatul Ummah
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Data merupakan sumber informasi yang berguna untuk kelangsungan hidup manusia. Untuk menjadikan data tersebut bermanfaat, diperlukan suatu metode yang dapat menggali informasi penting dari data yang ada. Salah satu metode penarikan informasi dari sekumpulan data dikenal dengan Data Mining. Teknik menambang informasi pada Data Mining pun beragam, salah satunya Clustering. Clustering merupakan metode pengelompokkan data yang memiliki kesamaan atribut kedalam satu kelompok dengan aturan tertentu. Pada penelitian ini algoritma Clustering yang digunakan adalah Density Based Spatial Clustering Application with Noise (DBSCAN). DBSCAN merupakan algoritma Cluster yang bersifat density-based, yaitu mengelompokkan data berdasarkan kepadatannya ke dalam satu kelompok, dan data yang jarang pada kelompok lainnya. Untuk mengelompokkan data dengan dimensi yang tinggi, diperlukan perangkat yang dapat meminimalkan biaya komputasi. GPU (Graphics Processing Unit) memungkinan mengolah data dengan dimensi tinggi dalam waktu yang singkat. Jika GPU dikombinasikan dengan DBSCAN pengelompokkan data dapat menghasilkan performansi kerja algoritma yang baik dengan akurasi yang tinggi serta biaya komputasi yang minimum. Salah satu metode penerapan GPU pada DBSCAN dengan melakukan perhitungan jarak antar data secara paralel di GPU. Hasil perhitungan ini mampu menghemat biaya komputasi rata – rata sebesar 0,9734 detik untuk data dengan dimensi 15154 dan 0,063 detik untuk data dengan dimensi 12600. Selain itu pada evaluasi performansi, GPU menghasilkan nilai yang cukup baik dibandingkan dengan algoritma serialnya. Kata kunci : Data Mining, Clustering, Density Based Spatial Clustering Application with Noise (DBSCAN) , density based, GPU (Graphics Processing Unit) .
Analisis Implementasi Low Cost Cluster- High Performance Computing Tiara Nursyahdini; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Bidang komputasi mengalami kemajuan yang sangat signifikan setiap tahunnya, semua hal tersebut dibuat untuk satu tujuan, membuat ukuran perangkat semakin compact yang digunakan untuk pengolahan data yang semakin besar. Kebutuhan akan komputer berkinerja tinggi yang sangat erat hubungannya dengan supercomputer dan massively parallel processors (MPP) menurut beowulf telah dapat dipenuhi oleh komputer cluster. Supercomputer and MPP sangat kompleks untuk dikembangkan dan membutuhkan biaya yang besar, sedangkan komputer cluster dapat dibangun dari komputer-komputer sebagai node dengan harga yang lebih murah dengan jaringan berkecepatan tinggi. Perangkat lama yang semakin ditingggalkan dan menjadi tumpukan menjadi ide untuk memanfaatkan beberapa perangkat komputer lama menjadi satu kesatuan (pararel) yang memiliki performa lebih tinggi. Kinerja komputer secara pararel akan meningkatkan waktu komputasi, hal ini lah yang menjadi dasar dibuatnya komputer cluster. Penelitian tugas akhir ini akan membahas bagaimana low cost cluster dapat digunakan untuk mengerjakan kasus komputasi kinerja tinggi, dalam hal ini rendering animasi. Pada rendering, mutlak membutuhkan kinerja komputer yang mumpuni. Jika sekuel Lord of The Ring dikerjakan dengan personal computer (PC) yang tercepat saat ini, dibutuhkan waktu lebih dari 10 tahun untuk menyelesaikan proses rendering. Bagi para artis grafis 3D atau animator, hal yang paling menyita waktu adalah menunggu proses rendering. Di Indonesia sendiri, produsen animasi rumahan sudah mulai menggeliat, membuat renderfarm sederhana yang berbiaya rendah, akan jadi pilihan yang efisien daripada menyewa atau membeli sejumlah komputer server yang berbiaya tinggi. Penelitian ini menggunakan PC desktop sejumlah 32 node, dengan 1 master untuk membuat renderfarm. Sistem operasi yang digunakan adalah Linux, dengan rendering tools yaitu blender dan brender. Hasil dari penelitian ini menunjukkan bahwa peningkatan jumlah node dua kali lipat tidak linear dengan peningkatan waktu komputasi. Speed up terbaik pada ray tracing rendering didapat pada kenaikan 4 node menjadi 8 node, yaitu 93%, speed up cycles rendering terbaik terdapat pada peningkatan 8 node menjadi 16 node yaitu sebesar 91%, dan speed up motion capture terbaik ada pada peningkatan 16 node menjadi 32 node, yaitu sebesar 95%. Kata kunci : komputer cluster, komputasi kinerja tinggi, rendering, renderfarm, blender, brender.
Analisis Implementasi Csr-adaptive Pada Perkalian Matriks Jarang Dengan Vektor Menggunakan Gpu - Cuda Iksandi Lojaya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Perkalian antara matriks jarang dengan vektor merupakan kernelpaling penting dalam pemrosesan matriks jarang. Sebelum diproses, matriks jarang umumnya akan disimpan menggunakan skema penyimpanan khusus, salah satunya adalah Compressed Sparse Row(CSR). Kemampuannya CSR untuk merepresentasikan segala jenis matriks jarang secara efisien membuat skema ini menjadi skema paling populer. Sayangnya, implementasi CSR menggunakan GPU menghasilkan kinerja yang kurang memuaskan dikarenakan akses memori tak berkesinambungan (uncoalesced) dan minimnya pemrosesan secara paralel.CSR-Adaptive adalah metode yang mampu menjadi jawaban atas kekurangan implementasi CSR terdahulu. Selagi dapat mengakses memori secara berkesinambungan, CSR-Adaptive juga dapat memaksimalkan pemrosesan secara paralel. Implementasinya memberikan rata-rata peningkatan kecepatan hingga 23.7 kali lipat dibandingkan dengan implementasi CSR terdahulu. Dalam penelitian ini akan dianalisis kinerja dari implementasi CSR-Adaptive yang memanfaatkan teknologi CUDA pada GPU. Kata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalescedKata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalesced
Real-time Rendering Dan Kompresi Video Paralel Menggunakan Algoritma Lempel-ziv-welch (LZW) Achmad Muhammad Satrio Wibowo; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Seiring dengan berkembangnya teknologi, video disimpan dalam bentuk file. Namun sering kali file-file video tersebut berukuran relatif besar, sehingga menyulitkan dalam hal penyimpanan data (storage) dan dalam hal pengiriman data itu sendiri. Salah satu solusi untuk memperkecil ukuran file tersebut adalah dengan melakukan kompresi video. Dalam tugas akhir ini, proses kompresi dilakukan secara paralel. Dengan itu diharapkan mampu membantu performa dalam proses kompresi, khususnya dalam hal kecepatan. Algortima yang digunakan untuk kompresi video adalah algortima LZW. Kata kunci : kompresi, kompresi video, lzw, paralel.
Real-time Rendering Dan Kompresi Video Paralel Dengan Menggunakan Algoritma Run-length Encoding (rle) Yunasz Praditya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pengolahan citra semakin dibutuhkan untuk pengoptimalan waktu dan ukuran sebuah citra digital dalam dunia teknologi saat ini. Dengan adanya sebuah algoritma kompresi dapat memperkecil ukuran penyimpanan suatu citra digital. Namun, beberapa algoritma yang digunakan memakan banyak waktu untuk menyelesaikan proses kompresi pada sebuah semakin mengoptimalkan waktu kompresi. Penggunaan kompresi pada real-time rendering and compression ini menggunakan algoritma Run Length Encoding (RLE) karena algoritma ini sangat mudah, dengan prinsip kerjanya yaitu mencari piksel citra digital yang bertetanggaan dan menghitung jumlah panjang piksel sama yang bertetanggan. Hasil pengujian yang diharapkan yaitu real-time rendering and compression menggunakan algoritma kompresi RLE melalui parallel computing akan mengoptimalkan waktu dan ukuran data pada hasil kompresi. Kata Kunci : Kompresi, Run Length Encoding (RLE), Citra digital, Parallel Computing, Rendering