Claim Missing Document
Check
Articles

Found 29 Documents
Search

Real-time Rendering Dan Kompresi Video Paralel Menggunakan Algoritma Huffman Hanif Wicaksono; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Video sebagai salah satu komponen multimedia memegang peranan penting sebagai bentuk informasi visual. Namun kendala terbesar adalah besarnya tempat penyimpanan file. Masalah kedua yang sering dihadapi adalah saat proses kompresi memakan waktu yang cukup lama karena itu digunakan Parallel computing untuk menyelesaikannya. Di dalam tugas akhir ini dibahas penggunaan metode Huffman Code untuk kompresi dengan jumlah data yang besar, yaitu pada sebuah Frame Video dengan menggunakan nilai intensitas warna pada setiap pixel sebagai data dan letak pixel sebagai dimensi matriks. Data yang diamati adalah kecepatan proses kompresi, rasio antara jumlah bit sebelum dan sesudah kompresi, dan perbedaannya menggunakan serial (sekuensial) dan Parallel computing (paralel). Hasil menunjukkan bahwa kecepatan proses kompresi untuk 1 frame membutuhkan waktu sekitar 8 menit sedangkan proses kompresi untuk 1 frame dengan Parallel computing membutuhkan waktu sekitar 4 menit. Sedangkan rasio kompresi antara sekuensial dan paralel sama sekitar 89,82% dan 95,71%. Kata kunci: Pemampatan (kompresi), kode huffman, rendering, Paralel, Skuensial
Implementasi Density Based Clustering Menggunakan Graphics Processing Unit (GPU) Dede Nofrianda Utama; Fhira Nhita; Izzatul Ummah
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Data merupakan sumber informasi yang berguna untuk kelangsungan hidup manusia. Untuk menjadikan data tersebut bermanfaat, diperlukan suatu metode yang dapat menggali informasi penting dari data yang ada. Salah satu metode penarikan informasi dari sekumpulan data dikenal dengan Data Mining. Teknik menambang informasi pada Data Mining pun beragam, salah satunya Clustering. Clustering merupakan metode pengelompokkan data yang memiliki kesamaan atribut kedalam satu kelompok dengan aturan tertentu. Pada penelitian ini algoritma Clustering yang digunakan adalah Density Based Spatial Clustering Application with Noise (DBSCAN). DBSCAN merupakan algoritma Cluster yang bersifat density-based, yaitu mengelompokkan data berdasarkan kepadatannya ke dalam satu kelompok, dan data yang jarang pada kelompok lainnya. Untuk mengelompokkan data dengan dimensi yang tinggi, diperlukan perangkat yang dapat meminimalkan biaya komputasi. GPU (Graphics Processing Unit) memungkinan mengolah data dengan dimensi tinggi dalam waktu yang singkat. Jika GPU dikombinasikan dengan DBSCAN pengelompokkan data dapat menghasilkan performansi kerja algoritma yang baik dengan akurasi yang tinggi serta biaya komputasi yang minimum. Salah satu metode penerapan GPU pada DBSCAN dengan melakukan perhitungan jarak antar data secara paralel di GPU. Hasil perhitungan ini mampu menghemat biaya komputasi rata – rata sebesar 0,9734 detik untuk data dengan dimensi 15154 dan 0,063 detik untuk data dengan dimensi 12600. Selain itu pada evaluasi performansi, GPU menghasilkan nilai yang cukup baik dibandingkan dengan algoritma serialnya. Kata kunci : Data Mining, Clustering, Density Based Spatial Clustering Application with Noise (DBSCAN) , density based, GPU (Graphics Processing Unit) .
Analisis Implementasi Low Cost Cluster- High Performance Computing Tiara Nursyahdini; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Bidang komputasi mengalami kemajuan yang sangat signifikan setiap tahunnya, semua hal tersebut dibuat untuk satu tujuan, membuat ukuran perangkat semakin compact yang digunakan untuk pengolahan data yang semakin besar. Kebutuhan akan komputer berkinerja tinggi yang sangat erat hubungannya dengan supercomputer dan massively parallel processors (MPP) menurut beowulf telah dapat dipenuhi oleh komputer cluster. Supercomputer and MPP sangat kompleks untuk dikembangkan dan membutuhkan biaya yang besar, sedangkan komputer cluster dapat dibangun dari komputer-komputer sebagai node dengan harga yang lebih murah dengan jaringan berkecepatan tinggi. Perangkat lama yang semakin ditingggalkan dan menjadi tumpukan menjadi ide untuk memanfaatkan beberapa perangkat komputer lama menjadi satu kesatuan (pararel) yang memiliki performa lebih tinggi. Kinerja komputer secara pararel akan meningkatkan waktu komputasi, hal ini lah yang menjadi dasar dibuatnya komputer cluster. Penelitian tugas akhir ini akan membahas bagaimana low cost cluster dapat digunakan untuk mengerjakan kasus komputasi kinerja tinggi, dalam hal ini rendering animasi. Pada rendering, mutlak membutuhkan kinerja komputer yang mumpuni. Jika sekuel Lord of The Ring dikerjakan dengan personal computer (PC) yang tercepat saat ini, dibutuhkan waktu lebih dari 10 tahun untuk menyelesaikan proses rendering. Bagi para artis grafis 3D atau animator, hal yang paling menyita waktu adalah menunggu proses rendering. Di Indonesia sendiri, produsen animasi rumahan sudah mulai menggeliat, membuat renderfarm sederhana yang berbiaya rendah, akan jadi pilihan yang efisien daripada menyewa atau membeli sejumlah komputer server yang berbiaya tinggi. Penelitian ini menggunakan PC desktop sejumlah 32 node, dengan 1 master untuk membuat renderfarm. Sistem operasi yang digunakan adalah Linux, dengan rendering tools yaitu blender dan brender. Hasil dari penelitian ini menunjukkan bahwa peningkatan jumlah node dua kali lipat tidak linear dengan peningkatan waktu komputasi. Speed up terbaik pada ray tracing rendering didapat pada kenaikan 4 node menjadi 8 node, yaitu 93%, speed up cycles rendering terbaik terdapat pada peningkatan 8 node menjadi 16 node yaitu sebesar 91%, dan speed up motion capture terbaik ada pada peningkatan 16 node menjadi 32 node, yaitu sebesar 95%. Kata kunci : komputer cluster, komputasi kinerja tinggi, rendering, renderfarm, blender, brender.
Analisis Implementasi Csr-adaptive Pada Perkalian Matriks Jarang Dengan Vektor Menggunakan Gpu - Cuda Iksandi Lojaya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Perkalian antara matriks jarang dengan vektor merupakan kernelpaling penting dalam pemrosesan matriks jarang. Sebelum diproses, matriks jarang umumnya akan disimpan menggunakan skema penyimpanan khusus, salah satunya adalah Compressed Sparse Row(CSR). Kemampuannya CSR untuk merepresentasikan segala jenis matriks jarang secara efisien membuat skema ini menjadi skema paling populer. Sayangnya, implementasi CSR menggunakan GPU menghasilkan kinerja yang kurang memuaskan dikarenakan akses memori tak berkesinambungan (uncoalesced) dan minimnya pemrosesan secara paralel.CSR-Adaptive adalah metode yang mampu menjadi jawaban atas kekurangan implementasi CSR terdahulu. Selagi dapat mengakses memori secara berkesinambungan, CSR-Adaptive juga dapat memaksimalkan pemrosesan secara paralel. Implementasinya memberikan rata-rata peningkatan kecepatan hingga 23.7 kali lipat dibandingkan dengan implementasi CSR terdahulu. Dalam penelitian ini akan dianalisis kinerja dari implementasi CSR-Adaptive yang memanfaatkan teknologi CUDA pada GPU. Kata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalescedKata Kunci: CSR-Adaptive, Matriks Jarang, CUDA, coalesced
Real-time Rendering Dan Kompresi Video Paralel Menggunakan Algoritma Lempel-ziv-welch (LZW) Achmad Muhammad Satrio Wibowo; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Seiring dengan berkembangnya teknologi, video disimpan dalam bentuk file. Namun sering kali file-file video tersebut berukuran relatif besar, sehingga menyulitkan dalam hal penyimpanan data (storage) dan dalam hal pengiriman data itu sendiri. Salah satu solusi untuk memperkecil ukuran file tersebut adalah dengan melakukan kompresi video. Dalam tugas akhir ini, proses kompresi dilakukan secara paralel. Dengan itu diharapkan mampu membantu performa dalam proses kompresi, khususnya dalam hal kecepatan. Algortima yang digunakan untuk kompresi video adalah algortima LZW. Kata kunci : kompresi, kompresi video, lzw, paralel.
Real-time Rendering Dan Kompresi Video Paralel Dengan Menggunakan Algoritma Run-length Encoding (rle) Yunasz Praditya; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pengolahan citra semakin dibutuhkan untuk pengoptimalan waktu dan ukuran sebuah citra digital dalam dunia teknologi saat ini. Dengan adanya sebuah algoritma kompresi dapat memperkecil ukuran penyimpanan suatu citra digital. Namun, beberapa algoritma yang digunakan memakan banyak waktu untuk menyelesaikan proses kompresi pada sebuah semakin mengoptimalkan waktu kompresi. Penggunaan kompresi pada real-time rendering and compression ini menggunakan algoritma Run Length Encoding (RLE) karena algoritma ini sangat mudah, dengan prinsip kerjanya yaitu mencari piksel citra digital yang bertetanggaan dan menghitung jumlah panjang piksel sama yang bertetanggan. Hasil pengujian yang diharapkan yaitu real-time rendering and compression menggunakan algoritma kompresi RLE melalui parallel computing akan mengoptimalkan waktu dan ukuran data pada hasil kompresi. Kata Kunci : Kompresi, Run Length Encoding (RLE), Citra digital, Parallel Computing, Rendering
Implementasi Pendekatan Graphic Processing Unit (gpu) Approach In Support Vector Machine (SVM) Dan Least Squares Support Vector Machine (ls-svm) Hamnis Rachmat Dhana; Fhira Nhita; Izzatul Ummah
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Data mining adalah metode untuk menggali informasi yang berguna dari dataset. Salah satu teknik dalam data mining adalah klasifikasi. Klasifikasi banyak digunakan pada identifikasi penyakit, biomedical enggineering dan lainnya. Salah satu algoritma yang digunakan untuk klasifikasi adalah Support Vector Machine (SVM). SVM merupakan algoritma untuk melakukan klasifikasi dengan memaksimalkan hyperplane diantara kelas. SVM memiliki banyak variasi seperti Least Square Support Vector Machine (LS-SVM). Proses klasifikasi memerlukan waktu yang lama karena data latih memiliki banyak record dan attribute. Untuk mengatasi masalah tersebut maka SVM dan LS-SVM diimplementasikan menggunakan pendekatan Graphic Processing Unit (GPU) sehingga dapat meningkatkan kecepatan proses komputasi dibandingkan dengan menggunakan processor biasa. Berdasarkan beberapa penelitian tentang kinerja SVM menggunakan GPU seperti pada penelitian yang dilakukan oleh Jesse Patrick Harvey maka dapat dinyatakan bahwa SVM dengan GPU lebih cepat 89×-263× dibandingkan SVM tanpa GPU. Penelitian oleh Jesse Patrick Harvey membuktikan bahwa SVM menggunakan pendekatan GPU memiliki kinerja yang lebih baik dibandingkan dengan SVM tanpa GPU. Pada tugas akhir ini akan dibahas mengenai perbandingan akurasi dan waktu komputasi dari kedua algoritma yang telah disebutkan. Dataset yang digunakan diambil dari http://ntucsu.csie.ntu.edu.tw/~cjlin/libsvmtools/datasets/binary.html. Kata kunci: Classification, record, attribute SVM, LS-SVM, GPU.
Implementasi Sistem Grid Computing Berbasis Cluster Di Prodi Ilmu Komputasi Andi Farid Arif Nur; Fitriyani Fitriyani; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Grid computing adalah teknologi komputasi terdistribusi yang memanfaatkan sumber daya yang terhubung  melalui  jaringan  komputer  secara  bebas  tapi  terkoordinasi dengan  mekanisme  tertentu. Dengan menyediakan sumber daya yang dapat dipakai bersama dapat mempermudah akses dan meningkatkan Quality of Service. Pembangunan infrastruktur Grid computing tidaklah mudah karena membutuhkan kemampuan dan pengalaman di dalam instalasi dan konfigurasi program berbasis Linux. Tujuan akhir dari penelitian ini, penulis membangun infrastruktur Grid computing berbasis pada cluster yang  akan  dijadikan  sebagai  sumber  daya  back-end  dengan  menggunakan  Globus  Tookit  sebagai midlleware pengalokasian sumber daya. Penelitian ini menggunakan jaringan lokal Universitas Telkom. Kata kunci: grid computing, globus toolkit, cluster
Pemrosesan Graf Berskala Besar Secara Paralel Ufra Neshia; Z K Abdurrahman Baizal; Izzatul Ummah
eProceedings of Engineering Vol 3, No 1 (2016): April, 2016
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Masalah pencarian rute terpendek untuk graf statis berskala besar dapat dilakukan dengan menggunakan algoritma yang dijalankan secara paralel. Dua algoritma yang dapat digunakan adalah algoritma Djikstra yang bersifat greedy dan algoritma Bellman-Ford yang menggunakan dynamic programming. Dijkstra lebih sulit diparalelkan namun memiliki waktu eksekusi yang relatif lebih cepat dibandingkan Bellman-Ford yang mudah diparalelkan namun waktu eksekusinya lebih panjang. Optimasi kedua algoritma dilakukan dengan menyimpan data graf dalam bentu Compact Spare Row, dan mendesain algoritma agar membagi data antar prosesor dengan efisien dan meminimalisir komunikasi antar prosesor. Kata Kunci: paralel, shortest path, graf, algoritma Djikstra, algoritma Bellman-Ford, performansi.
Prediction of Narcissistic Behavior on Indonesian Twitter Using Machine Learning Methods Izzatul Ummah
Brilliance: Research of Artificial Intelligence Vol. 3 No. 2 (2023): Brilliance: Research of Artificial Intelligence, Article Research November 2023
Publisher : Yayasan Cita Cendekiawan Al Khwarizmi

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.47709/brilliance.v3i2.3215

Abstract

Social media's explosive expansion in recent years has changed people's behavior, leading to an increase in narcissistic tendencies. Arrogance, the need to flaunt one's accomplishments, the urge to get approval from others, and excessive dreams about success, power, intelligence, attractiveness, and other attributes are characteristics of narcissistic behavior. Social media has evolved into a platform for showcasing accomplishments, particularly for people with narcissistic tendencies. Moreover, narcissistic trait is one of the three characteristics of the dark triad personality type. Several research have demonstrated that a variety of machine learning techniques can be used to predict dark triad personality traits and narcissism from social media posts. As some studies have suggested, this narcissistic behavior can further increase the level of cyberbullying in social media, while also have strong correlation with the use of chatbot for academic cheating. This research aims to build a prediction model for behavioral symptoms of narcissism based on posts on Twitter in Indonesian language, using the natural language processing technique and several basic machine learning methods (Nearest Neighbors, Naïve Bayes, Decision Tree, and Support Vector Machine), and then compare the results. We concluded that SVM model achieved the best performance, with Accuracy = 0.72 and F1 Score = 0.725.