Claim Missing Document
Check
Articles

Found 15 Documents
Search
Journal : eProceedings of Engineering

Analisis dan Implementasi Graph Indexing Pada Graph Database Menggunakan Algoritma GraphGrep Emir Septian Sori Dongoran; Kemas Rahmat Saleh Wiharja; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Graph database adalah basis data yang menggunakan struktur graf untuk merepresentasikan dan mengelola data. Sebagian besar basis data yang digunakan basis data relasional karena penggu naannya yang relatif mudah dan mendukung banyak tipe data. Namun, untuk tipe data tertentu seperti tipe data molekul yang memiliki ciri vertex berlabel dan edge yang tidak berarah, basis data relasional kurang begitu efektif digunakan karena tipe data tersebut memiliki keterkaitan secara independen. Untuk menangani hal tersebut, basis data graf atau biasa disebut graph database adalah solusi yang paling tepat. Pada tugas akhir ini akan mengaplikasikan graph indexing menggunakan algoritma GraphGrep. GraphGrep adalah metode yang paling tepat untuk studi kasus data bertipe molekul. Karena GraphGrep menganggap setiap node yang ada di graph database mempunyai nomor (id-node) dan label (label-node) Sehingga sangat cocok untuk tipe data molekul. GraphGrep menggunakan hash table (fingerprint) sebagai index, membandingkan fingerprint database dengan fingerprint query untuk mem-filter database dan menggunakan algoritma Ullman untuk melakukan subgraph matching. Dari penelitian ini diharapkan mampu menerapkan algoritma GraphGrep pada graph indexing dengan menggunakan dataset bertipe molekul serta menganalisis performansi yang dihasilkan. Kata kunci: graph, graph database, graph indexing, GraphGrep, subgraph matching, backtrack, Ullman
Analisis Dan Implementasi Process Mining Menggunakan Fuzzy Mining (studi Kasus: Dataset Bpi Challenge 2014) Muhammad Agung Agung; Angelina Prima Kurniati; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 2 (2015): Agustus, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Meningkatnya fokus suatu organisasi dan perusahaan dalam mengembangkan proses bisnis untuk mendapatkan proses bisnis yang lebih efektif dan efisien menyebabkan mereka mulai melakukan pengembangan terhadap proses bisnis tersebut. Dengan proses bisnis yang lebih efektif dan efisien, kinerja sistem dari organisasi maupun perusahaan tersebut akan menjadi lebih baik. Salah satu proses bisnis yang terjadi pada Rabobank Netherlands Group ICT adalah proses penerimaan, perekaman, dan penanganan masalah yang dilakukan oleh bagian service desk dan IT operations yang dibantu oleh sistem ITIL Service Management yang disebut sebagai HP Service Manager. Namun pembuatan model proses yang sederhana berdasarkan data yang kompleks tidak mudah dimana model proses yang sederhana dapat memudahkan pihak analis Rabobank Netherlands Group ICT untuk menganalisisnya. Process mining dapat digunakan untuk membuat model proses tersebut sehingga proses bisnis dapat ditingkatkan kinerjanya. Untuk dapat memperoleh model tersebut, process discovery perlu dilakukan terlebih dahulu dari event log yang ada. Event log yang diperlukan dalam melakukan process mining untuk memperoleh model proses ini adalah event log Rabobank Netherlands Group ICT, dimana pada kasus data real-life biasanya data lebih kompleks atau kurang terstruktur sehingga model proses yang dihasilkan sering “spaghetti-like”. Oleh karena itu, diperlukan pendekatan yang dapat menghasilkan model proses yang tidak “spaghetti-like” salah satunya adalah fuzzy mining [1].
Implementasi dan Analisis Betweenness Centrality Berbasis Konten Menggunakan Algoritma Geisberger Joshua Tanuraharja; Warih Maharani; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Jejaring sosial marak digunakan oleh Usaha Kecil Menengah untuk memasarkan produk dan jasa, guna mencari user yang berpotensi menjadi buzzer dibutuhkan pengetahuan tentang Social Network Analysis (SNA). SNA digunakan untuk menganalisis interaksi dalam suatu kelompok jaringan sosial. Contoh pengembangan SNA adalah Content Based Social Network Analysis (CBSNA) yang dapat digunakan untuk menentukan rangking user berpengaruh berdasarkan relasi kesamaan konten. Salah satu metode penghitungan centrality adalah metode Linear Scaling yang dikembangkan oleh Geisberger, dimana dalam menghitung betweenness centrality cukup menggunakan beberapa node sebagai sumber. Pada penelitian tugas akhir ini metode yang digunakan adalah Linear Scaling yang dipadukan dengan Vector Space Model, pertama bertujuan untuk menghitung betweenness centrality berbasis konten pada studi kasus media sosial Twitter dan yang kedua untuk menganalisis parameter yang berpengaruh pada metode Linear Scaling dalam penghitungan nilai betweenness centrality. Hasil pengujian menunjukkan bahwa user dengan nilai similarity tinggi memiliki isi konten Quote Retweet selain itu metode Linear Scaling dipengaruhi oleh nilai pivot (k) dan jumlah edge suatu graf. Linear Scaling dapat digunakan untuk menghitung betweenness centrality guna menentukan ranking user yang berpengaruh berdasar suatu kata kunci tertentu. Kata Kunci : Usaha Kecil Menengah, Content Based Social Network Analysis, Betweeneess Centrality, Algoritma Geisberger, Linear Scaling, Vector Space Model.
Implementasi dan Analisis Degree Centrality Berbasis Konten menggunakan Metode Opsahl Bondan Ari Bowo; Warih Maharani; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Jejaring sosial merupakan salah satu sarana dimana banyak orang dapat saling bertukar informasi, berkomunikasi bahkan dapat digunakan sebagai media pemasaran produk dari sebuah UKM. Social Network Analysis (SNA) merupakan ilmu yang mempelajari suatu hubungan antar node dan ties pada suatu jaringan. Salah satu penerapan pada studi SNA adalah mengukur sentralitas suatu node dalam suatu jaringan. Salah satu metode pada SNA yaitu Degree Centrality yang mengukur suatu node dilihat dari bobot jumlah relasi. Pada tugas akhir ini metode yang digunakan adalah metode Opsahl, untuk mencari node yang berpengaruh dengan mengkombinasikan jumlah relasi dan jumlah kekuatan simpul node yang didapat dari similarity terhadapa konten yang dimiliki user dengan menggunakan VSM. Berdasarkan hasil pengujian, user berpengaruh merupakan user yang mempunyai nilai node strength tinggi dan mempunyai konten yang berupa quote retweet dari suatu user twitter. Kata kunci : Social Network Analysis, similarity, centrality, Opsahl, konten, VSM.
Implementasi Dan Analisis Closeness Centrality Berbasis Konten Pada Social Network Twitter Dengan Algoritma Dijkstra Artanto Ageng Kurniawan; Warih Maharani; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 2 (2015): Agustus, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Social Network Analysis (SNA) telah digunakan untuk membantu dalam melakukan analisis terhadap suatu social network. Social network Twitter merupakan salah satu media yang populer dan efektif digunakan untuk mengenalkan atau menawarkan produknya lewat konten tweet. Salah satu penerapa SNA yaitu perhitungan centrality untuk mengukur seberapa terpusatkah user dalam suatu jaringan. Closeness centrality merupakan salah satu metode untuk perhitungan nilai centrality berdasarkan jumlah jarak yang harus dilalui sebuah node untuk menyebarkan sebuah informasi. Pada penelitian tugas akhir ini menggunakan algoritma Dijsktra, yang akan mencari nilai shortest path pada graph berdasarkan bobot yang dilihat dari similarity antar konten tweet yang kemudian akan dihitung nilai closeness dari tiap node. Dengan metode ini diharapkan akan mengetahui peringkat user dalam jaringan dalam menyebarkan sebuah informasi. Kata Kunci: Social Network Analysis, centrality, closeness centrality, graph, Dijkstra, similarity
Analisis Dan Implementasi Basis Data Terdistribusi Horizontal Pada Mongodb Untuk Clikkb Bkkbn Regional Jawa Barat Nunit Prihatoni Siregar; Kemas Rahmat Saleh Wiharja; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 2 (2015): Agustus, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak ClikKB merupakan sistem yang dimiliki oleh dinas BKKBN regional Jawa Barat. Format data ClikKB yang disimpan dalam file excel menyebabkan pengisian banyak bernilai null. Nilai null pada ClikKB menyebabkan struktur data menjadi semi terstruktur. Data semi terstruktur dapat disebut dengan nonuniform data yaitu dokumen yang memiliki atribut yang berbeda-beda. Dari berbagai varian NoSQL, document oriented digunakan untuk mengatasi masalah nonuniform data. Karena mencakup wilayah Jawa Barat, maka data dari ClikKB cukup besar. Sistem ini memiliki proses read dan write yang tinggi karena diakses oleh seluruh dinas BKKBN Jawa Barat. Hal ini akan mempengaruhi performansi sistem. Untuk meningkatkan performansi sistem, dilakukan proses distribusi yaitu teknik penyimpanan basis data yang dipecah kebeberapa lokasi penyimpanan yang terhubung dengan jaringan. Salah satu DBMS dari NoSQL adalah MongoDB. MongoDB memiliki kemampuan untuk distribusi data. Yang diimplementasikan ada 3 arsitektur yaitu penerapan Document Oriented Database single server, penerapan sharding dengan 2 node, dan sharding 3 node. Jenis fragmentasi atau pembagian data yang digunakan adalah horizontal specification karena MongoDB memiliki fitur tersebut. Secara umum, diimplementasikannya distribusi pada document oriented database ini menghasilkan peningkatan response time hingga 167,55% jika dibandingkan tanpa proses distribusi. Kata Kunci: null value , NoSQL, Document Oriented Database, MongoDB, sharding.
Implementasi Dan Analisis Performansi Mapreduce Di Lingkungan Sistem Basisdata Berbasis Dokumen Terdistribusi Homogen Hegar Aryo Dewandaru; Kemas Rahmat Saleh Wiharja; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 3 (2015): Desember, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pada sebuah perusahaan besar, sangatlah penting untuk memiliki manajemen sistem basisdata yang mampu menampung seluruh data dan dokumen milik karyawan. Data tersebut akan sangat besar sehingga tidak akan memunkinkan untuk ditampung oleh single server. Untuk menyelesaikan masalah tersebut, data yang sangat besar itu dapat didistribusikan ke dalam beberapa cluster. Di lingkungan terdistribusi inilah implementasi dari metode MapReduce akan sangat bermanfaat bagi sistem. MapReduce adalah sebuah operasi untuk menyelesaikan masalah yang mirip dengan algoritma divide and conquer. Sesuai dengan namanya, MapReduce terdiri dari proses map (pemetaan) suatu data dan reduce (pengurangan) yang berakhir pada penggabungan data-data yang sama. Pada tugas akhir ini akan dilakukan penelitian terhadap performansi MapReduce di lingkungan sistem basisdata terdistribusi homogen. Untuk membangun lingkungan tersebut, sebelumnya harus dilakukan pengecekan terhadap setiap komputer yang digunakan. Pastikan bahwa seluruh komputer memiliki spesifikasi perangkat lunak dan keras, serta manajemen sistem basisdata yang sama. Setelah itu, dataset yang berbasis dokumen harus di-import ke database komputer yang berperan sebagai master. Kemudian, dengan menggunakan metode sharding, setiap node akan diberi peran: master akan berberan sebagai router, satu node sebagai config server, dan sisanya sebagai shard server sehingga terbentuklah lingkungan sistem basisdata berbasis dokumen terdistribusi homogen. Dataset kemudian akan didistribusikan ke setiap shard. Akhirnya, query MapReduce akan dijalankan dan diuji di single server dan 3 arsitektur distributed database yang berbeda untuk diteliti performansinya. Dari hasil pengujian yang dilakukan, dapat dilihat bahwa MapReduce bekerja lebih baik di lingkungan terdistribusi dibandingkan dengan pada single server. Kesimpulan yang dapat diambil adalah bahwa sistem basisdata terdistribusi meningkatkan performansi MapReduce. Kata kunci: MapReduce, document-oriented database, distributed database system, distributed database management system, homogeneous distributed database
Penerapan Algoritma GRAC (Graph Algorithm Clustering) untuk Graph Database Compression) I Gusti Bagus Ady Sutrisna; Kemas Rahmat Saleh Wiharja; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Graph Database merupakan representasi dari pemodelan suatu koleksi data ke dalam bentuk Node dan Edge. Graph Database adalah salah satu metode implementasi dari NoSQL (Not Only SQL), yaitu sistem database yang berguna untuk penyimpanan data dalam jumlah besar dan direpresentasikan dalam bentuk graph, sehingga data memiliki aksesibilitas yang tinggi. Namun data yang disimpan dalam pemrosesan Graph Database masih belum efisien dalam hal penyimpanan data. Penyimpanan jutaan ataupun milyaran Nodes dan Edges memerlukan pengompresan dalam kebutuhan penyimpanan data. Dalam penelitian ini, kompresi Graph Database yang akan dilakukan adalah dengan menggunakan GRAC(Graph Algorithm Clustering). Graph Database yang digunakan yaitu suatu data yang berisikan data kolaborasi antar penulis jurnal ilmiah. Dalam GRAC(Graph Algorithm Clustering), Clustering yang digunakan adalah Hierarchical Clustering. Metode Hierarchical Clustering adalah suatu metode dalam Clustering yang akan mengcluster Node menjadi bentuk Cluster Node secara hirarki. Dalam pembuatan cluster yang hirarki, strategi yang dipakai adalah Agglomerative dimana setiap Node nantinya akan digabungkan menjadi satu cluster. Untuk mendapatkan strategi Agglomerative yang efektif dan efisien maka akan dihitung jarak maximum antar cluster yang biasa disebut Complete Linkage Clustering. Setiap Node terlebih dahulu dihitung Jaccard indexnya untuk mendapatkan bobot jarak antar Node. Penggunaan Hierarchical Clustering adalah untuk membentuk Cluster Node yang memiliki kesamaan tetangga. Cluster Node nantinya akan dihubungkan dengan Cluster Edge dimana, Cluster Edge didapatkan melalui pencarian secara greedy pada setiap hubungan Cluster Node yang mengabstaksi Edge paling banyak. Dengan menerapkan GRAC (Graph Algorithm Clustering) dengan menggunakan metode Hierarchical Clustering yang membentuk cluster yang hirarki, maka akan menghasilkan graph database yang bersifat lossless serta terkompres dengan baik. Kata Kunci: graph database, compression, graph algorithm clustering, Hierarchical Clustering, agglomerative, complete linkage clustering, jaccard index, greedy, scientific journal authors
Analisis dan Implementasi Betweenness Centrality pada Social Network Twitter dengan Metode Linear Scaling Berbasis Pengguna Diska Yunita; Warih Maharani; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Social Network berisi peta individu-individu dan relasi yang terjadi di antara mereka. Analisis hubungan antar individu, bagaimana hubungan tersebut terjadi, dan konsekuensinya dapat dipelajari menggunakan teknik Social Network Analysis. Salah satu contoh penerapannya yaitu pada centrality measurement yang digunakan untuk menentukan pengguna yang berpengaruh dalam penyebaran informasi. Salah satu metode yang dapat digunakan adalah betweenness centrality, node yang paling sering dilewati shortest path merupakan node yang memiliki centrality paling tinggi. Pada tugas akhir ini menerapkan salah satu algoritma dari betweenness centrality, yaitu algoritma Geisberger. Algoritma Geisberger digunakan untuk menghitung betweenness centrality pada graf yang berbobot dan tidak berarah dengan menggunakan metode Linear Scaling. Tujuannya untuk menentukan ranking user yang berpengaruh dalam social media Twitter dan yang kedua untuk mengetahui pengaruh nilai parameter k dalam perhitungan nilai centrality. Hasil pengujian menunjukan bahwa metode Linear Scaling dengan dapat digunakan untuk menentukan ranking user yang berpengaruh dalam penyebaran informasi di Twitter. Hasil yang kedua yaitu nilai k berpengaruh terhadap hasil perangkingan, semakin besar nilai k maka hasil perangkingan semakin stabil. Selain nilai k, faktor lain yang mempengaruhi perangkingan yaitu egde dan penghapusan node. Kata kunci: Social Network Analysis, Betweenness Centrality, Linear Scaling
Impelentasi Metode Support Vector Machine Untuk Melakukan Klasifikasi Kemacetan Lalu Lintas Pada Twitter Elly Susilowati; Mira Kania Sabariah; Alfian Akbar Gozali
eProceedings of Engineering Vol 2, No 1 (2015): April, 2015
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Twitter merupakan jejaring sosial yang populer saat ini. Beragam informasi dapat diambil dari Twitter. Salah satunya adalah tweet yang mengabarkan mengenai kondisi kemacetan suatu lalu lintas. Akan tetapi, sumber yang mengabarkan kondisi lalu lintas tersebut tidak hanya satu dan tidak saling terintegrasi. Sehingga informasi yang ada menjadi kurang bermanfaat karena seseorang cenderung malas ketika harus melakukan pencarian data secara manual dari satu sumber ke sumber yang lain. Tugas akhir ini bertujuan untuk melakukan hasil klasifikasi tweet kondisi jalan pada twitter yang telah dikumpulkan dengan melihat isi dari tweet tersebut. Data diklasifikasikan menjadi 2 kondisi, yaitu macet atau ramai lancar. Metode yang digunakan pada penelitian ini adalah Support Vector Machine (SVM). Metode ini dipilih karena mampu mengklasifikasikan data berdimensi tinggi yang dalam konteks tugas akhir ini adalah data berupa teks. Dari uji skenario yang dilakukan, hasil rata-rata akurasi berada diatas nilai 90%. Kata kunci : kemacetan, klasifikasi, Support Vector Machine