Claim Missing Document
Check
Articles

Found 27 Documents
Search

Analisis Performansi Qos Inter Autonomous System Mpls-vpn Back-to-back Vrf Pada Layanan Ims Sabrina Chairunnisa; Rendy Munadi; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 5, No 3 (2018): Desember 2018
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Di era kemajuan teknologi informasi dan komunikasi yang semakin pesat, kebutuhan akan layanan multimedia berbasis IP pun semakin tinggi. Lebih dari setengah penduduk Indonesia kini telah terhubung ke internet. Perkembangan teknologi internet juga telah membuktikan bahwa jaringan internet yang terpisah harus dapat dibangun dan dihubungkan satu sama lainnya sehingga user atau pelanggan dapat mengirim dan menerima traffic tanpa harus memikirkan bahwa beberapa provider terlibat dalam transportasi pengiriman paket data. Salah satu teknologi yang mendukung hal tersebut adalah teknologi Inter AS Multi Protocol Label Switching (MPLS) dengan fitur VPN (Virtual Private Network). Pada Tugas AKhir ini, telah dilakukan pengujian performansi kualitas layanan IMS yang dijalankan pada jaringan backbone berbasis Inter AS MPLS VPN background traffic 0, 1, 5, 10, 20 Mbps. Hasil pengujian menunjukan nilai throughput berbanding terbalik dengan besarnya nilai background traffic. Nilai throughput pada layanan VoIP menurur dari nilai sebesar s.d 0,08576 Mbps s.d. 0,06265 Mbps dan menurun sebesar 0,6802 Mbps s.d 0,5806 Mbps pada layanan video call. Pada kedua layanan didapatkan nilai jitter rata- rata << 1 ms dan delay < 150 ms. Dan didapatkan nilai packet loss dari kedua layanan pada kedua metode masuk kedalam kategori layak untuk background traffic 0 Mbps , 1 Mbps , dan 5 Mbps. Kata kunci : Kamailio, SIP, NGN, IMS, VoIP, Video Call, QoS Abstract Nowadays, the advancement of information and communication technology is increasing rapidly, where the need for IP-based multimedia services is even higher. More than half the population of Indonesia has now connected to the internet. The development of internet technology has also proven that separate internet networks must be built and connected to each other so that users or customers can send and receive traffic without having to think that some providers are involved in transporting packet data delivery. One of the technologies that support it is Inter AS Multi Protocol Label Switching (MPLS) technology with VPN (Virtual Private Network) feature. At the end of this task, performance testing of IMS service quality has been performed on InterAS MPLS VPN backbone with the variable of background traffic 0, 1, 5, 10, 20 Mbps. The test results show the throughput value is inversely proportional to the value of the background traffic. The throughput value of VoIP services decreases from a value of s. 0.08576 Mbps s.d. 0.06265 Mbps and decreased by 0.6802 Mbps s.d 0.5806 Mbps in video call services. In both services, the average jitter value is << 1 ms and the delay is <150 ms. And obtained packet loss value from both services in both methods entered into a feasible category for 0 Mbps, 1 Mbps and 5 Mbps background traffic.Keywords : Kamailio, SIP, NGN, IMS, VoIP, Video Call, QoS
Implementasi Dan Analisis Computer Clustering System Dengan Menggunakan Virtualisasi Docker Tanjung Perdana Kusuma; Rendy Munadi; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 4, No 3 (2017): Desember, 2017
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Sistem komputasi terdistribusi menjadi suatu kebutuhan dalam implementasi aplikasi web saat ini. Efisiensi penggunaan sumber daya perangkat keras dan tingginya pengguna aplikasi web menjadi pendorong implementasi sistem ini di arsitektur-arsitektur aplikasi web sekarang, namun kompleksnya penggunaan, dan perancangan sistem ini menjadi penghalang implementasinya. Teknologi virtualisasi container menjadi solusi untuk menjalankan sistem terdistribusi yang mudah dijalankan, dikonfigurasi dan mempunyai skalabilitas tinggi. Ditambah banyaknya alat-alat menjalankan container pada sistem terdistribusi, menjawab masalah kompleksitas implementasi sistem terdistribusi pada aplikasi web. Pada tulisan ini diimplementasikan sistem terdistribusi yang dapat dengan cepat menjadwalkan aplikasi baru dalam suatu cluster, semua oprasi dilakukan dengan zero downtime, serta fault tolerance.Kata Kunci : distributed computing, container virtualization, clustering, docker, docker swarm.
Implementasi Dan Analisis Performansi Platform As A Service Untuk Api Gateway Menggunakan Kong Risang Suryadi Saputra; Rendy Munadi; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 5, No 3 (2018): Desember 2018
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Untuk memanajemen banyaknya API atau server pada sebuah instansi dibutuhkan suatu sistem yang dapat memanajemen API tersebut agar dapat terhubung dengan client atau konsumen tanpa perlu memikirkan infrastruktur dan mempermudah dalam mengakses data pada api tersebut. Oleh karena itu, dibutuhkan sebuah sistem yang dapat memenejemen atau mengontrol API yang ada pada sebuah sistem adalah API gateway. API gateway adalah sebuah sistem yang digunakan sebagai pengatur atau mengontrol API yang ada pada sebuah server, API gateway dapat memanajemen API sehingga API dapat terdistribusikan lebih optimal. Pada tugas akhir ini telah diimplementasikan dan dianalisa sistem API gateway berbasis cloud computing dengan munggunakan platform as a service (PaaS). Dari hasil penelitian yang dilakukan diketahui bahwa kinerja sistem API gateway lebih baik pada jaringan intranet dibandingkan dengan jaringan internet, karena beberapa faktor yang mempengaruhi hasil pengujian dari jaringan internet yaitu topologi yang ada pada jaringan dan kecepatan transmisi yang digunakan. Berdasarkan hasil pengujian yang telah dilakukan, maka didapatkan nilai rata-rata dari beberapa parameter yaitu: response time 5.17 sec, data transaction 4288 hit, data transferred 351 MB dan availability 100%. Kata kunci: Cloud Computing, API gateway, Server,PaaS ABSTRACT To manage how many APIs or servers in an agency, a system is required for managing APIs to connect with clients or consumers without the need to think about infrastructure and make data accessing easier. Therefore, it takes a system that can manage or control the API that exist in a system. API Gateway is a system used as a controller on an existing API on a server. API Gateway can manage the API so that API can be distributed more optimally. In this final project, API Gateway will be implemented and analyzed with cloud gateway-based cloud computing system using Platform as a Service (PaaS). From the results of research, it has been known that the performance of API Gateway system is better on the Intranet network that is compared with the Internet network, because there are several factors that affect the test results of the Internet network which is the topology that exists on the network and transmission speed that had been used. Based on the results of tests, the average value of some parameters are: response time 5.17 sec, data transaction 4288 hit, data transferred 351 MB and availability 100%. Keywords: Cloud Computing, API gateway, Server,PaaS
Implementasi Web Server Cluster Menggunakan Metode Load Balancing Pada Container Docker, Lxc, Dan Lxd Rivaldy Arif Pratama; Ratna Mayasari; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 5, No 3 (2018): Desember 2018
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Load balancing merupakan salah satu metode pada cluster computing yang dapat digunakan untuk meningkatkan skalabilitas serta mengurangi beban kerja sebuah server dengan cara mendistribusikan beban trafik ke beberapa server cluster secara seimbang agar trafik dapat berjalan dengan optimal, sehingga tidak menyebabkan server tersebut kelebihan beban (overload) atau bahkan down. Dalam penerapannya, teknologi virtualisasi berbasis container dapat digunakan untuk mengimplementasikan load balancing dengan memanfaatkan HAProxy sebagai load balancer. Container merupakan sebuah teknologi virtualisasi yang dapat memungkinkan program yang berjalan didalamnya berhubungan langsung dengan linux kernel pada host operating system. Tidak seperti Virtual Machine, container tidak menggunakan hardware untuk virtualisasi. Pada beberapa penelitian, container dipercaya sebagai platform yang ringan dibanding hypervisor, sehingga menjadi alasan yang tepat dan memungkinkan untuk melakukan proses load balancing pada container dalam tugas akhir ini. Tugas akhir ini akan diimplementasikan sistem load balancing yang dijalankan diatas tiga container yaitu Docker, LXC, dan LXD. Penelitian ini bertujuan untuk mengetahui kinerja dari ketiga container tersebut dari sisi layanan web server dan resource utilization pada saat server menggunakan load balancing dan tidak menggunakan load balancing (single server). Dari hasil pengujian yang dilakukan diketahui bahwa kinerja server yang menggunakan load balancing memiliki hasil yang lebih baik dibandingkan single server. Pada penelitian ini juga diketahui bahwa Docker menunjukkan hasil performansi yang lebih baik pada parameter throughput, response time, dan request per second. Sedangkan LXC menunjukkan hasil yang lebih baik pada parameter request loss dan CPU utilization. Dari segi fairness, algoritma Round Robin lebih fair dibanding Least Connection dengan nilai fairness index mencapai 1. Kata kunci : Load Balancing, Cluster Computing, Container, Docker, LXC, LXD Abstract Load balancing is a method in cluster computing that can be used to increase the scalability and decrease the server workloads by distributing traffic load to several clusters of server in equals, in order that the traffic can run optimally, so that it doesn't cause the server becomes overload or down. In it's implementation, the container-based virtualization can be used to implement the load balancing by using HAProxy image as the load balancer. Container is the virtualization technology that allows the program run directly connects with linux kernel in host operating system. Different from Virtual Machine, container doesn't use hardware to virtualize. In some researches, it's believed that container is more lightweight than hypervisor, so that it allowed to process load balancing on the container in this final project. This final project will implement load balancing system that are run on three containers, those are Docker, LXC, and LXD. This research is to know the performance from those three containers from web server services side and resource utilization when server are using load balancing and not (single server). From the research, we know that the performance of server using load balancing had better result than the single server. In this final project we also got that Docker showed better performance on throughput, response time, and request per second. While LXC showed better result on request loss and CPU utilization parameters. In terms of fairness, Round Robin algorithm is more fair than Least Connection with the fairness index is 1. Keywords : Load Balancing, Cluster Computing, Container, Docker, LXC, LXD
Analisis Dan Implementasi Metode Offline Charging Berbasis Sesi Untuk Layanan Video Call Dan Voip Pada Jaringan Ims Di Komputasi Awan Amelia Putri Anggadhini; Danu Dwi Sanjoyo; Ratna Mayasari
eProceedings of Engineering Vol 5, No 3 (2018): Desember 2018
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Arsitektur IP Multimedia Subsystem yang menjamin konvergensi jaringan serta kualitas sesi sangat mendukung berbagai jenis konsep layanan real-time. Namun keunggulan IMS tersebut tidak dapat terlepas dari beberapa faktor penunjang lain, termasuk mekanisme charging yang handal, fleksibel dan efisien. Salah satu mekanisme charging yang ada di dalam arsitektur IMS adalah mekanisme offlline charging. Dalam penelitian ini, telah diujikan implementasi offline charging berbasis sesi pada jaringan IMS untuk layanan Video Call dan VoIP yang melibatkan Clearwater sebagai server IMS, RestComm jDiameter sebagai Charging Data Function, AWS sebagai penyedia komputasi awan, dan X-Lite untuk softphone pengguna. Setelah dilakukan pengujian, didapatkan bahwa jaringan yang tidak mengimplementasi charging memiliki nilai session setup delay lebih rendah daripada jaringan yang mengimplementasi, dengan selisih 0,34 detik untuk layanan VoIP dan 0,25 detik untuk layanan Video Call. Persentase error keakuratan tarif untuk kedua layanan berada pada kisaran 1,83% hingga 3,13% atau tercatat lebih besar daripada durasi aktual. Sementara pengujian charging dengan parameter volume melalui pendekatan berbasis sesi telah dibuktikan tidak efektif karena pada layanan VoIP and Video Call secara berturut-turut terdapat Rp 0,53 dan Rp 2,80 yang hilang setiap detiknya. Kata kunci: IMS, Video Call, VoIP, session based, offline charging Abstract IP Multimedia Subsystem framework that ensures network convergence as well as session quality strongly supports various types of real-time service concepts. But the benefits of IMS can not be separated from several other supporting factors, including a reliable, flexible and efficient charging mechanism. One of the charging mechanisms in IMS is the offline charging. In this research, the implementation of offline session-based charging is tested over IMS network in Video Call and VoIP using Clearwater as the IMS server, RestComm jDiameter as the Charging Data Function, AWS as the cloud provider, and X-Lite as user softphone. After being tested, the network that doesn’t implement charging has the lower session setup delay value than the network that does, with a difference of 0.34 seconds for VoIP service and 0,25 seconds for Video Call service. The error percentage of rate accuracy itself is within range of 1,83% to 3,13% or greater than the actual duration. While the volume parameter with session-based approaching is proven not effective because the VoIP and Video Call service consecutively lost Rp 0,53 and Rp 2,80 every second the services occur. Keywords: IMS, Video Call, VoIP, Session Based, Offline Charging
Implementasi Load Balancer Dengan Lightweight Virtualization Menggunakan Docker Untuk Layanan Video On Demand Novia Indrawati; Rendy Munadi; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 6, No 1 (2019): April 2019
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Pada saat ini minat masyarakat Indonesia akan streaming video di internet berupa Video On Demand sangatlah meningkat, dari mulai video hiburan hingga edukasi. Dengan kebutuhan akan VOD yang massive ini, provider layanan VOD harus mempersiapkan server handal untuk mengatasi kenaikan trafik dan beban kerja pada server. Maka peran load balancer dibutuhkan dalam kondisi tersebut untuk mendistribusikan beban trafik ke beberapa server cluster secara seimbang sehingga server tidak mengalami kelebihan trafik (overload) atau bahkan down. Penerapan teknologi virtualisasi berbasis container digunakan dalam pengimplementasian load balancer ini. Container adalah teknologi virtualisasi pada level sistem operasi yang memungkinkan setiap proses atau aplikasi dapat berjalan pada tiap container dengan berbagi kernel sistem operasi yang sama. Berbeda hal nya dengan Virtual Machine (VM) yang merupakan teknologi virtualisasi pada level hardware, sehingga memerlukan sistem operasi secara keseluruhan untuk membangun satu VM. Hal ini lah yang membuat container dikenal sebagai teknologi lightweight virtualization. Tugas Akhir ini akan mengimplementasikan load balancer yang dijalankan di atas teknologi container. Container yang digunakan adalah docker. Penelitian ini bertujuan untuk mengetahui kinerja dari load balancer pada layanan VOD. Dari hasil penelitian yang dilakukan diketahui bahwa kinerja server dengan menggunakan load balancing lebih baik dibandingkan dengan single server, karena beban kerja dan beban trafik tidak lagi dilayani oleh satu server lagi melainkan beban dibagi ke tiga buah server. Pada penelitian ini juga diketahui, algoritma yang paling baik digunakan untuk load balancing adalah least connectiion, karena dapat terdapat penurunan CPU Utilization sebesar 5.17 %. Kata Kunci : Load Balancer, Video On Demand, Container, Lightweight Virtualization, Kubernetes Abstract Nowadays, streaming video such as Video On Demand on internet become one of the highest consumptions in cyber world. Education and even entertainment is provided. Because of massive demand on video streaming, provider must prepare relliable server to resolve overcome the increase in traffic and workload on the server. Then in these conditions the role of load balacer is needed to distribute traffic load to several cluster servers in a balanced manner so that the server does not experience excess traffic (overload) or even down. The application of container-based virtualization technology is used in implementing this load balancer. Container is a virtualization technology at the operating system level that allows each process or application to run on each container by sharing the same operating system kernel. It's different between container and Virtual Machine. Virtual Machine (VM) which is a virtualization technology at the hardware level, so it requires the whole operating system to build a VM. This is what makes containers known as lightweight virtualization technology. This Final Assignment will implement load balancers that run on container technology. The container used is the docker. This study aims to determine the performance of load balancers on VOD services. From the results of the research conducted, it is known that server performance using load balancing is better than a single server, because the workload and traffic load are no longer served by one server but rather the burden is divided into three servers. In this study it is also known, the best algorithm for load balancing is least connectivity because there can be a decrease in CPU Utilization of 5.17%. . Keywords : Load Balancer, Video On Demand, Container, Lightweight Virtualization, Kubernetes
Implementasi Dan Analisis Performansi Cloud Computing Dalam Teknologi Cloud Region Septian Nurul Chalik; Rendy Munadi; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 6, No 2 (2019): Agustus 2019
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Laju perkembangan teknologi informasi dan komunikasi yang semakin kencang, diikuti pula oleh kebutuhan masyarakat yang semakit meningkat terutama pada bidang komunikasi jarak jauh. Semakin banyak perangkat yang digunakan maka semakin kompleks jaringan yang dibutuhkan. Maka dibutuhkan jaringan yang lebih efisien dan praktis, jaringan yang kompleks tanpa menggunakan perangkat yang banyak dan sangat efisien dalam berkomunikasi data dan VoIP. Salah satu untuk mengatasi masalah tersebut, maka di gunakanlah cloud computing. Cloud computing merupakan sebuah jaringan virtual yang dapat berkomunikasi satu dengan yang lainnya dalam satu jaringan tersebut. Masalah yang dihadapi yaitu dibutuhkan satu penguhubung jaringan cloud computing satu dengan yang lainya disebut cloud region agar dapat berkomunikasi. Pada tugas akhir ini, akan diusulkan penggunaan jaringan cloud region yang menggunakan jaringan cloud computing yang berbeda dan terhubung satu dengan yang lain menggunakan bentuk virtualisasi menggunakan 2 provider cloud computing yang berbeda.Dari hasil pengujian dan analisis dapat disimpulkan bahwa jaringan cloud region untuk dari amazon web service ke google cloud platform lebih baik dari peformansi dari google cloud platform ke amazon web service parameter pengujian QoS (delay, jitter, throughput, dan packet loss) untuk delay dengan nilai sebesar 0(VoIP) dan Untuk throughput dengan nilai sebesar (VoIP) .Serta pada kedua jaringan yang diujikan menghasilkan rata-rata jitter < 1ms.packet loss di bawah 3 % untuk pembanjiran trafik 20 s/d 90 Mbps. Kata Kunci : Cloud Region, Cloud Computing, QoS,Amazon Web Service, Google Cloud platform. Abstract The pace of development of information and communication technology is increasingly fast, followed by the needs of the community which is as increasing as possible, especially in the field of distance communication. The more devices used, the more complex the network is needed. So we need a more efficient and practical network, complex networks without using many devices and are very efficient in communicating data and VoIP. One of the ways to overcome this problem is to use cloud computing. Cloud computing is a virtual network that can communicate with each other in one network. The problem that is faced is that one cloud connection is needed with one another called the cloud region to communicate. In this final project, we will propose the use of cloud region networks that use different cloud computing networks and connect with one another using a form of virtualization using 2 different cloud computing providers. From the results of testing and analysis it can be concluded that the cloud region network from amazon web service to google cloud platform is better than performance from google cloud platform to amazon web service QoS testing parameters (delay, jitter, throughput, and packet loss) for delay with a value of 0 (VoIP) and For throughput with a value of (VoIP). And the two networks tested produce jitter averages <1ms. Packet loss is under 3% for flooded traffic 20 to 90 Mbps. Keywords : Cloud Region, Cloud Computing, QoS,Amazon Web Service, Google Cloud platform.
Analisis Performansi Segment Routing Pada Software Defined Network Menggunakan Kontroler Onos Safida Reynita Sari; Rendy Munadi; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 6, No 2 (2019): Agustus 2019
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Jaringan SDN merupakan sebuah arsitektur yang baru pada sebuah jaringan yang memisahkan fungsi control plane dan data plane. Sehingga dalam pengelolaannya bisa menjadi lebih efisien dan sederhana dibandingkan pada jaringan konvensional. Salah satu parameter untuk menyediakan efisiensi pada jaringan SDN adalah dalam pemilihan jalur yang digunakan. Salah satunya menggunakan metode segment routing, dengan adanya segment routing nantinya dapat mengurangi aturan – aturan yang terdapat pada forwarding table, sehingga proses pengiriman data menjadi lebih efisien. Pada penelitian kali ini akan disimulasikan penggunaan segment routing dan membandingkannya dengan performansi jaringan tanpa menggunakan aturan segment routing pada SDN dengan menggunakan ONOS sebagai kontrolernya. Topologi yang digunakan adalah leaf spine. . Parameter yang akan diukur adalah resource utilization dan QoS. Pada Penelitian ini penggunaan memori pada segment routing sebesar 84% dan 50% untuk tanpa segment routing . Untuk penggunaan CPU 32% untuk segment routing dan 54% untuk tanpa segment routing Untuk packet loss pada layanan VoIP dan video ketika terjadi pengiriman secara bersamaan pada jaringan dengan menggunakan segment routing sebanyak 1,2% sedangkan tanpa menggunakan segment routing sebanyak 1,3%. Pada pengujian delay, throughput dan jitter pada layanan VoIP dan video menggunakan segment routing lebih besar nilainya dibandingkan dengan tanpa segment routing Kata Kunci : SDN, ONOS, Segment routing, Resource utilization dan QoS Abstract SDN network is a new architecture on a network that separates the control plane function and data plane. So that in its management can be more efficient and simpler than conventional networks. One of the parameters to provide efficiency on an SDN network is in the selection of the path used. One of them uses the segment routing method, with the segment routing later can reduce the rules contained in the forwarding table, so that the process of sending data becomes more efficient. In this research we will simulate the use of segment routing and compare them with network performance without using the segment routing rules on SDN using ONOS as the controller. The topology used is leaf spine. The parameters to be measured are resource utilization and QoS. In this research memory usage in the segment routing is 84% and 50% for without segment routing . For CPU usage 32% for segment routing and 54% for without segment routing . For packet loss on VoIP and video services when using segment routing as much as 1,2% while without using segment routing as much as 1,3%. In testing the delay, throughput and jitter on VoIP and video services using the segment routing the value is greater than without segment routing Keywords: SDN, ONOS, Segment routing, Resource utilization and QoS
Enkripsi Link Transmisi Untuk Meningkatkan Keamanan Data Pada Sistem Ir-uwb Wban Wulan Suryandari; Miftadi Sudjai; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 6, No 2 (2019): Agustus 2019
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Wireless Body Area Network (WBAN) adalah sensor yang berada pada tubuh manusia yang bisa langsung berkomunikasi kepada perangkat penerima secara nirkabel. Penggunaan sistem WBAN ini terutama untuk aplikasi di bidang monitoring kesehatan secara nirkabel. Oleh karena itu, diharapkan dapat mempermudah proses memonitoring kondisi pasien, dan dapat menganalisis data dalam jumlah tertentu, dalam periode waktu pengamatan yang lama, sehingga lebih efisien dalam mendapatkan data medis, serta lebih akurat. Penelitian ini mengunakan metode IR-UWB WBAN dengan modulasi Binary Phase Shift Keying (BPSK), Pulse Posotion Modulation (PPM), serta Gaussian monocycle dengan kanal sesuai dengan IEEE 802.15.6. Metode enkripi memiliki beberapa parameter tertentu, yaitu metode enkripsi kriptografi symmetric AES 256 dan DES. Dengan menggunakan metode kriptografi dalam enkripsi bertujuan untuk membantu keamanan sistem lebih sederhana, dan efisiensi daya tinggi (power efficient). Dalam tugas akhir ini, penulis akan meneliti metode enkripsi yang paling memenuhi kriteria tersebut. Sedangkan, hasil output yang didapatkan dari sistem enkripsi dan dekripsi dalam IR-UWB WBAN yang memenuhi, yakni diukur dari kinerja Bit Error Rate (BER), tingkat konsumsi daya yaitu SNR dibandingkan dengan sistem tanpa enkripsi. Kata kunci : WBAN, IR-UWB, Enkripsi, BER, SNR Abstract Wireless Body Area Network (WBAN) is a sensor located in the human body that can communicate directly to the receiving device wirelessly. The use of the WBAN system is mainly for applications in the field of wireless health monitoring. Therefore, it is expected to facilitate the process of monitoring the patient's condition, and can analyze medical record data in a certain amount, in a long period of observation, making it more efficient in obtaining medical data, and more accurate. This research uses IR-UWB WBAN method with Binary Phase Shift Keying (BPSK) modulation, Pulse Posotion Modulation (PPM), and Gaussian monocycle with IEEE 802.15.6 channel. The encryption method has certain parameters, there are symmetric AES 256 and DES and assymmetric Diffie-Hellman encryption methods. By using a cryptography methods in encryption, it is to help simplify system security, and higher energy efficiency. In this final project, will research the encryption method that fulfill these criteria. Meanwhile, the output results obtained from the encryption and decryption system in IR-UWB WBAN fulfilled, which is measured by the performance of the Bit Error Rate (BER), the level of power consumption is Signal Noise Ratio (SNR) compared to the system without encryption. Keywords: WBAN, IR-UWB, encryption, BER, SNR
Implementasi & Analisis Performansi Layanan Web Pada Platform Berbasis Docker Muhammad Fihri; Ridha Muldina Negara; Danu Dwi Sanjoyo
eProceedings of Engineering Vol 6, No 2 (2019): Agustus 2019
Publisher : eProceedings of Engineering

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstrak Docker merupakan platform yang berfungsi untuk mengembangkan, mengirim, serta menjalankan beragam aplikasi dengan lebih cepat. Seiring dengan perkembangan layanan web, ukuran aplikasi web yang dibangun atas arsitektur monolitik akan semakin membesar dan menyulitkan pengembangan berkelanjutan karena aplikasi terdiri menjadi 1 kesatuan aplikasi, dan perubahan sekecil apapun pada lini kode akan memengaruhi keseluruhan aplikasi. Lalu berkembang arsitektur microservice yang memecah aplikasi jadi beberapa komponen kecil yang beroperasi terhadap layanan yang spesifik. Platform docker memudahkan untuk mengembangkan sistem microservice karena membutuhkan integrasi sistem yang terdiri dari beragam pecahan komponen sistem dan memungkinkan untuk pengembangan sistem secara berkelanjutan. Pada penelitian ini, akan dikembangkan layanan web E-Commerce pada platform berbasis docker, selanjutnya akan dilakukan simulasi untuk melihat gambaran performa sistem yang telah dikembangkan berdasarkan parameter throughput, response time, cpu utilization, dan memory utilization. Hasil simulasi menunjukkan sistem yang dibangun mampu memenuhi standar dengan performa baik ketika menerima sejumlah http load. Kata kunci : docker, load balancing, container, layanan web Abstract Docker is a platform to develop, send, and run various applications faster. Along with the development of web services, the size of web applications built on monolithic architecture will be increasingly large and make it difficult for continous delivery because the application form as a single unity, and the slightest change in the code line will affect the entire application. Then the microservice architecture was blossom and make it possible to split the application into several small components that operate on specific services. The docker platform makes it easy to develop a microservice system because it requires system integration consisting of a variety of fractional system components and allows for continuous system development. In this study, E-Commerce web services will be developed on a docker-based platform, then simulations will be conducted to see an overview of system performance that has been developed based on parameters throughput, response time, cpu utilization, and memory utilization. Simulation results show that the system built is able to meet the standard with good performance when receiving a number of http loads. Keywords: docker, load balancing, container, web services