cover
Contact Name
-
Contact Email
-
Phone
-
Journal Mail Official
-
Editorial Address
-
Location
Kab. ogan ilir,
Sumatera selatan
INDONESIA
Annual Research Seminar
Published by Universitas Sriwijaya
ISSN : -     EISSN : -     DOI : -
Core Subject : Science,
Arjuna Subject : -
Articles 56 Documents
Search results for , issue "Vol 3, No 1 (2017): ARS 2017" : 56 Documents clear
Knowledge Management System Kandungan Unsur Kimia Pada Tanaman Kelapa Sawit Menggunakan Algoritma String Matching Turbo Boyer Moore Rachma nia; Ermatita Zuhairi
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstract-Palm oil is beneficial for everyday life. However, in addition to beneficial palm oil is also dangerous because there are chemical elements left behind in it. The problem of Palm Oil production is Land, Plants, or fresh fruit palm fruit bunches. if a large quantity must also be followed by high quality fresh fruit bunches, to avoid the negative impact of food consumption from oil palm.Therefore, the authors use a medium to share knowledge of any Chemical Elements that exist in oil palm plant. This research will develop Knowledge Management System in the form of search model with Turbo Boyer Moore algorithm can help build knowledge to overcome barriers to palm oil.Keywords component-; Knowledge Management, Palm Oil, Soil, Turbo Boyer Moore Algotrihm, Chemical Elements.Abstrak-Kelapa sawit banyak manfaatnya bagi kehidupan sehari-hari.Namun, selain bermanfaat kelapa sawit juga berbahaya karena terdapat unsur kimia yang tertinggal didalamnya.adanya ganguan produksi Minyak Sawit yaitu Tanah, Tanaman, atau tandan buah kelapa sawit segar. jika Kuantitas yang besar juga harus diikuti oleh kualitas hasil produksi tandan buah segar yang tinggi, untuk menghindari dampak negative dari konsumsi makanan berasal dari kelapa sawit.      Oleh karena itu, penulis menggunakan suatu media untuk berbagi pengetahuan Unsur Kimia apa saja yang ada pada Tanaman kelapa sawit.Penelitian ini akan mengembangkan Sistem Management Pengetahuan berupa model pencarian dengan algoritma Turbo Boyer Moore dapat membantu membangun pengetahuan untuk mengatasi hambatan terhadap minyak sawit.
Studi Awal Penggunaan Algoritma C4.5 dan Logika Fuzzy pada Klasifikasi Enkripsi Transaksi Keuangan Bebasis XML Nur Rachmat; Samsuryadi Samsuryadi
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

XML (eXtensible Markup Language) telah digunakan secara luas dalam transportasi data baik dalam transaksi kebutuhan umum hingga transaksi keuangan. Penggunaan XML yang meningkat dalam pesan transaksi keuangan menciptakan ketertarikan yang selaras dengan protokol keamanan yang terintegrasi untuk melindungi pesan XML dalam pertukarannya dengan cara yang efisien namun kuat. Lembaga keuangan melakukan transaksi setiap harinya  membutuhkan pengamananan pesan XML dalam skala besar. Mengamankan pesan yang besar akan menimbulkan masalah kinerja dan sumberdaya. Oleh karena itu, sebuah pendekatan dibutuhkan untuk mengamankan dan  mengenkripsi bagian tertentu dari dokumen XML, sintaks dan membuat batasan yang merepresentasikan bagian yang harus diamankan.Dalam penelitiaan ini penulis mengajukan pendekatan untuk mengamankan transaksi keuangan dengan Logika Fuzzy dan algoritma C4.5 untuk optimasi rule fuzzy. Pada fase klasifikasi fuzzy, sebuah nilai dipasang pada atribut yang dinamakan "Importance Level". Nilai yang diberikan pada atribut tersebut mengindikasikan sensitifitas data untuk setiap tag XML. Algoritma C4.5 digunakan untuk mengurangi ketergantungan terhadap expert dalam  pemilihan rule yang bertujuan untuk menyederhanakan  rule  dan meningkatkan performa komputasiPenelitain ini juga akan menerapkan pengklasifikasian enkripsi isi pesan XML dengan mengenkripsi elemen yang dipilih saja (element-wise), yang telah ditetapkan pada fase klasifikasi. Proses enkripsi menggunakan kunci simestris berupa algoritma AES dengan besaran kunci yang berbeda. Kunci 128-bit digunakan pada tag yang diklasifikasikan sebagai elemen yang ditandai sebagai "Medium" sedangkan kunci 256-bit pada tag  "High". 
Analisis Tingkat Keamanan Enkripsi Data Menggunakan Algoritma Base 64 Endcode Annas Apreja; Zulfadhli Syarif; Ali Ibrahim
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstract - In the digital era like nowadays, The information system is well developed. As an indicator can be seen advances in technology of the data security that are increasingly developed along with the needs of people with communication data. The Analysys Of Data Security Using Base64 Algorithm is an analyse about how  well this level of security algorithm that often used by developer. As more developed the science is, also developed the Base64 Algorithm. Base64 is a method for encoding binary data to texts. The binary data is encoded to 7-bit character format. With this analyse we can know the data security level using Base64 algorithm.
Perbedaan Sistem Logika Fuzzy Tipe-1 dan Interval Tipe-2 pada Aplikasi Mobile Robot Ade Silvia Handayani; Andry Meylani; Ciksadan Ciksadan
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

This paper presents differences of type-1 with interval type-2 fuzzy logic systems. T1FLS contains three main processes which are fuzzifier, inference engine, and defuzzifier. Whereas in IT2FLS has five contains which are fuzzifier, inference engine, type-reduction, and defuzzifier. The significant difference is on type-reduction, which makes more complex than T1FLS. Each advantages and disadvantages also affect to efficiency and performance of Fuzzy Logic Systems
Analisa Pola Frekuensi Keranjang Belanja Dengan Algoritma Apriori (Studi kasus: Minimarket Adi) Krisna Nata Wijaya
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Abstract—Data Mining Merupakan Salah satu Proses untuk menambang informasi yang berguna dari basis data. Dalam kegiatan transaksi di minimarket ataupun toko pemilik harus mengerti apa yang diinginkan komsumen dalam memberikan kenyaman berbelanja, terutama kemudahan dalam pemilihan barang yang disesuaikan dengan tata letak. Penelitian ini Melakukan anlisis pola data dengan menerapkan algoritma apriori yang ditunjukan untuk frekuensi keranjang belanja.
Pengoreksian Ejaan Kata Berbahasa Indonesia Menggunakan Algoritma Levensthein Distance Muhammad Omar Braddley; Muhammad Fachrurrozi; Novi Yusliani
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

 Kesalahan penulisan pada dokumen bisa saja terjadi tanpa disengaja, hal ini berpengaruh pada informasi yang didapat oleh pembaca. Sistem pengoreksi ejaan kata secara otomatis mampu mengurangi tingkat kesalahan penulisan. Salah satu metode dalam pengoreksian ejaan kata adalah Approximate String Matching, metode ini menerapkan pendekatan pencarian string. Algoritma Levensthein Distance merupakan salah satu bagian metode Approximate String Matching. Algoritma Levensthein Distance memiliki 3 macam operasi string yaitu penghapusan, penambahan dan pengubahan. Operasi-operasi ini digunakan untuk menghitung jarak antara 2 string, semakin kecil jaraknya maka 2 buah string dikatakan cocok. Pengujian dilakukan dengan 90 data yang terdiri dari 3 skenario yaitu penghapusan, penambahan dan pengubahan karakter. Hasil pengujian akurasi rata-rata sebesar 100% dan waktu 23 mili detik pada operasi penghapusan karakter, hasil 96% dan waktu 5 mili detik pada operasi pengubahan karakter dan hasil 93% dan waktu 88 mili detik pada operasi penambahan.
Optimasi Model Cloud Radio Access Network (C RAN) pada Efisiensi Konsumsi Bandwidth dalam Jaringan Indrawati Indrawati; fitri maya puspita; Sri Erlita; Inosenisus Nadeak
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Pengguna layanan internet yang meningkatmenjadikan internet menjadi salah satu topik dalampermasalahan optimasi. Meningkatnya pengguna layanan intenetmengharuskan penyedia layanan intenet menyediakan jasalayanan dengan kualitas yang baik serta harga yang optimal.Pendekatan dinamis dalam memodelkan jaringan dapatmemperkuat kinerja jaringan dan mengoptimalkan biaya. Padapenelitian ini dibentuk model skema pembiayaan internet denganmenerapkan model cloud radio access network (C-RAN) sebagaiskema pembiayaan internet berdasarkan fungsi utilitasbandwidth untuk konsumsi heterogen serta optimalisasi jaringanfisik (H-CRAN). heterogen cloud radio akses (H-CRAN) dapatmenjadi solusi potensial hemat biaya dan meningkatkanpemprosesan melalui kombinasi komputasi awan. CloudComputing merupakan model komputasi dimana sumber dayaseperti processor, storage, network dan software informasi yangbisa diakses oleh pelanggannya melalui jaringan Internet,sedangkan C-RAN merupakan jaringan akses radio yangterpusat, dimana peralatan yang digunakan terhubung keantena seluler untuk memproses sinyal dan mengirimkan nya kejaringan inti. Model C-Ran diharapkan mampu menjadi salahsatu teknologi kunci dalam pengembangan jaringan nirkabel4G maupun masa depan dengan skema pembiayan yang optimalPada penelitian ini model akan diselesaikan dengan LINGO 11.0untuk mendapatkan solusi yang optimal. Hasil optimal yangdiperoleh menunjukkan bahwa model yang digunakan dapatmemaksimumkan pendapatan ISP dengan efisiensi komsumsibandwidth serta memberikan kualitas layanan yang terbaik bagipengguna layanan. Pada fungsi tujuan dan kendala telahditetapkan yang mana sebagai parameter maupun variabel
IMPLEMENTASI ALGORITMA TRIPLE-DES (3DES) DALAM PENGAMANAN ID TAG RFID BERBASIS CLIENT SERVER Faiz Wafi; ahmad fali oklilas; Sri Desy Siswanti
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Sistem keamanan merupakan hal yang sangat dibutuhkan pada RFID. Dalam penggunaan RFID dimanfaatkan sebagai alat otentikasi user yang bisa memberikan akses lebih pada suatu sistem. Apabila hak otentikasi dipergunakan untuk hal yang salah maka hal itu akan sangat berbahaya. Pola yang digunakan adalah mengirimkan data ID Tag RFID sebagai kode otentikasi yang unik. ID Tag RFID akan dikirim dari client ke server dengan menggunakan skala jaringan lokal. Pengiriman data ID Tag RFID dapat dilakukan dengan menggunakan media transmisi nirkabel. Ketika dalam proses pengiriman, pihak lain dapat mencuri data dengan teknik sniffing. Untuk meminimalisir resiko pencurian data tersebut dapat diterapkan metode enkripsi data dengan algoritma Triple-DES (3DES). Algoritma 3DES adalah suatu algoritma pengembangan dari algoritma DES (Data Encryption Standard). Perbedaan DES dengan 3DES terletak pada panjangnya kunci yang digunakan. Pada DES menggunakan satu kunci yang panjangnya 56-bit, sedangkan pada 3DES menggunakan 3 kunci yang panjangnya 168-bit (masing-masing panjangnya 56-bit). 
Review : Data Mining menggunakan Algoritma Genetika Nurul Mufliha Eka Putri; Ermatita Ermatita
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Data mining adalah pencarian informasi berguna yang dilakukan secara otomotis antara atribut dalam database. Hingga saat ini telah banyak algoritma Machine Learning yang diterapkan dan dikembangkan untuk aplikasi data mining. Salah satu algoritma yang dapat diterapkan ke dalam sistem data mining adalah algoritma genetika. Algoritma genetika merupakan paradigma software yang relatif baru terinspirasi dari teori evolusi Darwin. Dalam tulisan ini, akan dibahas mengenai konsep dasar dari algoritma genetika dan bentuk desain data mining menggunakan algoritma genetika. Selain itu, kebutuhan dan tantangan yang harus dihadapi oleh teknologi data mining juga akan dibahas dalam tulisan ini.
ANALISIS KEBUTUHAN WAKTU ALGORITMA INSERTION SORT, MERGE SORT, DAN QUICK SORT DENGAN KOMPLEKSITAS WAKTU albar Pratama; Anita Desiani; Irmeilyana Irmeilyana
Annual Research Seminar (ARS) Vol 3, No 1 (2017): ARS 2017
Publisher : Annual Research Seminar (ARS)

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Sorting is a crucial problem in data processing or database. Data  processing will be more simple if the data has been sorted. Sorting problem requires special  techniques to make the process of sorting faster. The techniques are named as sorting algorithms. The reliability of an algorithm can be measured by its time complexities. The time complexity T(n) is the number of operations performed in an algorithm for N data input. One of time complexities is Big-O or worst case. The Worst case (Big-O) is a time complexities for the worst condition of an algorithm.   This study will analyze the time complexity of the algorithms Insertion Sort, Merge Sort and Insertion Sort based on their Big-O (worst case). Each algorithm will be calculated its complexity time in two ways. The first is calculated based on their steps in sorting process and the second is calculated based on their coding and running program using C++. The time complexity of Merge Sort is O(n log n) and time complexity of Quick Sort and Insertion Sort is O(n2), it means the time complexity of Merge Sort is less and faster for large N data input than Quick Sort and Insertion Sort. Otherwise Insertion Sort is faster for small N data input than Merge Sort and Quick Sort. Quick sort needs much time to sort data not only for small N data input but also for large N data input. It means Quick Sort doesn’t work well in worst case.