Claim Missing Document
Check
Articles

Found 39 Documents
Search

Deteksi Objek Kereta Api menggunakan Metode Faster R-CNN dengan Arsitektur VGG 16 JASMAN PARDEDE; HENDRI HARDIANSAH
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 7, No 1 (2022): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v7i1.21-36

Abstract

ABSTRAKKereta merupakan sebuah alat transportasi umum yang sering digunakan oleh masyarakat untuk berpergian dari kota asal ke kota tujuan. Mereka membutuhkan akan sarana transportasi umum untuk mempermudah aktifitas mereka. Namun kecelakaan di persimpangan jalan raya yang terlintasi oleh kereta api memiliki angka yang cukup besar akibat kelalaian dari petugas untuk menutup palang pintu kereta api. Maka dari itu penelitian ini dibuat agar mengetahui keberadaan kereta api berdasarkan jarak dan tingkat cahayanya dari siang sampai malam hari. Sistem dibangun menggunakan metode Faster RCNN dengan model arsitektur VGG16 untuk mengetahui keberadaan objek kereta api antara lokomotif dan gerbong berdasarkan tingkat cahaya dan jarak terhadap objek. Setelah dilakukan pengujian dengan jarak paling dekat ±2 meter sampai ±250 meter, diperoleh rata-rata akurasi untuk lokomotif sebesar 79,09%, dan akurasi untuk gerbong sebesar 97,05%. Sistem memperoleh keakurasian deteksi terhadap objek rata-rata akurasi deteksi objek lokomotif sebesar 86,40%, dan rata-rata akurasi deteksi objek gerbong sebesar 97,23%.Kata kunci: Deteksi Objek, Faster RCNN, VGG, Kereta Api, Jarak, LuxABSTRACTRailway is a public transportation that is often used by the public to travel from the home town to the destination city. They need public transportation to facilitate their activities. But accidents at the intersection of the highway crossed by the train has a considerable number due to the negligence of the officer to close the railway stopbars. Therefore, this study was made to know the existence of trains based on their distance and light level from day to night. The system was built using the Faster RCNN method with the VGG16 architectural model to determine the existence of railway objects between locomotives and carriages based on the level of light and distance to the object. After testing with the closest distance of ±2 meters to ±250 meters, obtained an average accuracy for locomotives of 79.09%, and accuracy for carriages of 97.05%. The system obtained accuracy of detection of objects with an average detection accuracy of locomotive objects of 86.40%, and an average detection accuracy of car objects of 97.23%.Keywords: Object Detection, Faster RCNN, VGG, Railway, Distance, Lux
Penerapan Algoritma Lemmatization pada Dokumen Bahasa Indonesia Yusup Miftahuddin; Jasman Pardede; Renita Dewi
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 3, No 2 (2018): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v3i2.47-56

Abstract

Sebuah kata, kalimat maupun tulisan dapat dikatakan layak apabila telah memenuhi PUEBI (Pedoman Umum Ejaan Bahasa Indonesia) dan KBBI (Kamus Besar Bahasa Indonesia). Akan tetapi, sangat banyak ditemukan kesalahan penulisan dalam suatu dokumen seperti karya ilmiah mapun skripsi diantaranya yaitu suatu katayang tidak memenuhi kebakuan dan tidak sesuai dengan PUEBI dan kesalahan penulisan (typographical error) yaitu salah dalam pengetikkan karena kecepatan perpindahan jari yang tidak seimbang dari satu tombol ke tombol lain untuk merangkai kata yang akhirnyamembuat orang salah paham dengan maksud kalimat yang dihasilkan dari susunan kata tersebut karena tidak ada dalam KBBI. Algoritma lemmatization adalah suatu algoritma yang digunakan untuk menemukan bentuk dasar dari suatu kata sehingga dapat dimanfaatkan untukmemeriksa kebenaran dari penggunaan ejaan pada suatu kata. Penelitian ini bertujuan untuk mengukur keakurasian dari penggunaan algoritma lemmatization dalam melakukan seleksi terhadap kata yang salah atau tidak tepat berdasarkan PUEBI dan KBBI sebagai acuan
Implementasi Algoritma Lzss pada Aplikasi Kompresi dan Dekompresi File Dokumen Jasman Pardede; Mira Musrini B; Luqman Yudhianto
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 2, No 1 (2017): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v2i1.68-81

Abstract

Informasi yang bersifat dinamis dan berubah dalam hitungan detik harus dikirimkan saat itu juga agar informasi yang didapat sesuai dengan keadaan. Dokumen yang berukuran besar menimbulkan masalah bila kecepatan unggah pengirim lambat atau kecepatan unduh penerima lambat atau koneksi internet tidak stabil, informasi tidak bisa langsung diproses dikarenakan waktu transfer data yang terlampau lama. Kompresi file dibutuhkan agar dokumen yang dikirimkan dapat lebih kecil dari ukuran aslinya sehingga waktu pengiriman file dokumen tidak terlalu lama. Dalam penelitian ini dikembangkan aplikasi kompresi fileteks dengan menggunakan metode Lempel Ziv Storer Szymanski (LZSS) dengan menggunakan bahasa pemograman java. Metode Lempel Ziv Storer Szymanski mencari kesamaan string antara dictionary buffer dan look ahead buffer menghasilkan token yang ukuran lebih kecil dari string yang diwakili. Berdasarkan pengujian aplikasi, file teks yang berformat .doc menghasilkan rasio kompresi terbaik yaitu 30%. Metode Lempel Ziv Storer Szymanski bekerja dengan baik pada file teks yang isinya tidak memiliki gambar.
Augmented Reality Berbasis Cloud Recognition pada Majalah Film Youllia Indrawaty N; Jasman Pardede; Afis Siswantini
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 2, No 2 (2017): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v2i2.70-81

Abstract

Film telah menjadi salah satu hiburan bagi manusia termasuk pencinta film itu sendiri. Untuk menyampaikan informasi mengenai film di media lain, maka diterapkan teknologi Augmented Reality pada majalah melalui smartphone. Penerapan Augmented Reality berbasis cloud computing dapat memudahkan pihak redaksi mengunggah dan mengubah konten agar dapat ditampilkan serta diakses oleh pembaca siapa saja dan kapan saja dengan terkoneksi internet. Layanan yang dapat menggabungkan teknologi Augmented Reality dan cloud computing adalah Vuforia Cloud Recognition. Maka dari itu, diuji bagaimana kualitas marker mempengaruhi kinerja pendeteksian marker dengan tiga kondisi marker yaitu pudar, miscolour, dan blur dengan berbagai intensitas. Dari hasil penelitian, didapat data bahwa marker dengan intensitas kepudaran 25%, semua marker tidak dapat dikenali karena struktur gambar berubah. Pada marker dengan keadaan miscolour, semua marker dapat dikenali karena struktur gambar tidak berubah. Sedangkan pada marker dengan keadaan blur dengan intensitas 75%, semua marker tidak dapat dikenali karena struktur gambar berubah. Ini membuktikan bahwa struktur gambar mempengaruhi kinerja pendeteksian marker.
Gated Recurrent Units dalam Mendeteksi Obstructive Sleep Apnea JASMAN PARDEDE; MUHAMMAD FAUZAN RASPATI
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 6, No 2 (2021): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v6i2.221-235

Abstract

AbstrakDalam melakukan penelitian obstructive sleep apnea (OSA), polysomnography (PSG) digunakan untuk diagnosis. Namun subjek diharuskan menginap dilaboratorium selama beberapa malam untuk melakukan tes dengan PSG dan karena banyaknya alat yang harus dikenakan pada tubuh dapat membuat tidak nyaman saat pengambilan data. Belakangan ini, beberapa peneliti mengunakan single-lead ECG untuk melakukan deteksi OSA. Untuk menghasilkan model terbaik, akan dilakukan eksperimen training, dengan batch normalization dan dropout yang berbeda. Pada penelitian ini apnea-ecg dataset digunakan, RR-Interval dan amplitudo QRS complex dari released set berjumlah 35 data akan disegmentasi permenit untuk digunakan sebagai input dari arsitektur yang diajukan adalah gated recurrent unit (GRU). Lalu withheld set berjumlah 35 data akan digunakan untuk pengujian per-segment dan per-recording. Kinerja sistem diukur berdasarkan accuracy, sensitifity, dan specificity dengan pengujian per-segment mendapat hasil accuracy 83.92%, sensitifity 81.28%, dan specificity 85.55%, dan pengujian per-recording mendapat hasil accuracy 97.14%, sensitifity 95.65% dan specificity 100%.Kata kunci: Obstructive sleep apnea, GRU, ECG, RR-Interval, QRS complex.AbstractIn conducting obstructive sleep apnea (OSA) studies, polysomnography (PSG) was used for the diagnosis. However, the subject was required to stay in the laboratory for several nights to carry out tests with the PSG and because of the many devices that had to be worn on the body, it could be uncomfortable to collect data. Recently, several researchers have used single-lead ECG to detect OSA. To produce the best model, training experiments will be conducted, with different batch normalization and dropout. In this study, the apnea-ecg dataset is used, the RR-Interval and the QRS complex amplitude from the released set totaling 35 data will be segmented per minute to be used as input for the proposed architecture is the gated recurrent unit (GRU). Then the withheld set of 35 data will be used for per-segment and per-recording testing. System performance was measured based on accuracy, sensitivity, and specificity with per-segment testing getting 83.92% accuracy, 81.28% sensitivity, and 85.55% specificity, and per-recording testing got 97.14% accuracy, 95.65% sensitivity and 100% specificity.Keywords: Obstructive sleep apnea, GRU, ECG, RR-Interval, QRS complex.
Perbandingan Metode Breadth First Search dan Backlink pada Web Crawler Jasman Pardede; Asep Nana Hermana; Galih Swarghani
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 2, No 2 (2017): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v2i2.61-69

Abstract

Dalam sebuah search engine terdapat beberapa komponen penting yang salah satunya adalah crawler / web crawler. Crawler adalah sebuah komponen dalam search engine yang berfungsi untuk mencari semua link pada setiap halaman dimana hasil pengumpulan alamat web selanjutnya akan diindeks. Crawler bekerja dengan menggunakan algoritma pencarian yang beragam, diantaranya adalah Breadth First Search dan Backlink. Breadth first search merupakan algoritma untuk melakukan pencarian secara berurutan dengan mengunjungi setiap simpul secara preorder. Backlink memanfaatkan tautan yang berada disitus lain dan mengarah ke situs tertentu. Adapun hasil dari uji aplikasi yaitu dengan membandingkan kedua metode tersebut dengan cara melihat performa pengambilan URL terbanyak pada Detik.com dan Kompas.com. Metode breadth first search secara performa lebih baik dibandingkan dengan metode backlink, dalam pengujian crawling, perbedaan jumlah url mencapai 25,17 pada website detik.com dan 28,94% pada website Kompas.com.
Implementasi Ontology Pada Web Crawler Jasman Pardede; Uung Ungkawa; Muhammad Akbar Bernovaldy
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 1, No 2 (2016): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v1i2.76-84

Abstract

Web crawler adalah suatu program atau script otomatis yang bekerja dengan memprioritaskan ketentuan khusus untuk melakukan penjelajahan dan melakukan pengambilan informasi dalam halaman web yang ada di internet. Proses pengindeksan merupakan proses crawler yang memudahkan setiap orang dalam pencarian informasi Pada proses indexing tersebut dibangun dengan menggunakan metode ontology. Metode ontology merupakan sebuah teori tentang makna dari suatu objek dengan hubungan objek tersebut. Pada penelitian ini, metode ontology diterapkan dalam proses pengambilan data dan pengelompokkan data. Metode ontology memiliki proses, yaitu melakukan splitting terhadap objek dengan ketentuan relasi untuk mendapatkan sebuah objek ontology. Selanjutnya dilakukan crawling terhadap objek ontology tersebut untuk mendapatkan hasil crawling dengan ontology. Pengelompokkan data diproses berdasarkan objek yang telah didapat berdasarkan relasi ontology. Dari hasil penelitian dapat diambil kesimpulan, yaitu presentase objek relasi sesuai dengan relasinya adalah 100% dan kecepatan web crawler dengan ontology lebih cepat 56,67% dibanding dengan web crawler biasa.
House Prices Prediction : Multiple Linear Regression vs Ridge vs Polynomial JASMAN PARDEDE; RAYYAN RAYYAN
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 8, No 1 (2023): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v8i1.14-26

Abstract

AbstractThe phenomenon of falling or rising house prices has attracted the interest of researchers as well as many other interested parties. The house not only be used as a place to live, it is also used as an investment instrument. Errors in determining the price of the house can result in losses. However, with data from developers, machine learning models can be applied for price predictive analysis. Several methods are used such as multiple linear regression, ridge, and polynomial. Model performance was measured using evaluation matrices such as Mean Squared Error (MSE), Root Mean Squared Error (RMSE), and also Mean Absolute Error (MAE). Multiple linear regression models yielding values of 0.0952, 0.3086, 0.2452, ridge yielding values of 0.0952, 0.3086, 0.2453, and polynomial yielding values of 0.0874, 0.2955, 0.2344. These results prove that the polynomial regression model with a value of degree = 2, coupled with a regularization technique using ridge regression with a value of Alpha = 100 can produces the best performance judging from the value of the error matrix it produces, the model will also be used to predict house prices in a web-based applications.Keywords: Multiple Linear Regression, Ridge Regression, Polynomial RegressionAbstrakFenomena turun atau naiknya harga rumah telah menarik minat dari peneliti juga banyak pihak lain yang berkepentingan. Rumah tidak hanya dijadikan sebagai tempat tinggal, rumah juga digunakan sebagai instrumen investasi. Kesalahan menentukan harga rumah dapat mengakibatkan kerugian. Namun, dengan adanya data – data dari pengembang, pembuatan model machine learning dapat diaplikasikan guna keperluan analisis prediktif harga. Beberapa metode yang digunakan seperti regresi linear berganda, ridge, dan polinomial. Performa model diukur menggunakan matriks evaluasi seperti Mean Squared Error (MSE), Root Mean Squared Error (RMSE), dan juga Mean Absolute Error (MAE). Model regresi linear berganda menghasilkan nilai 0.0952, 0.3086, 0.2452, ridge menghasilkan nilai 0.0952, 0.3086, 0.2453, dan polinomial menghasilkan nilai 0.0874, 0.2955, 0.2344. Hasil tersebut membuktikan bahwa model regresi polinomial dengan nilai degree = 2, ditambah dengan teknik regularisasi regresi ridge dengan nilai Alpha = 100 dapat menghasilkan performansi terbaik dilhat dari nilai matriks error yang dihasilkannya, model tersebut juga akan digunakan untuk melakukan prediksi harga rumah pada aplikasi yang berbasis website.Kata kunci: Regresi Linear Berganda, Regresi Ridge, Regresi Polinomial 
Implementasi ShuffleNet V2 Pada Klasifikasi Penyakit Kulit Benign dan Malignant JASMAN PARDEDE; MUHAMMAD RIFALDI BADU
MIND (Multimedia Artificial Intelligent Networking Database) Journal Vol 8, No 1 (2023): MIND Journal
Publisher : Institut Teknologi Nasional, Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26760/mindjournal.v8i1.65-76

Abstract

ABSTRAKPenyakit kulit atau kanker kulit disebabkan oleh adanya pertumbuhan abnormal sel kulit. Kanker kulit dapat diklasifikasikan menjadi dua kategori yaitu tumor kulit benign (jinak) atau malignant (tumor ganas) dengan karakteristik yang hampir sama. Beberapa metode telah dilakukan untuk membantu deteksi penyakit kulit salah satunya menggunakan computer vision. Pada penelitian ini, dirancang sebuah sistem yang dapat mengklasifikasi penyakit kulit benign dan malignant pada citra dermoskopi dengan menggunakan arsitektur ShuffleNet V2.  Eksperimen dilakukan menggunakan 5 varian model ShuffleNet V2 berbeda dengan hyperparameter yaitu optimizer adam, learning rate 0.0001, batch size 16 dan epoch 40.  Penelitian ini menunjukkan bahwa model ShuffleNetV2_1.0_1_373 menunjukkan performa terbaik dibandingkan dengan  varian model lainnya berdasarkan hasil evaluasi accuracy, precision, recall dan  f1-score dengan mencapai skor masing-masing sebesar 87,2%, 87,5%, 87,0%, dan 87,2%.Kata kunci: CNN, Lightweight CNN, ShuffleNet V2, Kanker Kulit, benign, malignantABSTRACTSkin disease, or skin cancer, is caused by the abnormal growth of skin cells. Skin cancer can be classified into two categories, namely benign (benign) or malignant (malignant tumor) skin tumors, with almost the same characteristics. With it, early detection and accurate diagnosis are needed to help identify benign and malignant skin cancer. Several methods have been developed to aid in the detection of skin diseases, one of which is the use of computer vision. In this study, a system was designed that could classify skin diseases on dermoscopy images using the ShuffleNet V2 architecture. In the experimental results, 5 variants of the ShuffleNet V2 model were tested using hyperparameters such as adam optimizer with a learning rate of 0.0001, batch size of 16, and epoch 40. The model with the best performance based on the evaluation results was the ShuffleNetV2_1.0_1_373 model, which obtained 87.2% accuracy, 87.5% precision, 87.0% recalls, and an 87.2% F1 score.Keywords: CNN, Lightweight CNN, ShuffleNet V2, Skin Cancer, benign, malignant
Analisis Sentimen Penanganan Covid-19 Menggunakan Metode Long Short-Term Memory Pada Media Sosial Twitter Pakpahan, Ivan; Jasman Pardede
Jurnal Publikasi Teknik Informatika Vol 2 No 1 (2023): Januari: Jurnal Publikasi Teknik Informatika
Publisher : Pusat Riset dan Inovasi Nasional

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1297.872 KB) | DOI: 10.55606/jupti.v1i1.767

Abstract

Social media can be used to convey people's aspirations for government policies. Several government policies regarding the regulation of the handling of Covid-19 often elicit responses and criticism from the public, especially on Twitter social media. The aspirations conveyed can contain positive or negative responses. To find out the representation of public sentiment based on these responses, it is necessary to do a sentiment analysis technique. The Long Short-Term Memory (LSTM) method is a deep learning method that can be used in sentiment analysis. LSTM is used because it has the advantage of being able to store large amounts of information in memory cells. Before carrying out classification modeling, the dataset must go through the process of case folding, punctuation removal, normalization, and stopword removal. This aims to ease the training process by eliminating characters or words that are not needed. Next, the word is vectorized using FastText, the goal is to change the string data type to an array vector, so that the word can be processed in the LSTM. The final performance of the model is measured based on the value of precision, recall, accuracy, and f Measure. Based on testing the dropout layer parameters on the hidden layer against 10 fold cross validation, the average accuracy of model testing resulting from all k folds is 72.4%. with the maximum model performance achieved at k fold = 9, when using a dropout layer of 0.4, the values ​​achieved are precision, recall, accuracy, and f measure respectively: 76.74%, 80.49%, 78.31%, 78.57%.