Joko Susilo
Institut Bisnis Dan Informatika Kwik Kian Gie

Published : 18 Documents Claim Missing Document
Claim Missing Document
Check
Articles

Found 5 Documents
Search
Journal : bit-Tech

Studi Perbandingan Pengembangan Game dalam GDScript dengan Godot dan C# dengan Unity Leonard Winata; Muhammad Akbar Maulana; Joko Susilo
bit-Tech Vol. 7 No. 3 (2025): bit-Tech
Publisher : Komunitas Dosen Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32877/bt.v7i3.1876

Abstract

Penelitian ini membandingkan efisiensi dan kompleksitas pada game engine Godot dan Unity dengan bahasa program utamanya masing-masing yaitu GDScript dan Unity dalam pembuatan replika Flappy Bird. Tujuan penelitian ini adalah untuk mengevaluasi waktu, penggunaan ruang berupa memori dan CPU, dan kompleksitas kode pada kedua game engine tersebut dan menganalisis perbedaan dalam bentuk kode. Hasil penelitian menunjukkan bahwa kedua engine mampu mencapai 60 FPS dengan stabil dalam dalam analisis time complexity. Pada analisis space complexity, Godot dengan GDScript terlihat lebih efisien dengan penggunaan memori 125 mb dan penggunaan CPU 3% dibandingkan Unity dengan C# yang memiliki penggunaan memori 160 mb dan penggunaan CPU 40%. Dari segi code complexity, Godot dengan GDScript memiliki lebih sedikit jumlah baris kode atau Lines of Code (LOC) dengan total 157 sedangkan Unity dengan C# memiliki total LOC sebanyak 169. Dalam penulisan kode, Unity dengan C# dapat menggunakan komponen dari fitur bawaan game engine Unity yang dimiliki seperti Rigidbody2D yang mempermudah dan mempercepat dalam pembuatan mekanika seperti gravitasi. Tetapi komponen tersebut perlu diinisialisasikan di dalam kodenya yang dapat menambahkan jumlah LOC. Sedangkan Godot dengan GDScript tidak memiliki fitur bawaan seperti Unity dan harus membuat mekanika seperti gravitasi dari awal tetapi karena itu, GDScript tidak memerlukan inisialisasi komponen dari game engine Godot dan karena itu jumlah LOC yang dimiliki lebih sedikit dibandingkan dengan C#.
Identifikasi Katarak Mata Pada Kucing Dengan Menggunakan Convolutional Neural Network Mikael; Joko Susilo; Muhammad Akbar Maulana
bit-Tech Vol. 8 No. 1 (2025): bit-Tech
Publisher : Komunitas Dosen Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32877/bt.v8i1.1881

Abstract

Katarak merupakan salah satu penyakit yang dapat menyerang hewan, termasuk kucing, ditandai dengan kekeruhan pada lensa mata yang dapat menyebabkan gangguan penglihatan hingga kebutaan apabila tidak ditangani. Penyakit ini sering kali tidak terdeteksi pada tahap awal, sehingga diperlukan metode diagnosis dini yang akurat. Penelitian ini bertujuan untuk mengembangkan model Convolutional Neural Network (CNN) sebagai metode pendeteksian katarak pada kucing melalui analisis gambar mata. Subjek penelitian terdiri dari dataset berjumlah 106 gambar mata kucing, yang meliputi 66 gambar mata normal dan 40 gambar mata katarak. Dataset ini dibagi menjadi data training (85 gambar) dan data validasi (21 gambar). Metode penelitian mencakup beberapa tahapan, yaitu studi literatur untuk mendalami teori terkait, preprocessing data untuk memastikan konsistensi dataset, implementasi model CNN, pelatihan model, dan evaluasi performa model menggunakan confusion matrix. Proses pelatihan model dilakukan selama 100 epoch dengan menggunakan optimizer Adam, yang dikenal mampu mempercepat konvergensi model. Arsitektur CNN yang dirancang terdiri dari tiga lapisan konvolusi, lapisan pooling, dan fully connected layer. Hasil penelitian menunjukkan bahwa model CNN yang dikembangkan mampu mencapai akurasi sebesar 71% dalam mengklasifikasikan gambar mata kucing menjadi kategori "Normal" atau "Katarak." Meskipun akurasi ini belum optimal, keterbatasan jumlah dataset menjadi faktor utama yang memengaruhi performa model. Temuan ini memberikan kontribusi awal dalam penerapan kecerdasan buatan untuk deteksi penyakit pada hewan, khususnya katarak pada kucing. Penelitian ini juga menegaskan pentingnya menambah jumlah dan keragaman dataset untuk meningkatkan performa model dan mengurangi risiko overfitting. Potensi pengembangan lebih lanjut dari model ini diharapkan dapat mendukung diagnosis yang lebih cepat dan akurat, sehingga meningkatkan kualitas hidup hewan peliharaan.
Perbandingan Performa Kotlin vs Java dalam Pengembangan Android dengan Metode Iterasi While Janssen Japutra Sanjaya; Joko Susilo
bit-Tech Vol. 7 No. 2 (2024): bit-Tech
Publisher : Komunitas Dosen Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32877/bt.v7i2.1898

Abstract

Studi ini membandingkan kinerja Java dan Kotlin dalam pengembangan aplikasi Android, dengan fokus khusus pada efisiensi eksekusi, penggunaan CPU, penggunaan memori, dan kompleksitas kode. Pengujian dilakukan pada perangkat Xiaomi Redmi Note 12 dengan CPU Snapdragon 685 dan RAM 8 GB, yang melibatkan pengembangan aplikasi berbasis iterasi menggunakan perulangan while. Hasil penelitian menunjukkan bahwa Kotlin memiliki keunggulan dalam efisiensi kinerja, mampu mengeksekusi rata-rata 170.000 iterasi dalam 10-25 detik, sementara Java hanya mencapai 150.000 iterasi. Dalam hal konsumsi memori, Kotlin menggunakan 125 MB, lebih rendah dibandingkan Java yang mencapai 160 MB. Penggunaan CPU oleh Kotlin hanya sebesar 3%, jauh lebih sedikit dibandingkan Java yang mencapai 40%. Selain itu, Kotlin memerlukan 157 baris kode (LOC), lebih ringkas dibandingkan Java yang memerlukan 169 baris. Secara keseluruhan, Kotlin menawarkan keunggulan dalam efisiensi kinerja, pemanfaatan sumber daya, dan kesederhanaan sintaksis, menjadikannya pilihan yang lebih optimal untuk pengembangan aplikasi Android. Efisiensi ini dapat berdampak positif pada pengurangan konsumsi daya baterai, yang merupakan faktor penting dalam pengembangan aplikasi seluler. Meskipun Java dikenal memiliki stabilitas dan ekosistem yang mapan, penelitian ini memberikan panduan bagi pengembang dalam memilih bahasa pemrograman yang sesuai dengan kebutuhan proyek mereka. Pengembang yang mengutamakan efisiensi, penghematan memori, dan pengurangan kompleksitas kode mungkin lebih memilih Kotlin. Namun, jika stabilitas dan kompatibilitas dengan sistem lama menjadi prioritas, Java tetap menjadi pilihan yang relevan. Dengan hasil ini, pengembang memiliki wawasan yang lebih luas dalam menentukan bahasa yang sesuai dengan kebutuhan proyek mereka, baik dari segi efisiensi kinerja, pemanfaatan sumber daya, maupun kemudahan pemeliharaan kode.
Identifikasi Pemilahan Sampah Berbasis Algoritma Transfer Learning CNN Menggunakan MobileNetV2 dan EfficientNetB0 Sean Edbert Thio; Joko Susilo
bit-Tech Vol. 8 No. 1 (2025): bit-Tech
Publisher : Komunitas Dosen Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32877/bt.v8i1.1900

Abstract

Masalah pengelolaan sampah menjadi tantangan lingkungan yang tidak ada habisnya di kalangan masyarakat. Pemilahan jenis sampah yang benar dapat mendukung upaya daur ulang dan pengelolaan limbah serta mengatasi masalah sampah tersebut. Karena itu, penelitian ini bertujuan untuk mengembangkan sistem yang memanfaatkan teknologi transfer learning CNN (Convolutional Neural Network) untuk membantu pengidentifikasian jenis sampah. Sistem ini diharapkan dapat membantu masyarakat dalam memilah, mengelola dan mendaur ulang sampah. Ada dua arsitektur model yang digunakan dalam penelitian ini, yaitu MobileNetV2 dan EfficientNetB0. Dengan kedua model pre-trained tersebut, penelitian ini juga bertujuan untuk membandingkan performa masing-masing model dalam mengidentifikasi sampah. Dataset yang digunakan untuk melatih kedua model ini diambil dari platform Kaggle dan data yang diambil secara mandiri, dengan total data berjumlah 2527 gambar. Proses penelitian mencakup pencarian data, pembersihan data (pre-processing), augmentasi, pelathan model, serta evaluasi menggunakan confusion matrix. Hasil penelitian menunjukkan MobileNetV2 mencapai akurasi 87,31%, sementara EfficientNetB0 memperoleh akurasi 82,21%. Analisis lebih lanjut menunjukkan bahwa MobileNetV2 unggul dari segi akurasi, presisi, recall, serta efisiensi waktu pelatihan disbanding EfficientNetB0. Meskipun hasil pelatihan menunjukkan performa yang cukup baik, nilai loss pada kedua model masih relatif tinggi. Hal ini kemungkinan disebabkan oleh kurangnya jumlah data yang digunakan untuk melatih model. Penelitian ini diharapkan dapat menjadi langkah awal dalam penerapan teknologi transfer learning untuk mendukung pengelolaan sampah secara efektif, sekaligus menjadi acuan untuk pengembangan sistem dengan dataset yang lebih besar di masa depan.
Implementation of Computer Vision for Traffic Light Systems Using Convolutional Neural Networks with YOLOv3 Loe Ju; Joko Susilo
bit-Tech Vol. 8 No. 2 (2025): bit-Tech
Publisher : Komunitas Dosen Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.32877/bt.v8i2.3555

Abstract

Rapid urban motorization has intensified congestion at signalized intersections, where conventional fixed-time control fails to accommodate fluctuating traffic demand. This study proposes an interpretable, real-time adaptive traffic signal system that integrates deep learning–based perception with fuzzy logic decision-making. Unlike prior works that treat detection and control as separate components, this research establishes an end-to-end perception-to-decision pipeline linking YOLOv3-based vehicle detection to a Mamdani fuzzy inference controller. Traffic videos are processed frame by frame to detect and count vehicles, from which lane-level parameters—vehicle count, queue length, and density—are extracted as fuzzy inputs. The controller adaptively determines green-phase durations according to real-time traffic states. Experiments using 300 real-world video frames under varying congestion conditions achieved precision and recall rates of 0.91 and 0.88, respectively, confirming YOLOv3’s suitability for urban traffic environments. The adaptive system produced dynamic green times ranging from 20 to 52 seconds, reducing average green duration by approximately 29% relative to fixed-time control while maintaining effective queue clearance. These findings demonstrate that the proposed integration achieves both computational efficiency and interpretability, offering a practical alternative to opaque deep reinforcement learning–based controllers. The study contributes to the growing discourse on explainable AI in transportation by operationalizing a transparent, deployable framework that links vision-based sensing to adaptive signal control, enhancing responsiveness and scalability for next-generation intelligent traffic management systems.