Penyebaran berita palsu politik menjadi salah satu tantangan utama di era digital. Berita semacam ini umumnya disusun secara sengaja untuk menyesatkan dan memengaruhi opini publik, serta sangat mudah tersebar melalui media sosial. Penyebaran berita palsu politik menjadi tantangan signifikan yang memengaruhi opini publik dan integritas demokrasi. Penelitian ini bertujuan untuk mengevaluasi efektivitas dan efisiensi DistilBERT, membandingkannya dengan BERT dan RoBERTa, serta menganalisis dampak augmentasi teks sebagai strategi penyeimbangan kelas data. Metodologi penelitian meliputi pengumpulan data sekunder dari dataset LIAR-PLUS, prapemrosesan teks, dan penerapan teknik augmentasi seperti synonym replacement, random insertion, dan back translation. Model DistilBERT dilatih dalam dua skenario: tanpa dan dengan augmentasi teks, serta dilakukan hyperparameter optimization menggunakan Optuna. Performa model dievaluasi dengan metrik klasifikasi standar. Hasil menunjukkan bahwa RoBERTa, setelah optimasi, adalah model paling efektif dengan f1-score 0,7761 dan waktu inferensi 3,98 detik, unggul dalam mendeteksi kelas minoritas. DistilBERT menjadi model paling efisien dengan f1-score 0,6971 dengan waktu inferensi 2,29 detik, sementara BERT juga mengalami peningkatan menjadi f1-score 0,7349 dengan waktu inferensi 3,83 detik. Dari teknik augmentasi, back translation paling efektif dalam meningkatkan deteksi berita palsu (f1-score 0,6810), meskipun sedikit di bawah DistilBERT tanpa augmentasi. Penelitian ini berkontribusi pada pengembangan sistem klasifikasi berita palsu politik yang lebih efektif.
Copyrights © 2025