Penelitian ini bertujuan mengimplementasikan model transformer RoBERTa untuk analisis sentimen tweet berbahasa Indonesia terkait COVID-19. Dataset diperoleh dari Kaggle dengan 36.929 tweet berlabel positif, negatif, dan netral. Metode penelitian mencakup preprocessing (pembersihan teks, normalisasi, stemming), tokenisasi menggunakan Byte-Level BPE, fine-tuning model RoBERTa pre-trained (indolem/indobert-base-uncased), dan evaluasi menggunakan metrik akurasi, precision, recall, dan F1-score. Hasil eksperimen menunjukkan model mencapai akurasi 96,30% dengan F1-score tertimbang 0,96. Model menunjukkan kinerja optimal pada kelas netral (F1-score 0,98) dan tetap solid pada kelas minoritas negatif (F1-score 0,82). Keunggulan RoBERTa terletak pada kemampuan memahami konteks bahasa informal di Twitter melalui mekanisme self-attention, menjadikannya efektif untuk analisis opini publik berbasis data.
Copyrights © 2026