Dengan berkembangnya model pembelajaran mendalam, terjemahan mesin, yang melakukan tugas-tugas penting dalam pemrosesan bahasa alami, juga mengalami kemajuan yang signifikan. Sistem terjemahan mesin saraf yang menggunakan pendekatan jaringan saraf dalam telah melampaui metode statistik tradisional, terutama dengan munculnya arsitektur transformator dan mekanisme perhatian. Tinjauan literatur sistematis ini mengkaji perkembangan terkini dalam terjemahan mesin berbasis pembelajaran mendalam, dengan fokus pada model terlatih multibahasa, model Transformers, BERT, GPT, dan Seq2Seq selama lima tahun terakhir. Berurusan dengan bahasa yang miskin sumber daya, efisiensi pelatihan, dan kualitas terjemahan lintas domain disebut-sebut sebagai masalah utama dalam terjemahan mesin saraf. Dalam artikel ulasan ini, kami membahas kekurangannya. Selain itu, artikel ini juga menyoroti bagaimana model multibahasa dan tanpa pengawasan telah meningkatkan performa terjemahan mesin.
Copyrights © 2025