Model Long Short – Term Memory (LSTM) sequence-to-sequence telah banyak digunakan untuk menyelesaikan tantangan dalam peringkasan teks. Namun, model ini masih memiliki dua masalah utama yaitu, kemunculan kata diluar kosakata atau sering disebut out-of-vocabulary (OOV), dan perulangan kata. Pada makalah ini, pointer generator dan coverage weighting diterapkan untuk mengatasi dia masalah tersebut. Dimulai dengan model sequence-to-sequence dasar. Kemudian kami kembangkan dengan attention mechanism yang telah ditambahkan coverage weigting pada perhitungannya untuk mengurangi terjadinya perulangan kata, dan mengganti encoder menjadi bi-directional LSTM. Setelah itu kami mengimplementasikan pointer generator yang dapat menunjuk kembali ke kata dalam teks sumber dan menghasilkan kata jika bertemu dengan kata OOV. Menggunakan dataset artikel berita bahasa Inggris CNN/Daily Mail dan metrik evaluasi ROUGE score, model kami menghasilkan hasil yang mirip dengan ringkasan teks sumber.
Copyrights © 2019