ОСНОВНІ ПРИНЦИПИ ТА ОБМЕЖЕННЯ НЕЙРОННОГО МАШИННОГО ПЕРЕКЛАДУ
DOI:
https://doi.org/10.32782/2410-0927-2022-16-31Ключові слова:
нейронний машинний переклад (NMT), вихідна мова, цільова мова, паралельні корпуси, кодер, декодер, механізмАнотація
У статті розглядається специфіка системи нейтронного машинного перекладу, що здійснюється за допомогою нейронних мереж. Розглядається механізм роботи нейтронного машинного перекладу, його відмінності від інших систем машинного перекладу, його складові частини, а також існуючі недоліки системи. Системи нейронного машинного перекладу використовують штучні нейронні мережі, які навчаються з використанням великої кількості паралельних пар речень («паралельний корпус»). Ці мережи здатні читати слова або речення з вихідної мови та перекладати їх на цільову мову. Проте, зіставлення слів та розбивка на фрази вже не потрібні. І це є основною відмінністю між системою NMT та іншими системами перекладу, такими як RbMT (машинний переклад на основі правил), або SMT (статистичний машинний переклад). Щоб створити систему NMT, знадобиться кілька мільйонів пар речень, попередньо перекладених перекладачами. Всі сучасні системи NMT обладнані механізмом «кодер-декодер» та механізмом «уваги». Особлива роль механізму «уваги». полягає в тому, щоб в процесі перекладу передбачати кожне наступне слово. Зосереджуючись на одному чи кількох словах вихідного речення, механізм «уваги» додає цю інформацію до закодованого повного тексту. Цей процес схожий на поведінку людини-перекладача, яка спочатку читає все речення, а потім дивиться на окремі вихідні перекладені або ще не перекладені слова і фрази. Незважаючи на такі переваги, як швидкість, система NMT має також ряд недоліків. Найчастіше спостерігаються помилки, які впливають на адекватність перекладу, а також мають місце пропуски та додавання змісту при перекладі Передача семантичного змісту з вихідної мови на мову перекладу часто призводить до неправильного тлумачення. Вихідні фрази мають бути дуже чіткими, зрозумілими та без двозначності, щоб уникнути неякісного перекладу.
Посилання
Kalchbrenner, N., Blunsom, P. (2013). Recurrent Continuous Translation Models Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, 1700–1709.
Sutskever, I., Vinyals, O., Le, Q. V. (2014). Sequence to Sequence Learning with Neural Networks, arxiv.org/pdf/1409.3215.pdf, 1–9.
Bahdanau, D., Cho, K., Bengio, Y. (2015). Neural Machine Translation by Jointly Learning to Align and Translate, arxiv.org/pdf/1409.0473.pdf
Ustaszewski, M. Exploring Adequacy Errors in Neural Machine Translation with the Help of Cross-Language Aligned Word Embeddings, Proceedings of the Second Workshop on Human-Informed Translation and Interpreting Technology (2019). (HiT-IT 2019), 122–128.
Shen, G. (2011). Corpus-based Approach to Translation Studies. Cross Cultural Communication. 6 (4), 181–187.
Bentivogli, L., Bisazza, A., Cettolo, M., Federico, M. 2016, Neural versus phrase-based machine translation quality: a case study. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, EMNLP, 257–267.
Ha, N. T., Huyen, N. T. M. (2019). Long Sentence Preprocessing in Neural Machine Translation. 2019, IEEE-RIVF.
Tan, Z., Wang, S., Zonghan Yang, Z., Chen, G., Huang, X., Sun, M., Liu, Y. (2020). Neural Machine Translation: a Review of Methods, Resources and Tools. arxiv.org/pdf/2012.15515.pdf, 1–20.
Kong, X., Tu, Z., Shi, S., Hovy, E., Zhang, T. (2019). Neural Machine Translation with Adequacy-Oriented Learning. 33rd AAAI Conference on Artificial Intelligence (AAAI-19), 6618–6625.
Cho, K., Merrienboer, B., Bahdanau, D., Bengio, Y. (2014).On the Properties of Neural Machine Translation: Encoder-Decoder Approaches. arxiv.org/abs/1419.12/59