NEW TECHNOLOGIES IN SYNTACTIC PARSE SENTENCES

Authors

DOI:

https://doi.org/10.63034/esr-202

Keywords:

natural language processing, NLP, machine learning, neural networks, transformers, BERT, machine translation, RNN, syntactic analysis

Abstract

В данной статье рассматриваются современные технологии и методы синтаксического анализа предложений в области обработки естественного языка. Подробно описывается эволюция подходов к синтаксическому разбору, начиная с традиционных методов и заканчивая новейшими достижениями в области машинного обучения и нейронных сетей. Особое внимание уделяется таким технологиям, как рекуррентные нейронные сети (RNN), модели на основе внимания и трансформеры (например, BERT). В работе также обсуждаются зависимостный и составной парсинг, их применение в различных задачах NLP, включая машинный перевод, обработку текста и системы вопросов-ответов. Приводятся примеры исследований, демонстрирующих эффективность новых подходов, и обсуждаются текущие проблемы и перспективы развития синтаксического анализа.

References

Chomsky, N. (1957). Syntactic Structures. The Hague: Mouton.

Aho, A. V., & Ullman, J. D. (1972). The Theory of Parsing, Translation, and Compiling. Prentice-Hall.

Зализняк, А. А. (1977). Грамматический словарь русского языка:

словоизменение. Москва: Русский язык.

Шведова, Н. Ю. (1980). Русская грамматика. Москва: Наука.

Иванов, Л. Л., & Клепикова, Н. В. (2005). Статистический анализ текстов.

Санкт-Петербург: Наука.

Jurafsky, D., & Martin, J. H. (2021). Speech and Language Processing (3rd ed.).

Prentice-Hall.

Тихонов, С. В., & Гришин, Е. А. (2018). Применение рекуррентных

нейронных сетей в синтаксическом анализе. Вопросы компьютерной

лингвистики, 2, 45-59.

Сидоров, И. В., & Шарова, М. И. (2020). Использование моделей на основе

трансформеров для синтаксического анализа. Вестник Московского

университета. Серия 10: Компьютерные науки, 4, 67-80.

Иванов, В. В., & Артемов, А. В. (2019). Зависимый парсинг с использованием

нейронных сетей. Компьютерная лингвистика и интеллектуальные технологии:

По материалам ежегодной Международной конференции Диалог, 18, 101-115.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.

N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information

Processing Systems, 30.

Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of

deep bidirectional transformers for language understanding. In Proceedings of the 2019

Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers).

Goldberg, Y., & Nivre, J. (2013). Training deterministic parsers with non-deterministic oracles. Transactions of the Association for Computational Linguistics, 1, 403-414.

Manning, C. D., Surdeanu, M., Bauer, J., Finkel, J., Bethard, S.

Published

2024-08-22

How to Cite

Ryspakova, M., & Tursunova, A. (2024). NEW TECHNOLOGIES IN SYNTACTIC PARSE SENTENCES. Eurasian Science Review An International Peer-Reviewed Multidisciplinary Journal, 2(6), 742–750. https://doi.org/10.63034/esr-202