NEW TECHNOLOGIES IN SYNTACTIC PARSE SENTENCES
DOI:
https://doi.org/10.63034/esr-202Keywords:
natural language processing, NLP, machine learning, neural networks, transformers, BERT, machine translation, RNN, syntactic analysisAbstract
В данной статье рассматриваются современные технологии и методы синтаксического анализа предложений в области обработки естественного языка. Подробно описывается эволюция подходов к синтаксическому разбору, начиная с традиционных методов и заканчивая новейшими достижениями в области машинного обучения и нейронных сетей. Особое внимание уделяется таким технологиям, как рекуррентные нейронные сети (RNN), модели на основе внимания и трансформеры (например, BERT). В работе также обсуждаются зависимостный и составной парсинг, их применение в различных задачах NLP, включая машинный перевод, обработку текста и системы вопросов-ответов. Приводятся примеры исследований, демонстрирующих эффективность новых подходов, и обсуждаются текущие проблемы и перспективы развития синтаксического анализа.
References
Chomsky, N. (1957). Syntactic Structures. The Hague: Mouton.
Aho, A. V., & Ullman, J. D. (1972). The Theory of Parsing, Translation, and Compiling. Prentice-Hall.
Зализняк, А. А. (1977). Грамматический словарь русского языка:
словоизменение. Москва: Русский язык.
Шведова, Н. Ю. (1980). Русская грамматика. Москва: Наука.
Иванов, Л. Л., & Клепикова, Н. В. (2005). Статистический анализ текстов.
Санкт-Петербург: Наука.
Jurafsky, D., & Martin, J. H. (2021). Speech and Language Processing (3rd ed.).
Prentice-Hall.
Тихонов, С. В., & Гришин, Е. А. (2018). Применение рекуррентных
нейронных сетей в синтаксическом анализе. Вопросы компьютерной
лингвистики, 2, 45-59.
Сидоров, И. В., & Шарова, М. И. (2020). Использование моделей на основе
трансформеров для синтаксического анализа. Вестник Московского
университета. Серия 10: Компьютерные науки, 4, 67-80.
Иванов, В. В., & Артемов, А. В. (2019). Зависимый парсинг с использованием
нейронных сетей. Компьютерная лингвистика и интеллектуальные технологии:
По материалам ежегодной Международной конференции Диалог, 18, 101-115.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.
N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information
Processing Systems, 30.
Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of
deep bidirectional transformers for language understanding. In Proceedings of the 2019
Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers).
Goldberg, Y., & Nivre, J. (2013). Training deterministic parsers with non-deterministic oracles. Transactions of the Association for Computational Linguistics, 1, 403-414.
Manning, C. D., Surdeanu, M., Bauer, J., Finkel, J., Bethard, S.
Published
How to Cite
Issue
Section
Categories
License
Copyright (c) 2024 Рыспакова М, Турсунова А
This work is licensed under a Creative Commons Attribution 4.0 International License.