Використання LSTM-моделей для обробки природної мови

Автор(и)

  • Я.Д. Данієль Харківський національний університет радіоелектроніки, Україна https://orcid.org/0000-0002-3895-0744
  • К.Г. Онищенко Харківський національний університет радіоелектроніки, Україна https://orcid.org/0000-0002-7746-4570
  • Н. Каменюк Ризький технічний університет, Латвія

DOI:

https://doi.org/10.30837/bi.2021.2(97).03

Ключові слова:

ОБРОБКА ПРИРОДНОЇ МОВИ, НЕЙРОННА МЕРЕЖА, ПРИРОДНА МОВА

Анотація

Проблема класифікації емоцій є однією із важливих завдань інтерпретації мови. У даній роботі було розглянуто ряд існуючих рішень проблеми емоційної класифікації. Проведено оцінку продуктивності розглянутих моделей. Запропоновано модель класифікації емоцій у розмовах із трьох речень. Модель заснована на смайлах і використанням слів із оглядом на специфіку сучасного спілкування в в Інтернеті. Продуктивність моделі оцінюється та порівнюється з моделлю обробки мови BERT. Запропонована модель краще класифікує емоції, ніж BERT (F1 78 проти 75). Однак, сучасне виконання моделей мовного представлення не досягло продуктивності людини через складність природної мови. Існує ряд факторів, які слід враховувати при виборі вбудовування слів і методів навчання для проектування архітектури моделі.

Біографії авторів

Я.Д. Данієль , Харківський національний університет радіоелектроніки

Assistant of the Department of Software engineering, Kharkiv National university of Radio electronics, Kharkiv, Ukraine

К.Г. Онищенко , Харківський національний університет радіоелектроніки

Assistant of the Department of Software engineering, Kharkiv National university of Radio electronics, Kharkiv, Ukraine

Н. Каменюк , Ризький технічний університет

Master’s student of Riga Technical University, Latvia

Посилання

Alex Graves and Jürgen Schmidhuber. Framewise phoneme classification with bidirec- tional lstm and other neural network architectures. Neural Networks, 18(5):602 – 610, 2005.

Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, 15:1929–1958, 2014.

Y. Daniiel, K. Onyshchenko. Implementation of Recursive Deep Learning Algorithms for Natural Language Processing. Information Systems and Technologies 2021, 2021.

I. Afanasieva, N. Golian, O. Hnatenko, Y. Daniiel, K. Onyshchenko. Data exchange model in the internet of things concept. Telecommunications and Radio Engineering 78 (10), 2019.

Ronan Collobert, Jason Weston, Leon Bottou, Michael Karlen, Koray Kavukcuoglu, and Pavel P. Kuksa. Natural language processing (almost) from scratch. CoRR, 2011.

Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. CoRR, 2016.

Daniel W. Otter, Julian R. Medina, and Jugal K. Kalita. A survey of the usages of deep learning in natural language processing. CoRR, 2018.

James Allen. Natural Language Understanding (2Nd Ed.). Benjamin-Cummings Publishing Co., Inc., Redwood City, CA, USA, 1995.

Umang Gupta, Ankush Chatterjee, Radhakrishnan Srikanth, and Puneet Agrawal. A Sentiment-and-Semantics-Based Approach for Emotion Detection in Textual Conversa- tions. 2017.

Daniel Jurafsky and James H. Martin. Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition. Prentice Hall PTR, Upper Saddle River, NJ, USA, 1st edition, 2000.

Christopher D. Manning and Hinrich Schütze. Foundations of Statistical Natural Language Processing. MIT Press, Cambridge, MA, USA, 1999.

##submission.downloads##

Опубліковано

2021-12-24