Нейромережевий підхід для емоційного розпізнавання тексту
DOI:
https://doi.org/10.30837/bi.2019.1(92).02Ключові слова:
ДАНІ, ВІДГУКИ, ЕМОЦІЇ, КЛАСИФІКАЦІЯ, НЕЙРОННІ МЕРЕЖІ, ТЕКСТ, ТОНАЛЬНІСТЬАнотація
Стаття присвячена одному з найбільш популярних напрямків в області інформаційних технологій сьогодні - обробці природної мови, зокрема, виділення емоцій з тексту за допомогою нейромережевого підходу. Основне завдання полягала у вирішенні проблеми високих витрат часу і людських ресурсів для компаній на отримання зворотного зв'язку від користувачів і обробку емоційних реакцій другого. Для вирішення поставленого завдання необхідно було провести моделювання і вивчити нейронну мережу з використанням власної архітектури на основі алгоритму зворотного поширення, щоб розпізнавати емоційну складову в тексті. Емоційна складова відгуків використовувалася як метрика для оцінки користувача.
реакції. Було вирішено працювати з п'ятьма типами емоцій, які допоможуть домогтися кращих результатів. Архітектура нейронної мережі складається з взаємозв'язаних шарів: вбудовування, двонаправленого LSTM, пулу, шарів виключення і двох щільних шарів. Для навчання нейронної мережі був обраний відкритий набір даних, що складається з 47 288 повідомлень з Twitter з тегами. В результаті F-міра на тестовому наборі даних склала 0,62, що є гідним показником в порівнянні з рішеннями для великого бізнесу.
Посилання
Майер-Шенбергер В.et al. Big Data. A Revolution That Will Transform How We Live, Work, and Think / пер. с англ. Инны Гайдюк. – М.: Манн, Иванов, Фербер. – 2014. – 240 с.
Флах П. Машинное обучение. – М.: ДМК Пресс.– 2015.– 400 с.
Друки А. Система поиска, выделения и распознавания лиц на изображениях// Известия Томского политехнического университета [Известия ТПУ]. – 2011. – Т. 318, № 5. – С. 64-70.
Zhang L., Wang S., Liu B. Deep Learning for Sentiment Analysis: A Survey// Wiley Online Library. – 2018. –34 p.
Lawrence, Jeanette.Introduction to neural networks: design, theory and applications // Nevada City: California Scientific Software. – 1994. – 324 p.
Goodfellow I., Bengio Y., Courville A. Deep Learning. // MIT Press. – 2016. – 196 p.
Bousquet O., Elisseef A. Stability and Generalization // Journal of Machine Learning Research. – 1992. – P. 499-526.
Назаренко Д. Афанасьєва І. Аналіз сервісів щодо розпізнавання емоційної складової відгуків користувачів. Актуальные вызовы современной науки// Сб. научных трудов – Переяслав-Хмельницкий. – 2019. – Вип. 4(36), ч.1 – С. 85-90.
Read J. et al. Classifier Chains for Multi-label Classification// Machine Learning Journal. Springer. – 2011. – Vol. 85(3). – 27 p.
ChoiY., Lee H. Data properties and the performance of sentiment classification for electronic commerce applications//Information Systems Frontiers. Springer. – 2017. – Vol. 19, Issue 5. – P. 993–1012.
Dashtipour K. et al. Multilingual Sentiment Analysis: State of the Art and Independent Comparison of Techniques//Cognitive Computation. Springer. – 2016. – Volume 8, Issue 4. – P. 757–771.
Shuhaida Mohamed Shuhidan et al.Sentiment Analysis for Financial News Headlines using Machine Learning Algorithm//International Conference on Kansei Engineering & Emotion Research. KEER. – 2018. – P. 64-72.
Souma W.et al. Enhanced news sentiment analysis using deep learning methods//Journal of Computational Social Science. – 2019. – Volume 2, Issue 1. P. 33–46.
Goldberg Y., Levy O.et al.Word2vec Explained: Deriving Mikolov et al.'s Negative-Sampling Word-Embedding Method. – 2014. – 5 p.
Hochreiter S., Schmidhuber J. Long Short-Term Memory// Neural Computation. – 1997. – №9 (8). – P. 1735–1780.
Graves A. et al. Bidirectional LSTM networks for improved phoneme classification and recognition. Artificial Neural Networks: Formal Models and Their Applications//ICANN. Springer Berlin Heidelberg. – 2005. – P.799-804.
Rosenblatt F. Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms// Spartan Books, Washington DC. – 1961. – 232 p.
Graham B. Fractional Max-Pooling. – 2015. – 10p.
Hinton G. et al. Improving neural networks by preventing co-adaptation of feature detectors. – 2012. –18p.
Gao Bolin, Pavel Lacra. On the Properties of the Softmax Function with Application in Game Theory and Reinforcement Learning. – 2017–10p.
Murphy K. Machine Learning: A Probabilistic Perspective// MIT Press. – 2012. – P. 57-571
Liu T.Text emotion classification dataset. – 2018.
Airio Eija. Word Normalization and Decompounding in Mono- and Bilingual IR//Information Retrieval. – 2006. – Vol. 9, Issue 3. P. 249–271.
Ketkar N. Introduction to Keras. In: Deep Learning with Python//Apress, Berkeley, CA – 2017. – P. 97-111
Pennington J. et al. GloVe: Global Vectors for Word Representation// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) – 2014. – P.1532-1543.