Побудова пояснень на локальному рівні представлення процесу формування рішень для внутрішніх користувачів інтелектуальної системи
DOI:
https://doi.org/10.30837/bi.2024.1(100).08Ключові слова:
ІНТЕЛЕКТУАЛЬНА ІНФОРМАЦІЙНА СИСТЕМА, СИСТЕМА ШТУЧНОГО ІНТЕЛЕКТУ, ПОЯСНЕННЯ, ПРОЦЕС ПРИЙНЯТТЯ РІШЕНЬ, ПРОЦЕСНИЙ ПІДХІД, ПРИЧИННО-НАСЛІДКОВИЙ ЗВ'ЯЗОК, МОЖЛИВІСТЬ, КАУЗАЛЬНІСТЬАнотація
Предметом вивчення в статті є процеси побудови пояснень щодо отриманих результатів та послідовності дій з прийняття рішення в інтелектуальній інформаційній системі.
Метою є розробка підходу до побудови пояснень на локальному рівні представлення процесу формування рішень інтелектуальної системи на основі побудови темпоральних та каузальних залежностей, що створює умови для виявлення «вузьких місць» даного процесу при представленні інтелектуальної системи як «сірої» скриньки. Завдання: розробка моделі пояснення на локальному рівні представлення для внутрішніх користувачів інтелектуальної системи; розробка методу побудови пояснень на локальному рівні представлення процесу формування рішень інтелектуальної системи. Використовуваними підходами є: методи побудови пояснень, підходи до побудови темпоральних знань. Висновки. Наукова новизна отриманих результатів полягає в наступному. Розроблено модель пояснення на локальному рівні представлення процесу формування рішення для внутрішніх користувачів інтелектуальної інформаційної системи. Модель використовує поєднання темпоральних залежностей, що визначають лінійну послідовність дій процесу, та каузальних правил-обмежень, які задають обов'язкові дії, що виконуються для всіх варіантів процесу формування рішення. Запропонована модель створює умови для виявлення дій, які обмежують нормальне виконання процесу формування рішення та призводять до результатів, що не відповідають вимогам зовнішніх користувачів. Розроблено метод побудови пояснень на локальному рівні представлення процесу формування рішень інтелектуальної системи. Метод передбачає виділення темпоральних залежностей між парами послідовних станів поточного процесу формування рішення, відбір темпоральних залежностей, які виконуються для всіх варіантів процесу побудови рішення та формування на їх основі каузальних залежностей. Використання методу дає можливість представити як пояснення обмеження щодо формування рішення, що створює умови для виявлення вузьких місць у послідовності дій з отримання результату в інтелектуальній системі.
Посилання
Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (XAI). IEEE Access, 6, 52138-52160.
Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., & Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM computing surveys (CSUR), 51(5), 1-42.
Baier, L., Kühl, N., & Satzger, G. (2019, July). How to cope with change? Preserving validity of predictive services over time. In Proceedings of the 52nd Hawaii International Conference on System Sciences.
Biran, O., & Cotton, C. (2017, August). Explanation and justification in machine learning: A survey. In IJCAI-17 workshop on explainable AI (XAI) (Vol. 8, No. 1, pp. 8-13).
Чалий, С., & Лещинська, І. Концептуальна ментальна модель пояснення в системі штучного інтелекту // Вісник Національного технічного університету «ХПІ». Серія: Системний аналiз, управління та iнформацiйнi технологiї – 2023. – Vol. 1(9). – P. 70–75 https://doi.org/10.20998/2079-0023.2023.01.11
Tintarev, N., & Masthoff, J. (2012). Evaluating the effectiveness of explanations for recommender systems. User Modeling and User-Adapted Interaction, 22(4-5), 399-439. https://doi.org/10.1007/s11257-011-9117-5
Van Der Aalst, W. (2016). Process mining: data science in action. Springer.
Rehse, J. R., Mehdiyev, N., & Fettke, P. (2019). Towards explainable process predictions for industry 4.0 in the dfki-smart-lego-factory. KI-Künstliche Intelligenz, 33(2), 181-187.
Dumas, M., La Rosa, M., Mendling, J., & Reijers, H. A. (2013). Fundamentals of business process management (Vol. 1, p. 2). Heidelberg: Springer.
Weske, M. (2019). Business process management: concepts, languages, architectures. Springer.
Mehdiyev, N., Evermann, J., & Fettke, P. (2020). A novel business process prediction model using a deep learning method. Business & information systems engineering, 62(2), 143-157.
Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., ... & Herrera, F. (2019). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82-115.
Tjoa, E., & Guan, C. (2020). A survey on explainable artificial intelligence (XAI): Toward medical XAI. IEEE Transactions on Neural Networks and Learning Systems.
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why Should I Trust You?": Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 1135-1144. https://doi.org/10.1145/2939672.2939778SHAP:
Lundberg, S. M., & Lee, S. I. (2017). A Unified Approach to Interpreting Model Predictions. Advances in Neural Information Processing Systems, 30, 4765-4774.Grad-CAM:
Selvaraju, R. R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization. Proceedings of the IEEE International Conference on Computer Vision, 618-626. https://doi.org/10.1109/ICCV.2017.74
Pearl, J. (2009). Causality. Cambridge university press.
Spirtes, P., Glymour, C. N., Scheines, R., & Heckerman, D. (2000). Causation, prediction, and search. MIT press.
Holzinger, A., Langs, G., Denk, H., Zatloukal, K., & Müller, H. (2019). Causability and explainability of artificial intelligence in medicine. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 9(4), e1312.
Moraffah, R., Karami, M., Guo, R., Raglin, A., & Liu, H. (2020). Causal interpretability for machine learning-problems, methods and evaluation. ACM SIGKDD Explorations Newsletter, 22(1), 18-33.
Chalyi, S., & Leshchynskyi, V. (2023). Probabilistic counterfactual causal model for a single input variable in explainability task. Advanced Information Systems, 7(3), 54-59.
Чалий, С. Ф., & Лещинський, В. О. (2021). Можливісна модель каузального зв'язку по вхідній змінній для побудови пояснення в інтелектуальній системі. Вісник Національного технічного університету "ХПІ". Серія: Системний аналіз, управління та інформаційні технології, (2), 97-103. https://doi.org/10.20998/2079-0023.2021.02.17
Chalyi, S., & Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering, 3, 43-50. https://doi.org/10.21303/2461-4262.2020.001228
Chalyi, S., & Leshchynskyi, V. (2020). Method of constructing explanations for recommender systems based on the temporal dimension of user choice. EUREKA: Physics and Engineering, 3, 43-50.
Чалий, С. Ф., Лещинський, В. О., & Лещинська, І. О. (2021). Контрфактуальна темпоральна модель причинно-наслідкових зв'язків для побудови пояснень в інтелектуальних системах. Вісник Національного технічного університету "ХПІ". Сер.: Системний аналіз, управління та інформаційні технології, (2(6)), 41-46.
Chala O. (2018) Models of temporal dependencies for a probabilistic knowledge base. Econtechmod. An International Quarterly Journal. Vol. 7, No. 3. P. 53 – 58.
. Чала О. В. (2020) Модель узагальненого представлення темпоральних знань для задач підтримки управлінських рішень. Вісник Національного технічного університету «ХПІ». Системний аналіз, управління та інформаційні технології. № 1(3). С. 14-18. DOI: 10.20998/2079-0023.2020.01.03.
Levykin V., Chala O. Development of a method of probabilistic inference of sequences of business process activities to support business process management. Eastern-European Journal of Enterprise Technologies. 2018. № 5/3(95). P. 16-24. DOI: 10.15587/1729-4061.2018.142664.