Можливісно-каузальне представлення пояснень в інтелектуальній інформаційній системі

Автор(и)

  • С.Ф. Чалий Харківський національний університет радіоелектроніки, Україна
  • В.О. Лещинський Харківський національний університет радіоелектроніки, Україна

DOI:

https://doi.org/10.30837/bi.2022.1(98).11

Ключові слова:

ІНТЕЛЕКТУАЛЬНА СИСТЕМА, СИСТЕМА ШТУЧНОГО ІНТЕЛЕКТУ, ПОЯСНЕННЯ, ПРОЦЕС ПРИЙНЯТТЯ РІШЕНЬ, ПРИЧИННО-НАСЛІДКОВИЙ ЗВ'ЯЗОК, МОЖЛИВІСТЬ, КАУЗАЛЬНІСТЬ

Анотація

Предметом вивчення в статті є процеси побудови пояснень щодо отриманих результатів та послідовності дій з прийняття рішення в інтелектуальній інформаційній системі. Метою є розробка підходу до побудови пояснень на основі можливісного опису причинно-наслідкових зав'язків між вхідними даними та результатом роботи інтелектуальної системи, що створює умови для формування пояснення при представленні такої системи як у вигляді «чорного», так і у вигляді «сірого» ящику. Завдання: розробка узагальненої можливісно-каузальної моделі пояснення; розробка методу побудови можливісно-каузального представлення пояснення в інтелектуальній інформаційній системі. Використовуваними підходами є: методи побудови пояснень, теорія можливостей, підходи до побудови темпоральних знань. Висновки. Наукова новизна отриманих результатів полягає в наступному. Запропоновано комплекс можливісно-каузальних моделей пояснення в інтелектуальній системі, що задає причинно-наслідковий зв'язок між класом вхідних даних та класом рішення, а також між проміжними діями з процесу отримання результату та класом рішення. Можливісний аспект моделі розраховується для підмножини, що містить представників одного класу даних, або ж для окремих дій спрощеного процесу прийняття рішення. У практичному плані розроблена модель дає можливість сформувати опис процесу прийняття рішення на основі можливісних каузальних залежностей та побудувати пояснення на основі обмежених даних про процес функціонування інтелектуальної інформаційної системи. Запропоновано метод побудови пояснення в інтелектуальній інформаційній системі на основі можливісних каузальних залежностей. Метод містить етапи визначення класів вхідних даних та результату для пояснення, формування переліку можливих причинно-наслідкових залежностей, що пов'язують вхідні дані або дії процесу із рішенням інтелектуальної системи, розрахунку можливостей використання отриманих залежностей для побудови пояснення, розрахунку необхідності для отриманих залежностей та упорядкування отриманих пояснень за значенням необхідності. Метод дає можливість побудувати пояснення при представленні інтелектуальної інформаційної системи як у вигляді «чорного», так і у вигляді «сірого» ящику, відобразивши відповідно вплив вхідних даних та вплив спрощеного процесу прийняття рішення на результат інтелектуальної системи.

Біографії авторів

С.Ф. Чалий, Харківський національний університет радіоелектроніки

Професор кафедри інформаційних управляющих систем, Харківський національний університет радіоелектроніки, Україна

В.О. Лещинський, Харківський національний університет радіоелектроніки

Доцент кафедри програмної інженерії, Харківський національний університет радіоелектроніки, Україна

Посилання

Chi, M., de Leeuw, N., Chiu, M., & LaVancher, C. Eliciting self-explanations improves understanding. Cognitive Science. – 1994. – Vol.18. P. 439–477.

Чалий, С., & Лещинська, І. Концептуальна ментальна модель пояснення в системі штучного інтелекту // Вісник Національного технічного університету «ХПІ». Серія: Системний аналiз, управління та iнформацiйнi технологiї – 2023. – Vol. 1(9). – P. 70–75 https://doi.org/10.20998/2079-0023.2023.01.11

Carey, S. The origin of concepts. New York, NY: Oxford University Press. 2009. 608 p.

Adadi, A., Berrada, M. (2018) Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE Access. – 2018. – Vol.6. P. 52138– 52160.

Castelvecchi D. Can we open the black box of AI? Nature. – 2016. – Vol. 538 (7623), pp. 20-23.

Tintarev N., Masthoff J. Evaluating the effectiveness of explanations for recommender systems, User Model User-Adap Inter. – 2012. – Vol. 22, pp. 399– 439, https://doi.org/10.1007/s11257-011-9117-5

Gunning І. D. Aha DARPA’s Explainable Artificial Intelligence (XAI) Program // AI Magazine. – 2019. – Vol. 40(2), pp.44-58, doi: 10.1609/ aimag.v40i2.2850.

Adomavicius G. et al. Incorporating contextual information in recommender systems using a multidimensional approach // ACM Transactions on Information Systems. – 2005. – Vol. 23(1). – P. 103–145.

Chalyi, S., Leshchynskyi, V. Method of constructing explanations for recommender systems based on the temporal dynamics of user preferences. EUREKA: Physics and Engineering. – 2020. – Vol. 3, pp. 43-50. doi: 10.21303/2461-4262.2020.001228. Available at: http://journal.eu-jr.eu/engineering/article/view/14.

Chalyi S. Probabilistic counterfactual causal model for a single input variable in explainability task / S. Chalyi, V. Leshchynskyi // Сучасні інформаційні системи = Advanced Information Systems. – 2023. – Т. 7, № 3. – С. 54-59.

Chalyi Serhii Можливісна модель каузального зв’язку по вхідній змінній для побудови пояснення в інтелектуальній системі / Serhii Chalyi, Volodymyr Leshchynskyi // Системи управління, навігації та зв’язку. Збірник наукових праць. – Полтава: ПНТУ, 2023. – Т. 3 (73). – С. 138-143. – doi:https://doi.org/10.26906/SUNZ.2023.3.138.

Akula, Arjun R., et al. "CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing Human Trust in Image Recognition Models // arXiv preprint arXiv: 2109.01401 . – 2021. (accepted to iScience 2021).

A. Akula, S. Wang, and S.-C. Zhu, “CoCoX: Generating Conceptual and Counterfactual Explanations via Fault-Lines”, AAAI, vol. 34, no. 03, pp. 2594-2601, Apr. 2020.

Dubois, Didier and Prade, Henri, Possibility Theory, Probability Theory and Multiple-valued Logics: A Clarification // Annals of Mathematics and Artificial Intelligence . – 2002. – Vol. 32, pp.35–66.

##submission.downloads##

Опубліковано

2022-12-30