Стохастична ініціалізація нейронних мереж на основі аналізу біологічних систем

Автор(и)

DOI:

https://doi.org/10.30837/bi.2025.1(102).11

Ключові слова:

ШТУЧНІ НЕЙРОННІ МЕРЕЖІ, ІНІЦІАЛІЗАЦІЯ ВАГОВИХ КОЕФІЦІЄНТІВ, СТОХАСТИЧНЕ ЗРОСТАННЯ, МАШИННЕ НАВЧАННЯ, БЕГГІНГ, СТЕКІНГ, АНСАМБЛЕВЕ НАВЧАННЯ, ШВИДКІСТЬ ЗБІЖНОСТІ, ЕФЕКТИВНІСТЬ НАВЧАННЯ, ТОЧНІСТЬ КЛАСИФІКАЦІЇ

Анотація

Штучні нейронні мережі, як правило, ініціалізуються за допомогою математично визначених методів, які не враховують структурного та функціонального різноманіття біологічних систем. Хоча традиційні підходи забезпечують стабільність навчання, вони ігнорують природні механізми формування синаптичних зв’язків. У цьому дослідженні запропоновано біологічно натхненний підхід до ініціалізації вагових коефіцієнтів, заснований на стохастичних закономірностях, виявлених в емпіричних траєкторіях руху, зафіксованих у контрольованому біологічному середовищі. Дані проходять попередню обробку, що включає згладжування, нормалізацію та масштабування, для генерації вагових значень, які надалі використовуються для ініціалізації нейронної мережі. Ефективність запропонованого методу оцінюється у порівнянні зі стандартними стратегіями ініціалізації на основі трьох тестових наборів даних: MNIST, Fashion-MNIST і Gas Sensor Array Drift. Експериментальні результати демонструють, що біологічно натхненний підхід забезпечує порівнянну ефективність за всіма оціночними критеріями, включаючи точність на тестовій і валідаційній вибірках, кількість епох до збіжності, чутливість за класами та макроусереднений показник F1-метрики. У ряді випадків метод сприяв швидшій збіжності без зниження якості класифікації. Попри те, що запропонована стратегія не завжди перевершує стандартні методи, вона вводить структуровану стохастичність у процес навчання, спираючись на біологічні принципи, та формує перспективне підґрунтя для подальших досліджень у сфері складніших архітектур і біологічно натхненних моделей навчання.

Біографії авторів

О.В. Золотухін, Харківський національний університет радіоелектроніки

Харківський національний університет радіоелектроніки, м. Харків, Україна

М.С. Кудрявцева, Харківський національний університет радіоелектроніки

Харківський національний університет радіоелектроніки, м. Харків, Україна

Є.Ю. Єрємєєв, Харківський національний університет радіоелектроніки

Харківський національний університет радіоелектроніки, м. Харків, Україна

Посилання

Dai, K., Barati Farimani, A., Webster-Wood, V.: Bio-inspired stochastic growth and initialization for artificial neural networks. In: Proceedings of the 17th International Conference on Artificial Intelligence Applications and Innovations (AIAI), pp. 88–100. Springer, Cham (2019). https://doi.org/10.1007/978-3-030-24741-6_8

Glorot, X., Bengio, Y.: Understanding the difficulty of training deep feedforward neural networks. In: Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics (AISTATS), pp. 249–256. PMLR, Sardinia (2010). https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf

Goodfellow, I., Bengio, Y., Courville, A.: Deep Learning. MIT Press, Cambridge (2016).

Squadrani, L., Curti, N., Giampieri, E., Remondini, D., Blais, B., Castellani, G.: Effectiveness of biologically inspired neural network models in learning and patterns memorization. Entropy 24(5), 682 (2022). https://doi.org/10.3390/e24050682

Manchev, N., Spratling, M.: On the biological plausibility of orthogonal initialization for solving gradient instability in deep neural networks. In: Proceedings of the 2022 International Symposium on Computational and Business Intelligence (ISCMI), pp. 47–55. IEEE, Shanghai (2022). https://doi.org/10.1109/ISCMI56532.2022.10068489

Masood, S., Doja, M.N., Chandra, P.: Chaos-based network initialization approach for feedforward artificial neural networks. J. Comput. Theor. Nanosci. 17(4), 418–424 (2020). https://doi.org/10.1166/jctn.2020.8684

Pircher, T., Schlücker, E., Pircher, B., Feigenspan, A.: The structure dilemma in biological and artificial neural networks. Sci. Rep. 11, 5621 (2021). https://doi.org/10.1038/s41598-021-84813-6

Rossbroich, J., Gygax, J., Zenke, F.: Fluctuation-driven initialization for spiking neural network training. Neuromorph. Comput. Eng. 2, 044016 (2022). https://doi.org/10.1088/2634-4386/ac97bb

Demidova, L.A., Gorchakov, A.V.: Biology-inspired optimization algorithms applied to intelligent input weights selection of an extreme learning machine in regression problems. AIP Conf. Proc. 2700(1), 030003 (2023). https://doi.org/10.1063/5.0124917

Dutta, S., Detorakis, G., Khanna, A., Grisafe, B., Neftci, E., Datta, S.: Neural sampling machine with stochastic synapse allows brain-like learning and inference. Nat. Commun. 13, 2571 (2022). https://doi.org/10.1038/s41467-022-30305-8

LeCun, Y., Bottou, L., Orr, G.B., Müller, K.-R.: Efficient backprop. In: Orr, G.B., Müller, K.-R. (eds.) Neural Networks: Tricks of the Trade, pp. 9–50. Springer, Berlin (2000). https://doi.org/10.1007/3-540-49430-8_2

Filatov, V., Yerokhin, A., Zolotukhin, O., Kudryavtseva, M.: Methods of intellectual analysis of processes in medical information systems. Inf. Extr. Process. 48(124), 92–98 (2020). https://doi.org/10.15407/vidbir2020.48.092

Filatov, V., Semenets, V., Zolotukhin, O.: Synthesis of semantic model of subject area at integration of relational databases. In: Proceedings of the IEEE 8th International Conference on Advanced Optoelectronics and Lasers (CAOL), pp. 598–601. IEEE, Sozopol (2019). https://doi.org/10.1109/CAOL46282.2019.9019532

Saglietti, L., Gerace, F., Ingrosso, A., Baldassi, C., Zecchina, R.: From statistical inference to a differential learning rule for stochastic neural networks. Interface Focus 8, 20180033 (2018). https://doi.org/10.1098/rsfs.2018.0033

Sodhi, S., Chandra, P.: Interval-based weight initialization method for sigmoidal feedforward artificial neural networks. AASRI Procedia 6, 19–25 (2014). https://doi.org/10.1016/j.aasri.2014.05.004

Zangana, H., Mohammed, A., Mustafa Alfaqi, F.: Advancements and applications of convolutional neural networks in image analysis: A comprehensive review. J. Intell. Comput. Syst. 3(1), 16–29 (2024). https://doi.org/10.58602/jics.v3i1.30

Zolotukhin, O., Filatov, V., Yerokhin, A., Lanovyy, O., Kudryavtseva, M., Semenets, V.: An approach to the selection of behavior patterns autonomous intelligent mobile systems. In: Proceedings of the IEEE International Conference on Problems of Infocommunications Science and Technology (PIC S&T), pp. 349–352. IEEE, Kyiv (2021). https://doi.org/10.1109/PICST54195.2021.9772110

Zolotukhin, O., Filatov, V., Yerokhin, A., Kudryavtseva, M.: The methods for the prediction of climate control indicators in the Internet of Things systems. CEUR Workshop Proc. (2021). https://doi.org/10.5281/zenodo.14526027

Yerokhin, A., Nechyporenko, A., Babii, A., Turuta, O.: A new intelligence-based approach for rhinomanometric data processing. In: 2016 IEEE 36th International Conference on Electronics and Nanotechnology (ELNANO), pp. 198–201. IEEE, Kyiv (2016). https://doi.org/10.1109/ELNANO.2016.7493047

Yerokhin, A., Semenets, V., Nechyporenko, A., Turuta, O., Babii, A.: F-transform 3D point cloud filtering algorithm. In: 2018 IEEE Second International Conference on Data Stream Mining & Processing (DSMP), pp. 524–527. IEEE, Lviv (2018). https://doi.org/10.1109/DSMP.2018.8478581

LeCun, Y., Bottou, L., Bengio, Y., Haffner, P.: Gradient-based learning applied to document recognition. Proc. IEEE 86(11), 2278–2324 (1998). https://doi.org/10.1109/5.726791

Xiao, H., Rasul, K., Vollgraf, R.: Fashion-MNIST: A novel image dataset for benchmarking machine learning algorithms. arXiv:1708.07747 (2017). https://doi.org/10.48550/arXiv.1708.07747

Vergara, A., Vembu, S., Ayhan, T., Ryan, M.A., Homer, M.L., Huerta, R.: Chemical gas sensor drift compensation using classifier ensembles. Sens. Actuators B Chem. 166–167, 320–329 (2012). https://doi.org/10.1016/j.snb.2012.01.074

##submission.downloads##

Опубліковано

2025-06-30