Оптимизация прогноза нестационарных объектов на основе гибридного алгоритма обучения нейронной сети
- № 3 (47) 2018
Страницы:
2
–
13
Язык: русский
Аннотация
Разработаны методические основы оптимизации обработки данных и обучения нейронных сетей (НС), ориентированных на применение эвристических алгоритмов поиска, стохастического моделирования, механизмов формирования субоптимальных наборов параметров обучения и данных, параметрической настройки вычислительных схем сети. Предложены модифицированные вычислительные схемы расчета весов, коэффициента синаптических связей, подбора активационной функции нейронов, рациональной архитектуры, числа слоев и нейронов в слоях сети при линейном и нелинейных зависимостях «входы и выходы». Построен обобщенный алгоритм обучения радиально-базисной сети с механизмами оптимальной настройки параметров, базы данных (БД), базы знаний (БЗ) и идентификации ортонормированными полиномами и авторегрессионной моделью и адаптивной сегментацией контура временных рядов. Варианты обобщения алгоритма обучения НС реализованы в составе программного комплекса обработки данных, для алгоритма доказана слабая чувствительность к размерности задач и способность к учету свойств информации.
Эвристик кидириш алгоритмлари, стохастик моделлаштириш, ургатувчи параметрлар ва маълумотларнинг субоптимал танламасини шакллантириш, хисоб схемаларини параметрик созлаш механизмларини куллашга йуналтирилган нейрон тармоFини (НТ) макбул ургатиш ва маълумотларга ишлов бериш услубий асослари ишлаб чикилган. Нейрон микдорий, синаптик богааниш коэффициентларини, активация функциясини, макбул тармок архитектурасини, кобиклар сони, кобикларда нейронлар сонини «кириш-чикиш»нинг чизикли ва чизикмас богааниш холларида хисоблашнинг такомиллашган схемалари таклиф этилган. Параметрларни, маълумот базасини (МБ), билимлар базасини (ББ) макбул созлаш, вактли катор контурини ортонормаллашган полиномлар ва авторегрессия модели асосида идентификациялаш, адаптив сегментациялаш механизмларига асосланган радиал — базисли тармокни ургатувчи умумий алгоритм курилган. НТни ургатиш умумий алгоритми варианти ахборотга ишлов бериш дастурий мажмуаси таркибида жорийлашган, халда унинг масала улчамига суст сезгирлиги, маълумотлар хоссаларини инобатга олиш кобилиятига эга эканлиги исбот килинган.
Effective tools are developed for data identification, analysis and processing on the basis of neural networks (NN) for forecasting random time processes (RTP) of non-stationary objects under conditions of a priori limitation, parametric uncertainty, low reliability, lack of an adequate model with the most effective optimization mechanisms. The offered technique assumes improvement of the computational schemes of traditional learning algorithms with direct and back error propagation based on least squares, gradient, modified gradient optimization, and allows eliminating the problems associated to laborious calculations of the exact values of global and local extremum search functions. Methods are developed for optimizing the learning of NN oriented on the use of heuristic search algorithms, stochastic modeling, formation of suboptimal set of training, regulation of parameters of NN components computational schemes with aim of improving the accuracy of data processing by smaller computations.Computational schemes of networks structural components are designed for realizing the modified calculations of neurons weights, synaptic connections, activation function, rational architecture, number of layers and neurons in network layers, nonlinear dependences «inputs and outputs», executing of heuristic search, probabilistic calculations, adaptation of variables of objects description model and NN structural components, function of interconnections «inputs and outputs», hybrid training of NN under low costs, adjustments based on the optimal set of parameters, set of training data, database (DB), knowledge (KB).Computational schemes are proposed for preliminary data processing with segmentation of random time series (RTS) in each interval of contour division, for selection of radial-basis function in each segment, regulation of segment boundaries and model parameter values Algorithm constructed for NN learning uses sets of RTS templates and three-layer NN with a single hidden layer, a nonlinear activation function of neurons, and a mechanism for adjusting the parameters of network structural components. The effectiveness of RTS identifying method on the basis of orthonormal discrete polynomials in a system of equidistant points and effectiveness of use the mechanisms for tuning the dynamic characteristics, identification of stationary, quasistationary and nonstationary sections of RTS are substantiated.
Эвристик кидириш алгоритмлари, стохастик моделлаштириш, ургатувчи параметрлар ва маълумотларнинг субоптимал танламасини шакллантириш, хисоб схемаларини параметрик созлаш механизмларини куллашга йуналтирилган нейрон тармоFини (НТ) макбул ургатиш ва маълумотларга ишлов бериш услубий асослари ишлаб чикилган. Нейрон микдорий, синаптик богааниш коэффициентларини, активация функциясини, макбул тармок архитектурасини, кобиклар сони, кобикларда нейронлар сонини «кириш-чикиш»нинг чизикли ва чизикмас богааниш холларида хисоблашнинг такомиллашган схемалари таклиф этилган. Параметрларни, маълумот базасини (МБ), билимлар базасини (ББ) макбул созлаш, вактли катор контурини ортонормаллашган полиномлар ва авторегрессия модели асосида идентификациялаш, адаптив сегментациялаш механизмларига асосланган радиал — базисли тармокни ургатувчи умумий алгоритм курилган. НТни ургатиш умумий алгоритми варианти ахборотга ишлов бериш дастурий мажмуаси таркибида жорийлашган, халда унинг масала улчамига суст сезгирлиги, маълумотлар хоссаларини инобатга олиш кобилиятига эга эканлиги исбот килинган.
Effective tools are developed for data identification, analysis and processing on the basis of neural networks (NN) for forecasting random time processes (RTP) of non-stationary objects under conditions of a priori limitation, parametric uncertainty, low reliability, lack of an adequate model with the most effective optimization mechanisms. The offered technique assumes improvement of the computational schemes of traditional learning algorithms with direct and back error propagation based on least squares, gradient, modified gradient optimization, and allows eliminating the problems associated to laborious calculations of the exact values of global and local extremum search functions. Methods are developed for optimizing the learning of NN oriented on the use of heuristic search algorithms, stochastic modeling, formation of suboptimal set of training, regulation of parameters of NN components computational schemes with aim of improving the accuracy of data processing by smaller computations.Computational schemes of networks structural components are designed for realizing the modified calculations of neurons weights, synaptic connections, activation function, rational architecture, number of layers and neurons in network layers, nonlinear dependences «inputs and outputs», executing of heuristic search, probabilistic calculations, adaptation of variables of objects description model and NN structural components, function of interconnections «inputs and outputs», hybrid training of NN under low costs, adjustments based on the optimal set of parameters, set of training data, database (DB), knowledge (KB).Computational schemes are proposed for preliminary data processing with segmentation of random time series (RTS) in each interval of contour division, for selection of radial-basis function in each segment, regulation of segment boundaries and model parameter values Algorithm constructed for NN learning uses sets of RTS templates and three-layer NN with a single hidden layer, a nonlinear activation function of neurons, and a mechanism for adjusting the parameters of network structural components. The effectiveness of RTS identifying method on the basis of orthonormal discrete polynomials in a system of equidistant points and effectiveness of use the mechanisms for tuning the dynamic characteristics, identification of stationary, quasistationary and nonstationary sections of RTS are substantiated.