Ремонт принтеров, сканнеров, факсов и остальной офисной техники


назад Оглавление вперед




[2]

нейрона от t=0 до t; p(N) есть сигмоидальная функция. Последняя определена для значений N = 0, 1, ... , и уменьшается от некоторого значенияp(0) = pmax, pmax < =

100%, до значения p(Cc) = p , p < p max . Кроме того, p(M) = pM , p < pM

< pmax, где M есть константа. Значения pmax, pM, pmm и M задаются для каждого нейрона априори. Переменная Vw показывает состояние элемента lw в момент t и может принимать значения 0 или 1, согласно условию:

ltw = 0, если N t < M, и ltw = 1 иначе.

Элемент T подобен триггеру, который переключается сигналом(btw

& lw)=1 (см. точку "с" на рис. 4) в состояние, при котором выходной сигнал становится равным 1, и сигналом Stw = 1 переключается в состояние, при котором выходной сигнал O1 принимает значение 0. Переменная g *w

определяется условием: g w = 0, если Z t < L, и gtw = 1 иначе, где Zt есть число единичных сигналов, наблюдавшихся в точке "с" в течение предыстории. Константы L определены для каждого нейрона.

Векторы Xt, для которых btw = 1, "обучают" нейрон (число N увеличивается). Число M для нейрона подобрано так, чтобы N не превысило M за время жизни нейрона, если такие векторы Xt есть случайные явления. С другой стороны, число N достигнет величины M в случае, если этот вектор есть неслучайное явление в системе (с заданной вероятностью ложной тревоги). Если событие N = Mслучится с нейроном nw, то мы говорим, что нейрон nw обучен и образ O w сформирован начиная с этого момента t. Необратимый процесс роста N от 0 до M в нейроне n w есть процесс обучения нейрона nw и, тем самым, процесс формирования образа O w. Если образ сформирован, то он не может уже быть

"расформирован" (переучивание УС происходит за счет доучивания. Память о прежних образах и знаниях сохраняется в обученных нейронах). Сформированный образ может быть распознан в текущий момент (O1 =1) или может быть не распознан (O1 =0). Несформированный образ не может быть распознан.

1 только после того,

Итак, эта модель нейрона содержит три необратимо обучаемых элемента, именно

Rw, lw и gw, и один триггерный элемент T w. Выходной сигнал нейрона

генерируется на следующем такте после получения входного вектора.

Поскольку в

Сигнал Ow =1 может быть отключен сигналом St как информация этого сигнала будет использована УС.

x1

x2

m

Owt+1

синхроимпульс S Рис. 5.

t+1


общем случае нейрон может быть соединен не со всеми нейронами предыдущего слоя (рис. 6), то прообразом образа является пространственно-временная последовательность сигналов на входе нейросети. Входы данного нейрона могут не иметь весов, в этом случае нейрон различает только единичные векторы с учетом полноты их состава, задаваемой функцией p(N). Нейрон обучается под воздействием единичных (с учетом функции p(N)) входных векторов, другими словами, нейрон способен обнаружить коррелирующие единичные сигналы, если они подаются на входы нейрона. На рис.5 показана модификация данного нейрона (нейрон типа II), учитывающая синаптические и другие возможные задержки Д на отдельных синапсах, а также актуальную длительность т сигнала, которая может быть связана, например, с шириной и скоростью прохождения волны деполяризации в месте аксонного холмика, и другими причинами, определяющими характерную длительность импульса, воспринимаемого элементом Rw как единичный сигнал. Будем полагать, что характерная длительность возбуждения, соответствующая единичному выходному сигналу yi=1 триггерного элемента Ti, поддерживается не дольше, чем в течение времени Т. Величины задержек Д и т задаются при синтезе УС. Обучаться будет тот нейрон, у которого величины задержек совпадают с характером входного сигнала.

Следующая модификация нейрона связана с моделированием известного факта ускорения роста тех синапсов, по которым приходят коррелирующие входные сигналы [18]. Это позволяет нейрону реагировать не только на единичный вектор, но на любую неслучайную комбинацию единичных входных сигналов.

Итак, сеть, собранная из рассмотренных нейронов (небольшой фрагмент сети на рис. 6), способна решать задачу ФРО. При этом априорная информация определяет топологию сети, а неопределенность требует соответствующего избытка нейронов. В сети обучатся те нейроны, на которые отображаются пространственно-временные закономерности входного потока информации.

2. Построение базы знаний и аппарата принятия решений. Поскольку рассмотренный нейрон фактически обнаруживает коррелирующие сигналы, то на его основе можно построить БЗ, где отдельный нейрон фиксирует рассмотренную выше тройку "образ условия - образ действия - образ следствия" [9,11,12,1417,20]. В элементарном случае БЗ может быть представлена трехмерной матрицей нейронов, измерения и размерности которой соответствуют образам указанной тройки множеств. Принятие решения осуществляется обученными нейронами, что

становится возможным при уменьшении порога

p(N).

3. Построение аппарата эмоций. Идея определенияоценок

качества образов также основанана

корреляционном анализе сигналов от распознанных образов и сигналов оценки St текущего состояния ОУ [11]. Поэтому эту задачу также можно решать с


помощью сети из указанных нейронов. В целом УС, построенную по методу ААУ, в упрощенном виде

можно

изобразить следующей схемой (рис. 7).

Заметим, что предложенная схема допускает весьма простые решения. Так, в указанной тройке множеств "множество образов условия - множество образов действия - множество образов результатов" каждое из распознаваемых множеств может быть представлено, например, всего одним образом [20]. Даже такое простое решение позволяет строить практически полезные приложения [16]. Круг приложений систем ААУ будет расширяться по мере нахождения способов сокращения необходимого избытка нейронов. Пути решения проблемы мы видим в: а) разработке методики задания оптимальной топологии нейронных подсетей УС на основе использования априорной информации об объекте управления, б) использовании генетических алгоритмов для выращивания сетей УС, в) применении известных методов поиска для динамического построения и перестроения сетей УС, а также использования элементов других технологий.

Назовем несколько примеров прототипов практических приложений, разработанных нами на основе метода ААУ [16,19]. Это адаптивная система "Pilot" для стабилизации углового движения космического аппарата (проект выполнен для НПО им. С. А. Лавочкина и ЦНИИ Машиностроения). Прототип системы поддержки принятия решений "Тактик" при управлении социальными объектами (проект выполнен для Аналитического Центра при Президенте РФ). Адаптивная система управления "Captain" для управления классом динамических объектов с нелинейными осциллирующими компонентами [21].

Среда в

строгом смысле

ОЫ

Среда в

узком

смысле

ЫС

. Блок датчиков

Формирование, оценивание и распознавание образов

Оценивание состояния ОУ

Среда в

широком

смысле

Формирование базы знаний

т

Исполняю-I щнй орган

I

Выбор действия

Как следует из сказанного выше, отличие предлагаемой нейросетевой реализации систем ААУ от традицион-ных нейросе-тей состоитв

"управляющей парадигме" данного подхода, в комплексе решающей весь спектр задач,

необходимых для адаптивного управления, тогда как

традиционные нейросети решают только задачу классификации.

Значение рассмотренного подхода ААУ к построению управляющих систем состоит в том, что он позволяет строить действующие, хотя и со сравнительно небольшим пока числом (~104-105) образов, но практически полезные

Определение времени принятия решения

Рис. 7.



[стр.Начало] [стр.1] [стр.2] [стр.3]