Учебное пособие по курсу «Нейроинформатика» | страница 69



или

x'=sign(Ax),

где .

На рис. 17 приведена схема сети Хопфилда [312] для распознавания четырехмерных образов. Обычно сети Хопфилда [312] относят к сетям с формируемой синаптической картой. Однако, используя разработанный в первой части главы набор элементов, можно построить обучаемую сеть. Для построения такой сети используем «прозрачные» пороговые элементы. Ниже приведен алгоритм обучения сети Хопфилда [312].

1. Положим все синаптические веса равными нулю.

2. Предъявим сети первый эталон e¹ и проведем один такт функционирования вперед, то есть цикл будет работать не до равновесия, а один раз (см. рис. 17б).

3. Подадим на выход каждого нейрона соответствующую координату вектора e¹ (см. рис. 17в). Поправка, вычисленная на j-ом синапсе i-го нейрона, равна произведению сигнала прямого функционирования на сигнал обратного функционирования. Поскольку при обратном функционировании пороговый элемент прозрачен, а сумматор переходит в точку ветвления, то поправка равна e>i¹e>j¹.

4. Далее проведем шаг обучения с параметрами обучения, равными единице. В результате получим α>ij=e>i¹e>j¹.

Повторяя этот алгоритм, начиная со второго шага, для всех эталонов получим , что полностью совпадает с формулой формирования синаптической карты сети Хопфилда [312], приведенной в начале раздела.

Сеть Кохонена

Сети Кохонена [131, 132] (частный случай метода динамических ядер [224, 262]) являются типичным представителем сетей решающих задачу классификации без учителя. Рассмотрим пространственный вариант сети Кохонена. Дан набор из m точек {x>p} в n-мерном пространстве. Необходимо разбить множество точек {x>p} на k классов близких в смысле квадрата евклидова расстояния. Для этого необходимо найти k точек α>l таких, что , минимально; .

Существует множество различных алгоритмов решения этой задачи. Рассмотрим наиболее эффективный из них.

1. Зададимся некоторым набором начальных точек α>l.

2. Разобьем множество точек {x>p} на k классов по правилу .

3. По полученному разбиению вычислим новые точки α>l из условия минимальности .

Обозначив через |P>i| число точек в i-ом классе, решение задачи, поставленной на третьем шаге алгоритма, можно записать в виде .


Второй и третий шаги алгоритма будем повторять до тех пор, пока набор точек α>l не перестанет изменяться. После окончания обучения получаем нейронную сеть, способную для произвольной точки x вычислить квадраты евклидовых расстояний от этой точки до всех точек α>l и, тем самым, отнести ее к одному из