Научно - Информационный портал



  Меню
  


Смотрите также:



 Главная   »  
страница 1 | страница 2 страница 3 страница 4 ... страница 13 | страница 14

ОДНОСЛОЙНЫЕ НЕЙРОННЫЕ СЕТИ


Нейронная сеть представляет собой совокупность формальных нейронов, связанных определенным образом друг с другом и с внешней средой. Вектор входного сигнала, кодирующий входное воздействие или образ внешней среды, подается на сеть при активации входных нейронных элементов. Веса связей нейронных элементов представляют в виде матрицы W, для которой wij – вес связи j-го нейрона с i-ым. В процессе функционирования сети входной вектор преобразуется в выходной. Вид преобразования обуславливается не только характеристиками нейронных элементов, но и особенностями организации и правилами обучения сети, т. е. топологией связей, наличием или отсутствием конкуренции, направлением информационных потоков и другими. Обучающие правила определяют изменения связей и весов в ответ на входное воздействие.



Слоем нейронной сети называется множество нейронных элементов, на которые в каждый такт времени параллельно поступает информация от других нейронных элементов сети. Однослойные сети включают один слой элементов, осуществляющий обработку входной информации, рис. 11.
Рис. 11. Топология однослойной сети
Каждый нейрон распределительного слоя имеет синаптические связи со всеми нейронами обрабатывающего слоя. Выходное значение j-го нейрона обрабатывающего слоя сети можно представить как:

,

где – смещение j-го нейронного элемента выходного слоя, wij – сила связи между j-ым нейроном распределительного слоя и i-ым нейроном обрабатывающего слоя. Вектор-столбец взвешенной суммы в матричном виде определяется так:



S=WTX-,

где W – матрица размерности np, – вектор-столбец смещений элементов обрабатывающего слоя.



Пример 1.1. Построить нейросетевые модели логических операций.

Логические операции определяются сетью с двумя нейронами на входе и одним нейроном выходного слоя (рис. 12)

Взвешенная сумма в этом случае равна:

,

а выходное значение нейронной сети



.

Рис. 12. Сеть с одним выходным нейроном

Такая сеть линейно разделяет входное пространство сигналов на два класса и может быть использована для решения задач классификации образов. Уравнение разделяющей линии имеет вид

или


.

Множество решений логических операций ИЛИ, И, «исключающее ИЛИ» соответственно представлено на рис. 13.

Рис. 13. Графическая интерпретация логических операций
Множество решений сети нельзя разделить на два класса для операции «исключающее ИЛИ».

Если размерность входного сигнала n=3, то разделяющей поверхностью является плоскость, при n>3 разделяющей поверхностью является гиперплоскость. Обучение сети можно производить путем настройки весовых коэффициентов и смещений, если порог или смещение нейрона изобразить как синаптическую связь с весовым коэффициентом, равным значению (рис. 14).

Так как входное значение, подаваемое на дополнительный нейрон, равно – 1, то взвешенная сумма определяется как

.

После такого преобразования и биполярной кодировки двоичных сигналов разделяющими прямыми будут линии:



x1 + x2 = + 1 для «логического И»,

x1 + x2 = – 1 для «логического ИЛИ» (рис. 15).


Рис. 14. Представление смещения в виде синаптической связи

Рис. 15. Решение задач «логического И» и «логического ИЛИ»
Правило обучения Хебба, использованное при этом и направленное на усиление связи между одновременно активными нейронами, будет рассмотрено далее.

Однослойный персептрон – сеть, состоящая из S, A и R нейронных элементов (рис. 16), предложенная Ф. Розенблаттом в 1959 г., относится к однослойным сетям.


Рис. 16. Структура персептрона
Нейроны слоя S называются сенсорными и предназначены для формирования входных сигналов в результате внешних воздействий. Нейроны слоя A предназначены для непосредственной обработки входной информации и называются ассоциативными. Нейроны слоя R называются эффекторными и введены для передачи сигналов возбуждения к соответствующему объекту. В качестве функции активации ассоциативного слоя A используется бинарная пороговая функция. Обучение персептрона осуществляется путем настройки весовых коэффициентов W между слоями S и A. Элементы слоя S выполняют чисто распределительные функции. Правило обучения Розенблатта, являющееся модификацией правила Хебба, можно представить в следующем виде:

,

где tj – эталонное или целевое значение j-го выхода нейронной сети,  – скорость обучения сети, 0<<=1. Обучение производится с подкреплением, то есть весовые коэффициенты сети изменяются только в том случае, если выходное значение не совпадает с целевым значением tj. Идея персептрона была использована для распознавания символьной информации в простейшем нейрокомпьютере. Число решающих элементов слоя A персептрона совпадает с числом распознаваемых классов.




    1. страница 1 | страница 2 страница 3 страница 4 ... страница 13 | страница 14

Смотрите также: