49902

Искусственный нейрон. Алгоритм обратного распространения

Доклад

Информатика, кибернетика и программирование

Нейронные сети обратного распространения – это мощнейший инструмент поиска закономерностей, прогнозирования, качественного анализа. Такое название – сети обратного распространения (back propagation) они получили из-за используемого алгоритма обучения, в котором ошибка распространяется от выходного слоя к входному, т.е. в направлении...

Русский

2014-01-12

467.33 KB

2 чел.

Искусственный нейрон.

Несмотря на большое разнообразие вариантов нейронных сетей все они имеют общие черты. Так все они, также как и мозг человека, состоят из большого числа однотипных элементов – нейронов, которые имитируют нейроны головного мозга, связанных между собой.

На рис.1 показана схема нейрона

                    

d0.1

Из рисунка видно, что искусственный нейрон, так же как и живой, состоит из синапсов, связывающих входы нейрона с ядром, ядра нейрона, которое осуществляет обработку входных сигналов и аксона, который связывает нейрон с нейронами следующего слоя. Каждый синапс имеет вес, который определяет насколько соответствующий вход нейрона влияет на его состояние. Состояние нейрона определяется по формуле

  (1)

где

n - число входов нейрона

xi – значение i-го входа нейрона

wi – вес i-го синапса

Затем определяется значение аксона нейрона по формуле

Y = f(S)   (2)

Где f - некоторая функция ,которая называется активационной. Наиболее часто в качестве активационной функции используется так называемый сигмоид, который имеет следующий вид:

(3)

Основное достоинство этой функции в том, что она дифференцируема на всей оси абсцисс и имеет очень простую производную:

(4)

При уменьшении параметра α сигмоид становится более пологим, вырождаясь в горизонтальную линию на уровне 0,5 при α =0. При увеличении α сигмоид все больше приближается к функции единичного скачка.

Алгоритм обратного распространения

Нейронные сети обратного распространения – это мощнейший инструмент поиска закономерностей, прогнозирования, качественного анализа. Такое название – сети обратного распространения (back propagation) они получили из-за используемого алгоритма обучения, в котором ошибка распространяется от выходного слоя к входному, т.е. в направлении, противоположном направлению распространения сигнала при нормальном функционировании сети.

Нейронная сеть обратного распространения состоит из нескольких слоев нейронов, причем каждый нейрон слоя i связан с каждым нейроном слоя i+1, т.е. речь идет о полносвязной НС.

В общем случае задача обучения НС сводится к нахождению некой функциональной зависимости Y=F(X) где X-вектор входной, а Y -выходной векторы. В общем случае такая задача, при ограниченном наборе входных данных имеет бесконечное множество решений. Для ограничения пространства поиска при обучении ставится задача минимизации целевой функции ошибки НС, которая находится по методу наименьших квадратов:

 (1)

где  – реальное выходное состояние нейрона j выходного слоя N нейронной сети при подаче на ее входы p-го образа; djp – идеальное (желаемое) выходное состояние этого нейрона.

Суммирование ведется по всем нейронам выходного слоя и по всем обрабатываемым сетью образам. Минимизация ведется методом градиентного спуска, что означает подстройку весовых коэффициентов следующим образом:

 (2)

Здесь wij – весовой коэффициент синаптической связи, соединяющей i-ый нейрон слоя n-1 с j-ым нейроном слоя n,  – коэффициент скорости обучения, 0<<1.

Как показано в [2],

(3)

Здесь под yj, подразумевается выход нейрона j, а под sj – взвешенная сумма его входных сигналов, то есть аргумент активационной функции. Так как множитель dyj/dsj является производной этой функции по ее аргументу, из этого следует, что производная активационной функция должна быть определена на всей оси абсцисс. В связи с этим,  функция единичного скачка и прочие активационные функции с неоднородностями не подходят для рассматриваемых НС. В них применяются такие гладкие функции, как гиперболический тангенс или классический сигмоид с экспонентой. В случае гиперболического тангенса

 (4)

Третий множитель sj/wij, очевидно, равен выходу нейрона предыдущего слоя yi(n-1).

Что касается первого множителя в (3), он легко раскладывается следующим образом[2]:

(5)

Здесь суммирование по k выполняется среди нейронов слоя n+1.

Введя новую переменную

(6)

мы получим рекурсивную формулу для расчетов величин j(n) слоя n из величин k(n+1) более старшего слоя n+1.

(7)

Для выходного же слоя

(8)

Теперь мы можем записать (2) в раскрытом виде:

(9)

Иногда для придания процессу коррекции весов некоторой инерционности, сглаживающей резкие скачки при перемещении по поверхности целевой функции, (9) дополняется значением изменения веса на предыдущей итерации

(10)

где  – коэффициент инерционности, t – номер текущей итерации.

Таким образом, полный алгоритм обучения НС с помощью процедуры обратного распространения строится так:

1. Подать на входы сети один из возможных образов и в режиме обычного функционирования НС, когда сигналы распространяются от входов к выходам, рассчитать значения последних. Напомним, что

(11)

где M – число нейронов в слое n-1 с учетом нейрона с постоянным выходным состоянием +1, задающего смещение; yi(n-1)=xij(n) – i-ый вход нейрона j слоя n.

yj(n) = f(sj(n)), где f() – сигмоид  (12)

yq(0)=Iq, (13)

где Iq – q-ая компонента вектора входного образа.

2. Рассчитать (N) для выходного слоя по формуле (8).

Рассчитать по формуле (9) или (10) изменения весов w(N) слоя N.

3. Рассчитать по формулам (7) и (9) (или (7) и (10)) соответственно (n) и w(n) для всех остальных слоев, n=N-1,...1.

4. Скорректировать все веса в НС

(14)

5. Если ошибка сети существенна, перейти на шаг 1. В противном случае – конец.

Сети на шаге 1 попеременно в случайном порядке предъявляются все тренировочные образы, чтобы сеть, образно говоря, не забывала одни по мере запоминания других.


 

А также другие работы, которые могут Вас заинтересовать

60202. Людина і природа: трагедія чи ідилія 51.5 KB
  Зявляється Гамлет. Гамлет: Купатися чи не купатися мені Питання це тривожить мозок мій. Ліворуч у напівтемряві зявляється тінь батька Гамлета. Батько Гамлета: Гамлете синку мій Гамлет озирається: Хто тут Батько Гамлета: Це я твій тато що рано у могилу зліг.
60204. Правила поводження з вогнем 45.5 KB
  Часу не гайте розведіть вогонь І не гасіть його Боже борони Хай дим пожежі всі довкіл побачать Бо ви герой а це велика вдача. Ви звичайно знаєте що таке вогонь. Де можна з ним зустрітися побачити Дуже давно люди не вміли добувати вогонь.
60205. ПОДОРОЖ ПО ЛІТЕРАТУРНОМУ МУЗЕЮ 1 MB
  Мета: розширити й поглибити знання дітей про письменників Р.Кіплінга, А. де Сент-Екзюпері, Т.Шевченка; допомогти глибше осягнути їх життєвий і творчий шлях, багатогранну складну обдаровану особистість...
60206. РОДИННЕ ВИХОВАННЯ: ЗАПОВІДІ ВВІЧЛИВОСТІ І ДОБРА 70.5 KB
  Плекання таких чеснот, як людяність, пошана до старших, допомога іншим і релігійність, милосердя, охайність, любов до порядку, доброзичливість, вихованість, добра поведінка в товаристві...
60207. Жінка – краса і гордість України 4.33 MB
  Мета заходу: Методична запровадити методику використання мультимедійних технологій у позакласний захід з дисципліни Українська література; Дидактична поглибити знання студентів про видатних жінок їх місце в історії та суспільстві...
60208. Свято «Прощавай, початкова школо!» 124 KB
  Усе в житті буває вперше. Уперше тягнеться до сонця стебельце, щоб згодом порадувати нас хлібною зерниною. Уперше народжується дитина, щоб продовжити родовід. Уперше приходимо ми до школи.
60209. Виховний захід «Проблема сміття. Мій внесок у вирішення цієї проблеми» 4.56 MB
  А чи знаєте ви що за рік в атмосферу після ваших гралищ з вогнем піднімається: Сажі 391 тонни слайд 8 Марганцю 121 тонни Фтористих сполук 059 тонни Бензину 038 тонни Пилу цементу 0062 тонни Оксиду кальцію 2362 тонни Нікелю 003 тонни...
60210. Мати-берегиня нашого життя йшла у бій не заради слави 358 KB
  Мета: на основі дослідження архівних документів численних публікацій презентувати колективний проект з гендерної рівності Матиберегиня нашого життя йшла у бій не заради слави; показати героїчну велич Берегині нашого життя в роки...