49680

ПРИМЕНЕНИЕ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ ДЛЯ ПРОГНОЗИРОВАНИЯ РЫНОЧНОЙ ОЦЕНКИ АКЦИЙИЕ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ ДЛЯ ПРОГНОЗИРОВАНИЯ РЫНОЧНОЙ ОЦЕНКИ АКЦИЙ

Курсовая

Информатика, кибернетика и программирование

Рынок ценных бумаг играет важнейшую роль в экономике любой страны. Целью его развития является обеспечение стабильного экономического роста в стране и, как следствие этого, повышение уровня благосостояния граждан. Следует подчеркнуть, что рынок ценных бумаг - это важнейший компонент экономического роста на современном этапе развития экономики России.

Русский

2014-01-05

1.26 MB

3 чел.

Министерство экономического развития и торговли Российской Федерации

Г О С У Д А Р С Т В Е Н Н Ы Й  У Н И В Е Р С И Т Е Т

ВЫСШАЯ ШКОЛА ЭКОНОМИКИ

ПЕРМСКИЙ ФИЛИАЛ

Факультет экономики

Кафедра финансового менеджмента

Курсовая работа

по дисциплине оценка финансовых рисков

на тему ПРИМЕНЕНИЕ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ ДЛЯ ПРОГНОЗИРОВАНИЯ РЫНОЧНОЙ ОЦЕНКИ АКЦИЙ

Студентов группы Э-03-3

Нигматуллиной Д.Р.

Пановой А.А.

Смирновой А.А.

Преподаватель:

Ясницкий Л.Н.

Пермь 2007


Содержание

  1.  Введение  3
  2.  Возможности нейросетевых технологий при прогнозировании рыночной оценки акций  3-5
  3.  Отбор параметров и формирование обучающей выборки 5-7
  4.  Поиск оптимальных параметров персептрона 7-17
  5.  Проверка прогнозирующей способности персептрона на тестирующей выборке 17-19
  6.  Заключение  19
  7.  Список литературы 20

  1.  
    Ведение

Цель работы – проверить возможность использования нейронных сетей для прогнозирования рыночной оценки акций.

Для достижения поставленной цели требовалось решить следующие задачи:

  •  оценить, возможно ли использование технологии нейронных сетей для прогнозирования рыночной оценки акций;
  •  сформировать обучающую выборку, которая будет состоять из ряда финансовых показателей, характеризующих деятельность компании, а также нефинансовых показателей, отражающих тип компании, и вывода о переоцененности / недооцененности акции;
  •  обучить один из нейросимуляторов на обучающей выборке;
  •  оптимизировать параметры нейронной сети;
  •  проверить прогнозирующую способность нейронной сети на тестирующей выборке

  1.  Возможности нейросетевых технологий при прогнозировании рыночной оценки акций

Рынок ценных бумаг играет важнейшую роль в экономике любой страны. Целью его развития является обеспечение стабильного экономического роста в стране и, как следствие этого, повышение уровня благосостояния граждан. Следует подчеркнуть, что рынок ценных бумаг - это важнейший компонент экономического роста на современном этапе развития экономики России. Российский фондовый рынок - это молодой, динамичный рынок с быстро нарастающими объемами операций. В то же время остается множество негативных факторов, которые сдерживают рост рынка ценных бумаг. Сюда можно отнести неудовлетворительность законодательной базы по защите прав собственности, высокие налоги, высокая коррупция. Все это является причиной повышенных рисков инвестиций в любые финансовые инструменты на российском рынке ценных бумаг. Именно поэтому, при принятии решения об инвестициях в акции той или иной компании,  любого рационального инвестора интересует экономическая целесообразность таких инвестиций, иными словами, его интересуют перспективы роста курса приобретенных акций. Из теории инвестиционного анализа известно, что необходимо делать инвестиции в те активы, которые недооценены рынком, то есть имеют потенциал роста в будущем. Актив является недооцененным, если его текущая рыночная стоимость ниже его внутренней стоимости, и наоборот, актив является переоцененным, если его текущая рыночная оценка выше, чем внутренняя стоимость. Рыночной оценкой акций является их котировка на определенную дату, определяемая в результате взаимодействия спроса и предложения на данную акцию в ходе торгов на бирже. Внутренняя стоимость акции является результатом оценки аналитика, который в своих расчетах может использовать различные подходы и модели. Наиболее распространенным способом расчета внутренней стоимости акции является метод дисконтированных денежных потоков (DCF - Discounted Cash Flows). Суть этого метода заключается в следующем:

  •  рассчитывается стоимость компании – эмитента акций как сумма дисконтированных денежных потоков, которые зарабатывает компания в течение всего срока своей жизни. Потоки прогнозируются от даты оценки и до бесконечности на основе предположений аналитика относительно изменений ключевых факторов стоимости компании (темп роста продаж, величина затрат, рентабельность продаж, объем инвестиций, рентабельность капитала, затраты на капитал и т.д.);
  •  определяется стоимость собственного капитала компании – из стоимости компании вычитается величина долга;
  •  определяется внутренняя стоимость акции как частное от деления стоимости собственного капитала на количество эмитированных акций этой компании.

Если рассчитанная таким образом стоимость акции оказывается выше, чем текущая котировка, то инвестиции в данную акцию будут прибыльными, следовательно, их надо покупать. В противном случае, акция будет переоцененной и инвестиции в неё окажутся невыгодными, следовательно её нужно продавать. Отслеживая переоцененность/ недооцененность конкретных акций, инвестор сможет своевременно корректировать состав своего портфеля, стремясь максимизировать свою прибыль. Таким образом,  наличие инструмента, позволяющего оперативно и достаточно точно выявлять переоцененные/недооцененные акции достаточно актуально.

В данной работе в качестве такого инструмента мы предлагаем использовать нейронную сеть. Мы предполагаем, что вывод о переоцененности / недооцененности акции может быть сделан в результате анализа совокупности финансовых показателей и некоторых характеристик компании (например, её отраслевая принадлежность, инвестиционный рейтинг, страна, в которой функционирует компания  и др.). Поскольку на практике  часто бывает затруднительно включить все эти факторы в математическую модель и сделать предположение  о виде функциональной зависимости между ними, то в таком случае нейронная сеть оказывается инструментом, позволяющим решить эту задачу. Обучив нейронную сеть на достаточном количестве примеров и определив её оптимальные параметры, мы можем достичь достаточно высокой прогнозирующей способности, при этом сможем учесть воздействие не только количественных параметров, но и качественных  характеристик.

  1.  Отбор параметров и формирование обучающей выборки

Рассмотрим основные параметры, которые оказывают влияние на курс акций. Это соотношение спроса и предложения, рейтинг и деловая репутация эмитента, его отраслевая принадлежность, качество ценных бумаг, меры государственного регулирования цен, конкуренция, прогнозируемый рост фирмы и ряд других факторов.

Выясним, какие параметры наиболее существенно влияют на котировки акций. В результате анализа были отобраны следующие параметры:  

параметр

значение параметра

Х1

Величина дивиденда

количественные данные

Х2

Категория ликвидности

1-для высоколиквидных акций категории А и В

0 - для низколиквидных акций категории С, D,E

X3

Темп прироста объемов реализации

количественные данные

Х4

EPS (earnings per share) -прибыль на акцию

количественные данные

Х5

Темп роста EPS

количественные данные

Х6

Отрасль

Химическая и фармацевтическая

1

Банки

2

Нефть, газ и электроэнергетика

3

Промышленность

4

Продукты питания

5

На выходе будем формировать результирующий вектор:

Y

рыночная оценка акции

0

недооценена

1

переоценена

 Дивиденд, категория ликвидности, темпы роста объемов реализации, EPS, темп роста EPS по каждой компании были взяты из исследования, выполненного журналом «Эксперт» -  Рейтинг 400 крупнейших компаний в России // Эксперт – 2005. - № 37.

Вывод о переоцененности / недооцененности акций компании был получен путем сопоставления оценки стоимости каждой компании, выполненной крупными аналитическими и оценочными компаниями («Атон»,  «RMG», «Deutsche UFG», «Брокеркредитсервис», «Ренессанс - Капитал» и др.) с текущей котировкой акции на определенную дату.

Исходные данные:


Компания

Дивиденд  за 2004 г.

Категория ликвидности

Темп роста объемов реализации (%)

EPS руб.

Темп роста EPS

Отрасль

Вывод о переоц/недооц акции

1

"Газпром"

1,19

1

19,20

8,688

6,21

3

0

2

"Лукойл"

28,00

1

39,90

143,937

12,90

3

1

3

"Сибнефть"

13,91

1

21,40

12,434

6,92

3

0

4

ГМК "Норильский никель"

69,40

1

28,20

246,829

9,12

4

0

5

АвтоВаз

23,00

1

22,80

168,232

7,37

4

1

6

Тюменская нефтяная компания

17,00

0

28,80

36,598

9,31

3

1

7

Вимм-Билль-Данн Продукты питания

12,50

1

19,00

15,066

6,14

5

0

8

Новолипецкий металлургический комбинат

1,80

1

72,70

8,524

23,50

4

0

9

"Татнефть"

13,00

1

29,30

11,303

9,47

3

1

10

"Северсталь"

17,88

1

101,50

73,176

32,81

4

0

11

"Мечел"

13,70

1

68,40

92,960

22,11

4

0

12

Пивоваренная компания "Балтика"

13,94

1

26,60

32,471

8,60

5

0

13

Концерн Калина

12,36

1

9,10

56,151

2,94

1

0

14

Аптечная сеть 36.6

18,00

1

34,10

2,525

11,02

1

0

15

Нефтегазовая компания "Славнефть"

3,92

0

69,20

7,390

22,37

3

1

16

Сода

36,65

0

31,30

37,244

10,12

1

1

17

Банк Москвы

5,79

1

19,20

26,333

6,21

2

0

18

Нижнетагильский металлургический комбинат

3,33

1

24,50

14,065

7,92

4

0

19

Борский стекольный завод

3,60

0

27,10

252,513

8,76

4

0

20

"Аэрофлот

17,00

1

18,10

4,466

5,85

4

0

21

"Уралкалий"

8,25

1

39,80

1,362

12,86

1

1

22

"Нижнекамскнефтехим"

5,40

1

35,70

2,065

11,54

3

1

23

Новосибирскэнерго

1,60

1

30,20

17,982

9,76

3

0

24

Западно-Сибирский металлургический комбинат

6,66

0

21,01

231,956

6,79

4

1

25

Ярпиво

10,00

0

1,30

14,617

0,42

5

1


  1.  Поиск оптимальных параметров персептрона

Для  решения поставленной  задачи используется персептрон следующей конфигурации:

число входов = 6,  тип функции - линейная

число выходов =1, тип функции - сигмоида

число скрытых слоев = 1,  тип функции - сигмоида

19 нейронов на скрытом слое

В данной работе для определения числа нейронов на скрытом слое персептрона использовалась формула1

, где

Ny – размерность выходного сигнала =1,

Nx – размерность входного сигнала =6,

Nw – необходимое число синаптических весов

Q – число элементов обучающей выборки =25

Число скрытых  слоев = 1.

Подставив эти значения в формулу, получим:

4.4<Nw<42.3

Выбираем Nw из середины интервала = 19

Число нейронов на скрытом слое = 19

Обучаем персептрон на всей совокупности примеров (25 наблюдений).  

Как мы видим ошибка обучения достаточно низкая. Однако, при проектировании персептронов необходимо понимать, что персептрон должен не только правильно реагировать на примеры, на которых он обучен, но и уметь обобщать приобретенные знания, то есть правильно реагировать на примеры, которых в обучающей выборке не было. Погрешность персептрона, вычисленная на обучающей выборке, называется погрешностью обучения, обозначаемой , а вычисленная на тестовой выборке - погрешностью обобщения, обозначаемой εт . При увеличении числа нейронов внутренних слоев персептрона N погрешность обучения обычно падает, тогда как погрешность обобщения сначала падает, а затем, начиная с некоторого оптимального значения N=N0, возрастает. Характерные кривые зависимости погрешностей обучения и обобщения от числа нейронов внутренних слоев персептрона приведены на рис.

Проверяем свойство обобщения персептрона: удаляем часть примеров из обучающей выборки и на этой укороченной выборке снова обучаем персептрон, сохранив все его параметры. Усеченная выборка:

№ примера

X1

X2

X3

X4

X5

X6

Y факт

1

1,19

1

19,2

8,688

6,21

3

0

2

28

1

39,9

143,937

12,9

3

1

3

13,91

1

21,4

12,434

6,92

3

0

4

69,4

1

28,2

246,829

9,12

4

0

5

23

1

22,8

168,232

7,37

4

1

6

17

0

28,8

36,598

9,31

3

1

7

12,5

1

19

15,066

6,14

5

0

8

1,8

1

72,7

8,524

23,5

4

0

9

13

1

29,3

11,303

9,47

3

1

10

17,88

1

101,5

73,176

32,81

4

0

11

13,7

1

68,4

92,96

22,11

4

0

12

13,94

1

26,6

32,471

8,6

5

0

13

12,36

1

9,1

56,151

2,94

1

0

14

18

1

34,1

2,525

11,02

1

0

15

3,92

0

69,2

7,39

22,37

3

1

16

36,65

0

31,3

37,244

10,12

1

1

17

5,79

1

19,2

26,333

6,21

2

0

18

3,33

1

24,5

14,065

7,92

4

0

19

3,6

0

27,1

252,513

8,76

4

0

20

17

1

18,1

4,466

5,85

4

0

21

8,25

1

39,80

1,362

12,86

1

1

Величина максимальной ошибки стала больше.

Произведем вычисление на усеченной выборке:

X1

X2

X3

X4

X5

X6

Y1

Yфакт

Ошибка

1,19

1

19,2

8,688

6,21

3

0,0086

0

-0,0086

28

1

39,9

143,937

12,9

3

0,9983

1

0,0017

13,91

1

21,4

12,434

6,92

3

0,0115

0

-0,0115

69,4

1

28,2

246,829

9,12

4

0,0027

0

-0,0027

23

1

22,8

168,232

7,37

4

0,9936

1

0,0064

17

0

28,8

36,598

9,31

3

0,9991

1

0,0009

12,5

1

19

15,066

6,14

5

0,0017

0

-0,0017

1,8

1

72,7

8,524

23,5

4

0,0083

0

-0,0083

13

1

29,3

11,303

9,47

3

0,9768

1

0,0232

17,88

1

101,5

73,176

32,81

4

0,0075

0

-0,0075

13,7

1

68,4

92,96

22,11

4

0,0121

0

-0,0121

13,94

1

26,6

32,471

8,6

5

0,0035

0

-0,0035

12,36

1

9,1

56,151

2,94

1

0,0001

0

-0,0001

18

1

34,1

2,525

11,02

1

0,0196

0

-0,0196

3,92

0

69,2

7,39

22,37

3

0,9903

1

0,0097

36,65

0

31,3

37,244

10,12

1

0,9994

1

0,0006

5,79

1

19,2

26,333

6,21

2

0,0017

0

-0,0017

3,33

1

24,5

14,065

7,92

4

0,0095

0

-0,0095

3,6

0

27,1

252,513

8,76

4

0,0026

0

-0,0026

17

1

18,1

4,466

5,85

4

0,0005

0

-0,0005

8,25

1

39,8

1,362

12,86

1

0,9824

1

0,0176

Рассчитаем среднеквадратическую ошибку обучения по формуле:

Ошибка обучения ε = 0,000094. Мы видим, что персептрон достаточно успешно прошел процедуру обучения. Ошибка между фактическим значением и значением, предсказанным персептроном, оказалась незначительной.

Затем в вычисление подставляем  примеры, исключенные из первоначальной выборки:

X1

X2

X3

X4

X5

X6

Y1

Y факт

ошибка

5,4

1

35,7

2,065

11,54

3

0,9813

1

0,0187

1,6

1

30,2

17,982

9,76

3

0,9025

0

-0,9025

6,66

0

21,01

231,956

6,79

4

0,0017

1

0,9983

10

0

1,3

14,617

0,42

5

0,5969

1

0,4031

Ошибка обобщения ε = 1,9739 / 4 = 0,4935. Максимальная ошибка = 0,9983. Как мы видим, персептрон верно «предсказал» только 1 значение из 4, то есть свойство обобщения не сработало.

22 нейрона на скрытом слое

Попробуем увеличить количество нейронов на внутреннем слое до 22 и рассчитать ошибки обучения и обобщения на 25 примерах.

Ошибка обучения увеличилась по сравнению с персептроном, у которого количество нейронов на внутреннем слое было 19.

Проверим свойство обобщения. Произведем вычисление на усеченной выборке (на 21 примере).

X1

X2

X3

X4

X5

X6

Y1

Y факт

ошибка

1.19

1

19.2

8.688

6.21

3

0.0111

0

-0.0111

28

1

39.9

143.937

12.9

3

0.9906

1

0.0094

13.91

1

21.4

12.434

6.92

3

0.0141

0

-0.0141

69.4

1

28.2

246.829

9.12

4

0.0072

0

-0.0072

23

1

22.8

168.232

7.37

4

0.9901

1

0.0099

17

0

28.8

36.598

9.31

3

0.9946

1

0.0054

12.5

1

19

15.066

6.14

5

0.0005

0

-0.0005

1.8

1

72.7

8.524

23.5

4

0.0106

0

-0.0106

13

1

29.3

11.303

9.47

3

0.9757

1

0.0243

17.88

1

101.5

73.176

32.81

4

0.0044

0

-0.0044

13.7

1

68.4

92.96

22.11

4

0.0088

0

-0.0088

13.94

1

26.6

32.471

8.6

5

0.0051

0

-0.0051

12.36

1

9.1

56.151

2.94

1

0.0006

0

-0.0006

18

1

34.1

2.525

11.02

1

0.02

0

-0.02

3.92

0

69.2

7.39

22.37

3

0.9952

1

0.0048

36.65

0

31.3

37.244

10.12

1

0.9983

1

0.0017

5.79

1

19.2

26.333

6.21

2

0.0029

0

-0.0029

3.33

1

24.5

14.065

7.92

4

0.0105

0

-0.0105

3.6

0

27.1

252.513

8.76

4

0.0112

0

-0.0112

17

1

18.1

4.466

5.85

4

0.0003

0

-0.0003

8.25

1

39.8

1.362

12.86

1

0.9836

1

0.0164

Ошибка обучения ε = 0,00011. Как мы видим, ошибка обучения на усеченной выборке увеличилась с увеличением числа нейронов на скрытом слое.

Вычисление на исключенных примерах:

X1

X2

X3

X4

X5

X6

Y1

Yфакт

ошибка

5,4

1

35,7

2,065

11,54

3

0,9661

1

0,0339

1,6

1

30,2

17,982

9,76

3

0,9278

0

-0,9278

6,66

0

21,01

231,956

6,79

4

0,0079

1

0,9921

10

0

1,3

14,617

0,42

5

0,0109

1

0,9891

Ошибка обобщения ε = 2,7444 / 4 =0,7061. максимальная ошибка = 0,9921. В этом случае персептрон верно предсказал только 1 значение из 4, хотя максимальная ошибка обобщения и снизилась по сравнению с персептроном с 19 нейронами на скрытом слое.

25 нейронов на скрытом слое

Затем мы еще увеличили число нейронов на скрытом слое до 25 и снова провели процедуру обучения и проверку свойства обобщения на исходной обучающей выборке. Обучение персептрона на всей совокупности примеров (25 наблюдений) :

Максимальная ошибка оказалась больше, чем для 19 нейронов и  для 22 нейронов. Следовательно, дальнейшее увеличение числа нейронов на скрытом слое не целесообразно.

Проверяем, на сколько хорошо обучился персептрон.  Вычисление на усеченной выборке (на 21 примере):

X1

X2

X3

X4

X5

X6

Y1

Yфакт

ошибка

1,19

1

19,2

8,688

6,21

3

0,0095

0

-0,0095

28

1

39,9

143,937

12,9

3

0,9934

1

0,0066

13,91

1

21,4

12,434

6,92

3

0,0167

0

-0,0167

69,4

1

28,2

246,829

9,12

4

0,0149

0

-0,0149

23

1

22,8

168,232

7,37

4

0,9875

1

0,0125

17

0

28,8

36,598

9,31

3

0,9992

1

0,0008

12,5

1

19

15,066

6,14

5

0,0027

0

-0,0027

1,8

1

72,7

8,524

23,5

4

0,009

0

-0,009

13

1

29,3

11,303

9,47

3

0,9722

1

0,0278

17,88

1

101,5

73,176

32,81

4

0,0045

0

-0,0045

13,7

1

68,4

92,96

22,11

4

0,0097

0

-0,0097

13,94

1

26,6

32,471

8,6

5

0,0046

0

-0,0046

12,36

1

9,1

56,151

2,94

1

0,0015

0

-0,0015

18

1

34,1

2,525

11,02

1

0,0121

0

-0,0121

3,92

0

69,2

7,39

22,37

3

0,994

1

0,006

36,65

0

31,3

37,244

10,12

1

0,9984

1

0,0016

5,79

1

19,2

26,333

6,21

2

0,0036

0

-0,0036

3,33

1

24,5

14,065

7,92

4

0,0115

0

-0,0115

3,6

0

27,1

252,513

8,76

4

0,0033

0

-0,0033

17

1

18,1

4,466

5,85

4

0,003

0

-0,003

8,25

1

39,8

1,362

12,86

1

0,9919

1

0,0081

Ошибка обучения ε = 0,000105. Как мы видим, персептрон с высокой степенью точности вычисляет значения Y.

Проверяем свойство обобщения. Вычисление на исключенных примерах:

X1

X2

X3

X4

X5

X6

Y1

Yфакт

Ошибка

5,4

1

35,7

2,065

11,54

3

0,9602

1

0,0398

1,6

1

30,2

17,982

9,76

3

0,905

0

-0,905

6,66

0

21,01

231,956

6,79

4

0,0026

1

0,9974

10

0

1,3

14,617

0,42

5

0,0231

1

0,9769

Ошибка обобщения ε = 2,8096 / 4 = 0,6924. Максимальная ошибка = 0,9974. Персептрон верно «предсказал» только 1 значение из 4.  

15 нейронов на скрытом слое

Попробуем сократить количество нейронов на внутреннем слое до 15 и произведем аналогичные действия. Получим:

X1

X2

X3

X4

X5

X6

Y1

Yфакт

ошибка

1,19

1

19,2

8,688

6,21

3

0,0075

0

-0,0075

28

1

39,9

143,937

12,9

3

0,9987

1

0,0013

13,91

1

21,4

12,434

6,92

3

0,0108

0

-0,0108

69,4

1

28,2

246,829

9,12

4

0,0084

0

-0,0084

23

1

22,8

168,232

7,37

4

0,9907

1

0,0093

17

0

28,8

36,598

9,31

3

0,994

1

0,006

12,5

1

19

15,066

6,14

5

0,0004

0

-0,0004

1,8

1

72,7

8,524

23,5

4

0,0064

0

-0,0064

13

1

29,3

11,303

9,47

3

0,98

1

0,02

17,88

1

101,5

73,176

32,81

4

0,0051

0

-0,0051

13,7

1

68,4

92,96

22,11

4

0,0093

0

-0,0093

13,94

1

26,6

32,471

8,6

5

0,005

0

-0,005

12,36

1

9,1

56,151

2,94

1

0

0

0

18

1

34,1

2,525

11,02

1

0,0124

0

-0,0124

3,92

0

69,2

7,39

22,37

3

0,9902

1

0,0098

36,65

0

31,3

37,244

10,12

1

0,9996

1

0,0004

5,79

1

19,2

26,333

6,21

2

0,0004

0

-0,0004

3,33

1

24,5

14,065

7,92

4

0,0115

0

-0,0115

3,6

0

27,1

252,513

8,76

4

0,0057

0

-0,0057

17

1

18,1

4,466

5,85

4

0,0002

0

-0,0002

8,25

1

39,8

1,362

12,86

1

0,989

1

0,011

Ошибка обучения ε = 0,000071

X1

X2

X3

X4

X5

X6

Y1

Yфакт

Ошибка

5,4

1

35,7

2,065

11,54

3

0,992

1

0,008

1,6

1

30,2

17,982

9,76

3

0,9703

0

-0,9703

6,66

0

21,01

231,956

6,79

4

0,0122

1

0,9878

10

0

1,3

14,617

0,42

5

0,0063

1

0,9937

Ошибка обобщения  ε  = 2,9047 / 4 = 0,7262. Максимальная ошибка = 0,9937

Таким образом, наименьшая среднеквадратическая ошибка обобщения получилась при количестве нейронов на внутреннем слое, равном 19.

Ниже приведен график зависимости среднеквадратической погрешностей обучения и обобщения от числа нейронов внутренних слоев персептрона.

По графику видно, что ошибка обучения составляет незначительную величину, то есть персептрон верно предсказывает значения Y для тех примеров, на которых он обучился, в то время как  ошибка обобщения достаточно высока – её величина такова, что мы можем сказать, что свойство обобщения не работает.

Чтобы снизить ошибку также можно попробовать исключить незначимые факторы.

Произведем процедуру обучения и вычисления для исходной выборки, из которой исключим фактор EPS (X4), так как значения данного фактора имеют очень большой разброс и могут существенно усложнять процедуры обучения и вычисления. Число нейронов на внутреннем слое = 19, так как среднеквадратичная ошибка обобщения в этом случае была наименьшей. Обучение на 25 примерах :

Максимальная ошибка снизилась.

Вычисление на усеченной выборке (на 21 примере):

X1

X2

X3

X5

X6

Y1

Yфакт

ошибка

1,19

1

19,2

6,21

3

0,0004

0

-0,0004

28

1

39,9

12,9

3

0,9926

1

0,0074

13,91

1

21,4

6,92

3

0,0138

0

-0,0138

69,4

1

28,2

9,12

4

0,0116

0

-0,0116

23

1

22,8

7,37

4

0,9855

1

0,0145

17

0

28,8

9,31

3

0,9996

1

0,0004

12,5

1

19

6,14

5

0,0003

0

-0,0003

1,8

1

72,7

23,5

4

0,003

0

-0,003

13

1

29,3

9,47

3

0,9817

1

0,0183

17,88

1

101,5

32,81

4

0,0046

0

-0,0046

13,7

1

68,4

22,11

4

0,0101

0

-0,0101

13,94

1

26,6

8,6

5

0,0046

0

-0,0046

12,36

1

9,1

2,94

1

0

0

0

18

1

34,1

11,02

1

0,0181

0

-0,0181

3,92

0

69,2

22,37

3

0,9942

1

0,0058

36,65

0

31,3

10,12

1

0,9959

1

0,0041

5,79

1

19,2

6,21

2

0,0012

0

-0,0012

3,33

1

24,5

7,92

4

0,0002

0

-0,0002

3,6

0

27,1

8,76

4

0,0213

0

-0,0213

17

1

18,1

5,85

4

0,0119

0

-0,0119

8,25

1

39,8

12,86

1

0,9885

1

0,0115

Ошибка обучения ε = 0,000104. Мы видим, что персептрон верно предсказывает значения.

Вычисление на исключенных примерах:

X1

X2

X3

X5

X6

Y1

Yфакт

ошибка

5,4

1

35,7

11,54

3

0,9822

1

0,0178

1,6

1

30,2

9,76

3

0,0138

0

-0,0138

6,66

0

21,01

6,79

4

0,9798

1

0,0202

10

0

1,3

0,42

5

0,9965

1

0,0035

Ошибка обобщения ε =  0,0009 / 4 =0,00023. Мы видим, что ошибка обучения значительно снизилась. Теперь персептрон практически точно «предсказал» все 4 значения. Следовательно, мы можем сделать вывод о том, что фактор EPS оказался незначимым.

Итоговая таблица:

Кол-во нейронов входного слоя

Кол-во нейронов внутреннего слоя

Ошибка обучения

ε в %

Ошибка обобщения ε в %

6 (все факторы исходной выборки

15

0,0071%

72,62%

19

0,0094%

49,35%

22

0,0110%

70,61%

25

0,0105 %

69,24%

5 (исключение фактора EPS)

19

0,0104%

0,023%

  1.  Проверка прогнозирующей способности персептрона на тестирующей выборке

Теперь проверим прогнозирующую способность нейронной сети на тестирующей выборке, в которую вошли наблюдения, не участвующие в процедуре обучения персептрона. Параметры персептрона:

число входов

= 5

тип функции - линейная

число выходов

= 1

тип функции - сигмоида

число скрытых слоев

= 1

тип функции - сигмоида

нейронов на скрытом слое

= 19


Тестирующая выборка:

Компания

X1

X2

X3

X5

X6

Y

"Иркутскэнерго"

3,58

1

23,58

5,36

3

0

Промышленно-строительный банк

2,54

1

35,14

4,89

2

0

ГАЗ

15,93

1

46,25

15,63

3

1

"Седьмой континент"

1,39

1

39,54

9,12

5

0

"Сильвинит"

7,11

1

64,52

5,74

4

1

Банк Возрождение

4,12

1

44,17

23,76

2

1

Оскольский электрометаллургический комбинат

85,86

0

12,63

6,32

3

1

Холдинг "Лебедянский"

7,21

1

11,95

29,24

1

1

Банк УралСиб

5,69

1

55,37

18,57

2

1

"Варьеганнефтегаз"

9,12

1

30,27

21,58

3

1


Результаты вычисления:

Компания

X1

X2

X3

X4

X5

Y1

Yфакт

ошибка

"Иркутскэнерго"

3,58

1

23,58

5,36

3

0,0004

0

-0,0004

Промышленно-строительный банк

2,54

1

35,14

4,89

2

0,0125

0

-0,0125

ГАЗ

15,93

1

46,25

15,63

3

0,9985

1

0,0015

"Седьмой континент"

1,39

1

39,54

9,12

5

0,0058

0

-0,0058

"Сильвинит"

7,11

1

64,52

5,74

4

0,0353

1

0,9647

Банк Возрождение

4,12

1

44,17

23,76

2

0,9995

1

0,0005

Оскольский электрометаллургический комбинат

85,86

0

12,63

6,32

3

0,9093

1

0,0907

Холдинг "Лебедянский"

7,21

1

11,95

29,24

1

0,9998

1

0,0002

Банк УралСиб

5,69

1

55,37

18,57

2

0,9995

1

0,0005

"Варьеганнефтегаз"

9,12

1

30,27

21,58

3

0,9937

1

0,0063

Ошибка ε = 0,0939.  Как мы видим, персептрон верно «предсказал» практически все значения из предложенной выборки – он допустил только 1 ошибку из 10 примеров.

  1.  Заключение

Анализируя работу персептрона и полученные результаты можно сделать вывод, что не всегда персептрон выдает модельные значения близкие к фактическим. Это происходит по нескольким причинам:

  •  недостаточный объем выборки;
  •  не включение в модель каких-либо  других значимых факторов (т.к. на курс акций влияет очень много различных факторов, включение всех из них зачастую невозможно);
  •  наличие ошибок в обучающей выборке (вывод о переоцененности / недооцененности был неверным)

Однако при наличии достаточно большой исходной выборки (100 и более наблюдений), а также при проведении множества тестов, в результате чего будут отобраны только значимые факторы, можно добиться хорошей прогнозирующей способности персептрона.


Список литературы

  1.  Ясницкий Л.Н. Введение в искусственный интеллект – Пермь, 2001.- 143 с.
  2.  Дамодаран А. Инвестиционная оценка: инструменты и методы оценки любых активов – М., 2004.- 1342 с.

1 Ясницкий Л. Введение в искусственный интеллект – С. 72.


 

А также другие работы, которые могут Вас заинтересовать

13966. «Вовк і кіт», «Щука» Л. Глібов 41.5 KB
  УРОК № 16 Тема.Л. Глібов. Вовк і кіт Щука. Мета: ознайомити учнів із життям і творчістю Л. Глібова його байками; розвивати навички виразного читання байок коментування їхнього змісту та побудови визначення головної думки; виховувати кращі моральні якості людини ...
13967. Тематична атестація. Outline for the lesson of English for 11th-graders 72 KB
  Outline for the lesson of English for 11thgraders. Lesson 17 Планконспект уроку з англійської мови для учнів 11х класів. УРОК 17 Підтема: Тематична атестація Мета: Виявити степінь засвоєння вивченого матеріалу. Обладнання: Контрольні картки. Варіант І І. Translate into Ukrainian. schoolleaving exami...
13968. Виразне читання байок Л. Глібова напам’ять 24.5 KB
  УРОК № 17 Тема.Виразне читання байок Л. Глібова напам’ять. Мета:розвивати навички виразного читання пам’ять артистичні здібності учнів; виховувати почуття справедливості почуття гумору естетичні смаки. Обладнання:портрет письменника збірки його творів; збірки...
13969. Акровірші «Хто вона?», «Що за птиця?» Л. Глібов 30.5 KB
  УРОК № 18 Тема.Л. Глібов. Акровірші Хто вона Що за птиця. Мета:ознайомити учнів із поняттям акровірш творами цього виду Л. Глібова; розвивати навички виразного читання аналізу акровіршів кмітливість спостережливість творчі здібності учнів; виховувати кращі ...
13970. МУЗИЧНИЙ ЗВУК. ЗВУКОРЯД. ЕНГАРМОНІЗМ ЗВУКІВ 47 KB
  Тема 1. МУЗИЧНИЙ ЗВУК. ЗВУКОРЯД. ЕНГАРМОНІЗМ ЗВУКІВ План 1.Звук як фізичне явище 2.Назви та позначення звуків 3. Знаки альтерації Загальне поняття про звук. Звук як фізичне явище є наслідком швидкого коливання будьякого пружного тіла струни металевої платівки нат
13971. Музичне мистецтво східних словян доби Київської Русі 16.74 KB
  Музичне мистецтво східних словян доби Київської Русі досягло високого рівня. Про це свідчать фольклорна спадщина давньоруський культовий спів музика княжого двору ратна військова музика. В усній народній традиції продовжують розвиватись ігри календарні та родинн
13972. Музыкальные выразительные средства в музыке 165.5 KB
  Музыкальные выразительные средства в музыке Фактура – от лат. – обработка – способ изложения склад музыкального произведения может быть одноголосная полифоническая гомофонная смешанная Мелодия – от греч. – напев пение одноголосное последование звуко...
13973. Анализ музыкальных произведений. Лекционный курс 679 KB
  В. В. Аннинская Лекции по курсу Анализ музыкальных произведений Учебное пособие Печатается по решению предметноцикловой комиссии Теория музыки музыкального училища им. Г.И. Шадриной Ульяновского государственного университета Рецензент – методис
13974. Башкирские музыкальные инструменты 73.5 KB
  Башкирские музыкальные инструменты. Башкирская инструментальная культура – наследие уходящее своими корнями в глубокую древность. Ее изучение началось сравнительно недавно первому подробному исследованию немногим более 100 лет а регулярный поиск и систематизация ин...