75778

Применение нейронных сетей для определения трудоемкости работы в фирме по оформлению воздушными шарами

Курсовая

Информатика, кибернетика и программирование

Существует множество областей применения искусственного интеллекта: принятие решений доказательства теорем игры творчество распознавание образов обработка данных на естественном языке обучающиеся сети нейросети и т.

Русский

2015-01-26

3.51 MB

2 чел.

Федеральное агентство по образованию

Государственное образовательное учреждение высшего профессионального образования

«МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ СЕРВИСА»

КУРСОВАЯ РАБОТА

по дисциплине

«Интеллектуальные информационные системы»

Тема: «Применение нейронных сетей для определения трудоемкости работы в фирме по оформлению воздушными шарами»

                                                   

Выполнила: студент  гр. КО28.003/05

Кречетова Н. А

Научный руководитель:

Ясницкий Леонид Нахимович

Пермь 2008


Содержание

[0.1]
Содержание

[1] Глава 1. Теоретическая часть.

[1.1] 1.1 Биологическая  нейронная сеть

[1.2] 1.2 Искусственная нейронная сеть и ее обучение

[1.3] 1.3 Области применения нейронных сетей

[1.4] 1.4. Нейросимулятор

[2] Глава 2. Практическое применение нейронных сетей для принятия решений

[2.1] 2.1. Постановка задачи

[2.2] 2.2 Описание предметной области

[2.3] 2.3 Входные и выходные данные нейросети

[2.4] 2.4 Обучающее множество

[2.5] 2.5 Проектирование и оптимизация нейросети

[2.6] 2.6  Анализ полученных результатов

[2.7] Заключение

[2.8] Список литературы


Введение

«Искусственный интеллект – это раздел информатики, посвященный моделированию интеллектуальной деятельности человека. Сегодня - это обширная область исследований и разработок интеллектуальных систем, предназначенных для работ в трудно формализуемых областях деятельности человека.  Для задач, решаемых методом искусственного интеллекта, характерно наличие большого числа степеней свободы с числом вариантов поиска решений, приближающимся к бесконечности. В отличие от жестко детерминированных компьютерных программ системы искусственного интеллекта сами ищут пути решения поставленной задачи. При этом они могут менять свои параметры и структуру, совершенствоваться и развиваться, жить не зависящей от воли разработчика жизнью»[1].

Существует множество областей применения искусственного интеллекта: принятие решений,  доказательства теорем, игры, творчество, распознавание образов, обработка данных на естественном языке, обучающиеся сети (нейросети) и т.п.

Остановимся на рассмотрении нейросетевых технологий для принятия решений. В сегодняшнем потоке информации бывает весьма сложно принять правильное решение в рассмотрении определенного вопроса. Нейросетевые технологии применяются при решении таких задач, в которых не существует чёткого алгоритма, точных действий либо формальных правил, позволяющих без каких-либо затруднений получить желаемый результат.

Для своей курсовой работы я выбрала тему «Применение нейросетевых технологий для принятия решений». Мой выбор обусловлен стремлением узнать, эффективно ли использовать нейросети для того чтобы узнать, трудоемким ли будет заказ в фирме, которая занимается оформлением воздушными шарами.

Цель данной курсовой работы заключается в том, чтобы показать, можно ли использовать нейронные сети для определения трудоемкости заказа по оформлению воздушными шарами.

Для достижения поставленной цели нужно решить следующие задачи:

-      раскрыть сущность искусственного интеллекта;

-      обучить один из нейросимуляторов;

-  выявить, эффективно ли применять нейросети для решения поставленной задачи.

Предметом исследования является развитие применения нейросетей для принятия решений.

Глава 1. Теоретическая часть.

1.1 Биологическая  нейронная сеть

Нервная система и мозг человека состоят из нейронов, соединенных между собой нервными волокнами. Нервные волокна способны передавать электрические импульсы между нейронами. Все процессы передачи раздражений от нашей кожи, ушей и глаз к мозгу, процессы мышления и управления действиями - все это реализовано в живом организме как передача электрических импульсов между нейронами. Рассмотрим строение биологического нейрона. Каждый нейрон имеет отростки нервных волокон двух типов - дендриты, по которым принимаются импульсы, и единственный аксон, по которому нейрон может передавать импульс. Аксон контактирует с дендритами других нейронов через специальные образования - синапсы, которые влияют на силу импульса.

Рис. 1 Биологическая нейронная сеть

Можно считать, что при прохождении синапса сила импульса меняется в определенное число раз, которое мы будем называть весом синапса. Импульсы, поступившие к нейрону одновременно по нескольким дендритам, суммируются. Если суммарный импульс превышает некоторый порог, нейрон возбуждается, формирует собственный импульс и передает его далее по аксону.[3] Важно отметить, что веса синапсов могут изменяться со временем, а значит, меняется и поведение соответствующего нейрона. Нетрудно построить математическую модель описанного процесса.

Рис. 2 Модель нейрона с тремя входами

На рисунке 2 изображена модель нейрона с тремя входами (дендритами), причем синапсы этих дендритов имеют веса w1, w2, w3. Пусть к синапсам поступают импульсы силы x1, x2, x3 соответственно, тогда после прохождения синапсов и дендритов к нейрону поступают импульсы w1x1, w2x2, w3x3. Нейрон преобразует полученный суммарный импульс x=w1x1+ w2x2+ w3x3 в соответствии с некоторой передаточной функцией f(x). Сила выходного импульса равна y = f(x) = f(w1x1 + w2x2 + w3x3).

Таким образом, нейрон полностью описывается своими весами wk и передаточной функцией f(x). Получив набор чисел (вектор) xk в качестве входов, нейрон выдает некоторое число y на выходе.

1.2 Искусственная нейронная сеть и ее обучение

Искусственная нейронная сеть (ИНС, нейронная сеть) - это набор нейронов, соединенных между собой. Как правило, передаточные функции всех нейронов в нейронной сети фиксированы, а веса являются параметрами нейронной сети и могут изменяться. Некоторые входы нейронов помечены как внешние входы нейронной сети, а некоторые выходы - как внешние выходы нейронной сети. Подавая любые числа на входы нейронной сети, мы получаем какой-то набор чисел на выходах нейронной сети. Таким образом, работа нейронной сети состоит в преобразовании входного вектора в выходной вектор, причем это преобразование задается весами нейронной сети.

Среди всех интересных свойств искусственных нейронных сетей ни одно не захватывает так воображения, как их способность к обучению. Их обучение до такой степени напоминает процесс интеллектуального развития человеческой личности, что может показаться, что достигнуто глубокое понимание этого процесса. Возможности обучения искусственных нейронных сетей ограниченны, и нужно решить много сложных задач, чтобы определить, на правильном ли пути мы находимся.

Нейросеть обучается, чтобы для некоторого множества входов давать желаемое (или, по крайней мере, сообразное с ним) множество выходов. Каждое такое входное (или выходное) множество рассматривается как вектор. Обучение осуществляется путем последовательного предъявления входных векторов с одновременной подстройкой весов в соответствии с определенной процедурой. В процессе обучения веса сети постепенно становятся такими, чтобы каждый входной вектор вырабатывал выходной вектор.

Различают стратегии обучения: "обучение с учителем" и "обучение без учителя". "Обучение с учителем" предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Обычно нейросеть обучается на некотором числе таких обучающих пар. Предъявляется выходной вектор, вычисляется выход нейросети и сравнивается с соответствующим целевым вектором, разность (ошибка) с помощью обратной связи подается в сеть и веса изменяются в соответствии с алгоритмом, стремящимся минимизировать ошибку. Векторы обучающего множества предъявляются последовательно, вычисляются ошибки и веса подстраиваются для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не достигнет приемлемо низкого уровня.

Несмотря на многочисленные прикладные достижения, обучение с учителем критиковалось за свою биологическую неправдоподобность. Трудно вообразить обучающий механизм в мозге, который бы сравнивал желаемые и действительные значения выходов, выполняя коррекцию с помощью обратной связи. Если допустить подобный механизм в мозге, то откуда тогда возникают желаемые выходы? Обучение без учителя является намного более правдоподобной моделью обучения в биологической системе. Развитая Кохоненом и многими другими, она не нуждается в целевом векторе для выходов и, следовательно, не требует сравнения с предопределенными идеальными ответами. Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм подстраивает веса нейросети так, чтобы получались согласованные выходные векторы, т. е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения, следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы. Предъявление на вход вектора из данного класса даст определенный выходной вектор, но до обучения невозможно предсказать, какой выход будет производиться данным классом входных векторов. Следовательно, выходы подобной сети должны трансформироваться в некоторую понятную форму, обусловленную процессом обучения. Это не является серьезной проблемой. Обычно не сложно идентифицировать связь между входом и выходом, установленную сетью.

Большинство современных алгоритмов обучения выросло из концепций Хэбба. Им предложена модель обучения без учителя, в которой синаптическая сила (вес) возрастает, если активированы оба нейрона, источник и приемник. Таким образом, часто используемые пути в сети усиливаются, и феномен привычки и обучения через повторение получает объяснение.

Оказывается, что после многократного предъявления примеров веса нейронной сети стабилизируются, причем нейронная сеть дает правильные ответы на все (или почти все) примеры из базы данных. В таком случае говорят, что "нейронная сеть выучила все примеры", "нейронная сеть обучена", или "нейронная сеть натренирована". В программных реализациях можно видеть, что в процессе обучения величина ошибки (сумма квадратов ошибок по всем выходам) постепенно уменьшается. Когда величина ошибки достигает нуля или приемлемого малого уровня, тренировку останавливают, а полученную нейронную сеть считают натренированной и готовой к применению на новых данных.

   Важно отметить, что вся информация, которую нейронная сеть имеет о задаче, содержится в наборе примеров. Поэтому качество обучения нейронной сети напрямую зависит от количества примеров в обучающей выборке, а также от того, насколько полно эти примеры описывают данную задачу. Так, например, бессмысленно использовать нейронную сеть для предсказания финансового кризиса, если в обучающей выборке кризисов не представлено. Считается, что для полноценной тренировки нейронной сети требуется хотя бы несколько десятков (а лучше сотен) примеров.

Таким образом, обучение нейронных сетей - сложный и наукоемкий процесс. Алгоритмы обучения нейронных сетей имеют различные параметры и настройки, для управления которыми требуется понимание их влияния.

1.3 Области применения нейронных сетей

Нейронные сети представляют собой мощный технологичный метод анализа и могут стать неоценимым инструментом в торговом арсенале. Также как и любой другой метод, нейросети имеют свои ограничения и преимущества. При этом они обладают уникальным свойством отслеживать едва уловимые взаимосвязи в доступных данных, чего не позволяет сделать ни один другой метод. Кроме того, их способность строить прогнозы, основываясь на данных анализа, выводит нейросети в разряд абсолютно уникальных методов и инструментов.

В настоящее время нейронные сети применяются для решения многих неформализуемых или трудно формализуемых задач:

  •  распознавания и синтеза речи;
  •  распознавания аэрокосмических изображений;
  •  прогнозирования котировки ценных бумаг и курса валют;
  •  предупреждения мошенничества с кредитными карточками;
  •  оценки стоимости недвижимости;
  •  оценки финансового состояния предприятий и риска невозврата кредитов;
  •  обработки радиолокационных сигналов;
  •  контроля движения на скоростных автомагистралях и железных дорогах;
  •  диагностики в медицине;
  •  добычи знаний из больших объемов данных в бизнесе, финансах и научных исследованиях;
  •  отслеживания межрыночных взаимосвязей.

Другими словами, можно получить инструмент, намного более эффективный, чем классические методики технического анализа для случаев, когда на рынке много шума или когда взаимосвязь данных не является очевидной и линейной. В данном случае нейросети могут решить проблему намного лучше, чем классическая статистика.

Нейросети необходимо комбинировать с другими инструментами технического анализа, а, кроме того, крайне важно особое внимание уделять подготовке данных (именно эта процедура является ключом к успеху при использовании нейростей). Поняв это, можно использовать нейросети эффективно, но для этого нужно время и опыт.

Нейронные сети можно использовать при следующих условиях:

  •  Если задачу может решать человек.
  •  Если при решении задачи можно выделить множество входных факторов (сигналов, признаков, данных и т.п.) и множество выходных факторов.
  •  Если изменения входных факторов приводит к изменению выходных.

   В то же время применение нейронных сетей при решении некоторых задач может оказаться эффективнее использования разума человека. Это объясняется тем, что человеческий разум ориентирован на решение задач в трехмерном пространстве. Многомерные задачи для него характеризуются значительно большей трудоемкостью. Искусственным нейронным сетям не свойственно такое ограничение. Им все равно решать трехмерную или 10-мерную задачу.

При применении нейронных сетей необходимо решить следующие задачи:

  1.  Постановка задачи, пригодной для решения с помощью нейронной сети.
  2.  Выбор модели ИНС.
  3.  Подготовка исходных данных для обучения ИНС.
  4.  Обучение ИНС.
  5.  Собственно решение задачи с помощью обученной ИНС

   Кроме того, иногда нужен еще один этап – интерпретация решения, полученного нейронной сетью.

1.4. Нейросимулятор

Для своего исследования я использовала нейросимулятор, созданный в ПГУ.[2]

На вкладке «Проектирование сети» указываются: тип активационной функции у каждого слоя сети, число нейронов входного и выходного слоя сети, а также число скрытых слоев. На вкладке «Обучение» загружается выборка, используемая для обучения, также здесь задается число итераций обучения и скорость обучения, а уже на вкладке «Вычисления» вводятся входные параметры для проверки работы нейросимулятора.

Основной принцип работа этого нейросимулятора: сигналы, поступающие на входы Х1,-,Хn, умножаются на коэффициенты (веса, синапсы) соответствующие каждому входу и определяют уровень возбуждения нейрона. Выходной сигнал получается пропусканием суммарного сигнала возбужденных нейронов скрытого слоя через нелинейную функцию.

Итак,  в настоящее время существуют методы, алгоритмы и устройства, которые позволяют нам довольно неплохо решать различные прикладные задачи. В рамках данной главы мы рассмотрели основные положения нейросетевых технологий: определения, как работает нейронная сеть, как построить нейронную сеть, обучение нейросетей.

Глава 2. Практическое применение нейронных сетей для принятия решений

2.1. Постановка задачи

Нейросетевые технологии применяются при решении таких задач, в которых не существует чёткого алгоритма, точных действий либо формальных правил, позволяющих без каких-либо затруднений получить желаемый результат. Принятие решений – это задача, которая не имеет определенных правил. В решении этого вопроса важно сделать правильный выбор, что зачастую бывает очень сложно. Поэтому рассмотрим применение нейросетевых технологий для определения трудоемкости заказа в компании «Арлекин» и принятии решения стоит ли за него браться.

Задача состоит в том, чтобы с помощью нейронных сетей определить, потребует ли данный заказ много сил, энергии и нервов, либо стоит отказаться от него и взяться за другой. Выясним, какие параметры наиболее существенно влияют на принятие решения в данном случае.

Для входных данных мы взяли такие параметры как  заказчик,  время года, мероприятие, место, предоплата, сумма, начало мероприятия, район, за какое время пускают в помещения для оформления, день не дели. Мы получили достаточное число параметров для решения поставленной задачи.

Так как параметры, описывающие предметную область, имеют разнообразный характер, то всю нечисловую информацию мы закодируем в числовом виде, поскольку нейросеть в состоянии обрабатывать только числа.

2.2 Описание предметной области

Предметной областью является фирма, занимающаяся оформлением воздушными шарами. Я выбрала эту предметную область потому что оформление непосредственно относиться к сфере сервиса. Заказчики бывают разные и, соответственно и заказы тоже. Бывает, что оформление проходит без проблем – все быстро, четко и красиво, а бывает и так что ничего не получается – тратишь много сил, времени и нервов. А так как я работаю в такой фирме, то я решила использовать знания о нейросетях для облегчения работы – а именно: отправляем данные о заказчике в нейросимулятор и видим – стоит ли браться за этот заказ или лучше отдать предпочтение другому, менее «проблемному» заказчику.

2.3 Входные и выходные данные нейросети

На вход подаются следующие параметры (10):

Х1 – заказчик: 0-знакомый, 1-не знакомый

Х2 -  время года: 0-зима, 1-весна, 2-лето, 3-осень

Х3 -  мероприятие: 0-свадьба, 1-день рождение/юбилей, 2-корпоратив, 3-другое

Х4 – место: 0-кафе, 1-столовая, 2-школа/училище, 3-гостиница, 4-предпритяие, 5-улица,

6-ресторан, 7-дом

Х5 – предоплата:     0-0%, 1-50%, 2-100%

Х6 -  сумма:      0-до 1 тыс., 1- 1-3 тыс., 2- 3-5 тыс., 3- 5-10 тыс., 4- >10 тыс.

Х7 – начало мероприятия: (например: 18.00 – 18, 23.30-23)

 

Х8 – район: 0-центральные районы, 1-отдаленный район города, 2-загород, 3- сами заберут,                    4- у нас

Х9 – пускают: 0-не важно (особо не оговаривается), 1- за 30 мин., 2-за час

Х10 – день недели: 1-понедельник, 2-вторник, 3-среда, 4-четверг, 5-пятница, 6-суббота,                                7-воскресенье

2.4 Обучающее множество 

Ниже приведена обучающая выборка, составленная на реальных данных. Данные были получены из бланков заказов за летний, осенний и зимний периоды работы компании «Арлекин» в 2007 году. Обучающая выборка сделана на основе 100 бланков заказов.

         Выборка представлена в таблице 1.

.

X1

X2

X3

X4

X5

X6

X7

X8

X9

X10

Y1

0

2

3

2

0

1

22

0

0

5

0

1

3

1

6

0

1

19

0

0

5

1

1

3

0

2

2

1

17

0

0

5

1

1

3

0

1

2

2

17

0

0

5

1

0

3

0

0

2

2

19

0

0

5

1

1

3

0

4

2

1

17

0

0

5

1

1

3

1

4

0

1

15

0

0

7

1

1

3

1

7

0

0

12

0

0

4

1

1

3

0

2

2

1

18

0

0

5

1

1

3

0

2

2

1

18

0

2

5

1

1

3

0

0

2

1

17

0

0

5

1

1

3

0

1

2

1

17

0

0

5

1

1

3

0

2

1

1

17

0

0

5

1

1

3

1

3

0

1

18

0

0

5

1

1

3

0

0

2

3

17

0

0

5

0

1

3

0

1

2

1

18

0

0

5

1

1

3

0

0

2

1

17

1

2

5

1

1

3

2

5

2

4

17

0

0

1

0

1

3

3

7

0

1

11

3

0

6

1

1

3

0

2

2

1

18

0

2

5

1

0

3

0

5

2

3

14

0

2

5

1

1

3

0

0

2

3

16

4

0

5

0

1

3

2

5

0

1

11

0

0

7

0

1

3

2

4

2

3

17

0

0

4

1

1

3

0

3

2

2

17

0

0

5

1

0

3

1

4

0

1

18

0

0

5

0

1

3

0

0

2

1

17

4

0

5

1

1

3

0

0

2

1

19

1

0

5

1

0

3

0

0

0

2

19

1

0

5

1

1

3

2

6

0

1

21

0

0

5

0

1

3

1

6

1

1

14

0

1

6

0

0

3

2

6

0

0

12

3

0

4

1

1

3

0

0

2

1

16

0

2

5

0

1

3

3

7

0

0

12

0

0

6

1

1

4

0

6

2

1

17

0

0

5

1

1

4

2

2

0

2

12

0

0

5

1

1

4

0

0

2

1

17

0

1

5

0

0

4

3

6

0

1

23

0

0

6

1

1

4

0

2

2

1

16

1

0

5

1

1

3

2

4

0

3

18

1

0

5

0

1

4

0

0

2

1

18

4

0

5

1

1

4

0

2

2

1

18

0

0

5

1

1

4

0

0

2

2

17

0

2

5

1

1

4

0

0

0

1

15

0

0

6

1

1

4

0

6

2

2

17

0

0

5

1

1

4

0

0

2

1

17

0

0

5

1

1

4

0

1

2

1

18

0

1

5

0

1

4

0

0

0

1

17

0

0

5

1

1

4

0

0

2

1

17

0

0

5

1

1

3

2

4

0

4

23

0

0

4

0

1

4

2

5

0

4

17

0

2

3

0

1

4

2

5

0

1

12

0

0

2

0

1

4

3

7

0

0

18

3

0

3

0

1

4

0

0

2

1

17

0

0

5

1

1

2

0

0

2

1

17

0

1

5

0

1

4

0

1

2

1

17

0

2

5

1

1

4

0

2

2

1

17

1

0

5

1

0

2

0

0

2

1

17

0

0

5

1

0

2

3

1

0

0

15

0

0

5

1

1

2

1

0

2

1

17

1

0

5

1

1

2

0

6

2

3

17

0

0

5

1

1

2

3

5

2

1

12

0

0

6

1

1

2

0

0

0

1

18

2

0

5

1

1

2

0

1

0

1

16

2

0

5

1

1

2

2

4

1

0

18

0

0

1

1

1

2

3

5

2

1

13

0

0

2

1

1

3

3

5

0

1

14

0

1

6

0

1

2

3

2

0

0

17

0

0

4

1

1

2

0

0

1

2

17

4

0

5

1

1

2

0

2

2

1

16

0

0

5

0

1

2

3

2

0

0

15

0

0

5

1

1

2

3

2

0

1

16

0

2

5

1

1

2

3

2

2

1

14

0

0

1

1

1

2

3

0

0

1

16

0

1

6

1

1

2

3

2

2

1

17

0

0

6

1

1

2

0

0

2

1

17

0

0

5

1

1

2

0

1

2

1

17

0

0

5

1

1

2

1

1

1

0

17

0

0

6

1

1

2

2

5

0

3

16

2

0

7

0

1

2

3

5

1

2

13

0

0

7

1

1

2

0

1

2

1

17

0

0

5

1

1

2

0

4

0

1

17

0

2

5

0

1

3

2

4

1

1

19

0

2

4

0

1

2

0

6

2

1

18

1

2

5

1

      Таблица 1. Обучающая выборка.

Из 100 обучающих примеров возьмем 5 – для тестирующей выборки. Они представлены в таблице 2.

1

2

3

4

0

1

22

0

0

7

1

1

2

2

6

0

2

18

0

0

7

1

1

2

0

0

2

1

18

0

0

5

1

1

2

0

1

0

1

17

0

2

5

1

1

2

1

0

2

1

14

0

2

6

1

      Таблица 2. Тестирующая выборка.

2.5 Проектирование и оптимизация нейросети

     Формируем обучающую выборку и по формуле Арнольда-Колмогорова считаем количество синоптических связей и количество нейронов на внутреннем слое.

Общее число обучающих примеров – 100

Число входов – 10

Число выходов – 1

Следовательно, число синоптических связей = 130 (129<=Nw<=133)

                           Число нейронов на внутреннем слое = 12

На рисунке 3 видны зависимости от числа нейронов.

Рис.3. Зависимости погрешности обучения и погрешности обобщения от числа нейронов внутренних слоев персептрона.

Строим модель персептрона и обучаем сеть. (рисунок 4,5)

              

Риснок 4. Построение модели персепторна.                                  Рисунок 5. Ошибка сети.

Сеть не обучается.

Вводим дополнительно внутренний слой.

        

Рисунок 6. Вводим дополнительный слой.                         Рисунок 7. Ошибка сети при 2 внутренних слоях

При увеличении числа нейронов внутренних слоев персептрона N погрешность обучения   обычно падает, тогда как погрешность обобщения  сначала падает, а затем, начиная с некоторого оптимального значения, возрастает. После значения 0,509518 погрешность обобщения начинает вновь возрастать.

 

Удивительно то, что при любой модели персептрона максимальная ошибка выхода сети не опускается ниже, чем 0,5. (Рисунок 8)

Рисунок 8. Ошибка сети. Не поднимается ниже, чем 0.5

Но при более тщательном рассмотрении сравнения обучающей выборки заметили, что значения выхода имеют неплохие результаты, то есть сеть обучена хорошо, однако 4 примера из всей выборки имеют погрешность примерно 0,51. (Рисунок 9)

Рисунок 9. 4 выпадающих примера.

После удаления из общего числа обучающих примеров 4 примеров, которые расходились в значениях и «мешали» обучить сеть мы получили хороший результат обучения сети, а именно, максимальная ошибка выхода сети = 0,00517 (Рисунок 10)

Рисунок 10. Обучили персептрон

Однако, тестирующая выборка совершенно расходится в значениях. Следовательно, необходимо уменьшить количество нейронов на внутреннем слое, так как происходит «переобучение системы».

В тестирующей выборке приведены данные, которые не входили в процесс обучения, и на основе которых  мы можем понять, насколько точно обучилась сеть. (Рисунок 11)

Рисунок 11. Расхождения в тестирующей выборке.

При проектировании персептронов необходимо понимать, что персептрон должен не только правильно реагировать на примеры, на которых он обучен, но и уметь обобщать приобретенные знания, т.е. правильно реагировать на примеры, которых в обучающей выборке не было. Погрешность персептрона, вычисленная на обучающей выборке называется погрешностью обучения, обозначаемой, а вычисленная на тестовой выборке- погрешностью обобщения, обозначаемой T. При увеличении числа нейронов внутренних слоев персептрона N погрешность обучения обычно падает, тогда как погрешность обобщения   сначала падает, а затем, начиная с некоторого оптимального значения N=N0, возрастает [1]. Кривые зависимости погрешностей обучения и обобщения от числа нейронов внутренних слоев персептрона приведены на рис. 12.

Рис.12. Наиболее значимые параметры, влияющие на результат.

Из графика видно, что наиболее важными параметрами являются:

Х2 - Время года, х3 - Мероприятие, х6 - сумма заказа, х7 - начало мероприятия, х9 – во сколько пускают. Что, на основе личного опыта, соответствует действительности.

2.6  Анализ полученных результатов

Проанализировав работу нейросимулятора и  полученные результаты, можно сделать вывод, что нейросимулятор обучился отлично и ошибка минимальна. Но тестирующая выборка показала, что на 100% ответам нейросимулятора верить нельзя.

Заключение

Подведём итог проделанной работы.

В первой части работы я обобщила знания в области нейросетевых технологий.

Во второй части работы я показала применение на практике нейросети.

Я убедилась, что персептрон не смог решить поставленную перед ним задачу. Подав на вход персептрона сигналы, которых не было в обучающей выборке, на выходе мы получили неадекватные результаты, то есть не соответствующие действительности. Следовательно, применение нейросетевых технологий в выбранной области нельзя считать эффективным. Так как каждый случай уникален и очень важным является именно человеческий фактор. Возможно, если бы на вход подать сигналы такие как, характер клиента, его темперамент, знак зодиака и другие - результаты были бы более адекватными, только вот проблема в том, что, когда к нам приходит клиент сделать заказ, мы не знаем ни его гороскопа, ни характера.

Максимальный наилучший результат мы получили – 70% соответствия в тестирующей выборке, этого мы добились с семью нейронами на внутреннем уровне.

Проведя исследования, я поняла, что не совсем верно выбрала выход для персептрона – да или нет. Вероятнее всего было бы правильным сделать на выходе разграничение проблем, которые могут быть связаны с тем или иным заказчиком, возможно в таком случае и результат работы был бы лучше.

Проведенная работа показывает, что использование персептрона для принятия решений эффективно использовать особенно тогда, когда следует сделать выбор, учитывая очень большое количество параметров.


Список литературы

Литература

  1.  Ясницкий Л.Н.Введение в искусственный интеллект:Учеб. пособие для студ. высш. учеб. заведений/Леонид Нахимович Ясницкий.-М.:Издательский центр «Академия», 2005.
  2.  Черепанов Ф. М, Ясницкий Л. Н Симулятор нейонных сетей «Нейросимулятор 1.0»/ Свидетельство об отраслевой регистрации № 8756. 12.07.2007
  3.  Романов В. П. Интеллектуальные информационные системы / Под ред.д.э.н., проф. Н.П.Тихомирова. – М.: Издательство «Экзамен», 2003.


Ссылки на ресурсы Интернет

  1.  offline.computerra.ru –  Нейросимуляция – Журнал «Компьютера»
  2.  artint.ru – Российский НИИ Искусственного интеллекта
  3.  raai.org – Российская ассоциация искусственного интеллекта
  4.  neuroshell.forekc.ru
  5.  neuroproject.ru
  6.  neuronet.narod.ru


 

А также другие работы, которые могут Вас заинтересовать

19053. Метод вторичного квантования. Операторы уничтожения и рождения. Коммутационные соотношения 542 KB
  Лекция 35 Метод вторичного квантования. Операторы уничтожения и рождения. Коммутационные соотношения При вычислении средних значений или вероятностей переходов квантовых систем состоящих из большого количества частиц приходится вычислять интегралы вида кванто
19054. Квантовое описание рассеяния. Амплитуда и сечение рассеяния. Оптическая теорема 274.5 KB
  Лекция 36 Квантовое описание рассеяния. Амплитуда и сечение рассеяния. Оптическая теорема Процессом рассеяния называется отклонение частиц от первоначального движения благодаря взаимодействию с рассевателем. Процесс рассеяния дает информацию о взаимодействии ра
19055. Борновское приближение. Условия применимости. Быстрые и медленные частицы 373 KB
  Лекция 37 Борновское приближение. Условия применимости. Быстрые и медленные частицы. Примеры Полученная в конце прошлой лекции формула для амплитуды рассеяния 1 не является решением задачи рассеяния поскольку в подынтегральное выражение в правой части 1 вх...
19056. Разложение волновой функции задачи рассеяния по сферическим функциям. S-матрица. Фазовая теория рассеяния 324 KB
  Лекция 38 Разложение волновой функции задачи рассеяния по сферическим функциям. Sматрица. Фазовая теория рассеяния Наряду с теорией рассеяния изложенной в предыдущей лекции часто используется другой вариант теории именуемый фазовой теорией рассеяния. Основная и
19057. Математические основы квантовой механики: линейные пространства, операторы, матрицы 171 KB
  Семинар 1. Математические основы квантовой механики: линейные пространства операторы матрицы функция Дать определения: линейных пространств дискретного и непрерывного базиса скалярного произведения. Привести примеры пространств. Дать определения оператора лин...
19058. Математические основы квантовой механики: уравнения на собственные значения и собственные функции 344.5 KB
  Семинар 2. Математические основы квантовой механики: уравнения на собственные значения и собственные функции Напомнить что называется уравнением на собственные значения и собственные функции. Дать общую классификацию возможных решений: непрерывный и дискретный спе...
19059. Основные принципы квантовой механики и их простейшие следствия 204.5 KB
  Семинар 3. Основные принципы квантовой механики и их простейшие следствия Кратко перечислить основные физические принципы и постулаты квантовой механики. Обсудить основные схему рассмотрения любых квантовомеханических задач: решение уравнения Шредингера уравнени
19060. Операторы координаты и импульса 696 KB
  Семинар 4. Операторы координаты и импульса Напомнить какие операторы отвечают координате и импульсу в квантовой механике. Кратко обсудить основные идеи построения этих операторов. Сформулировать цель занятия – исследование свойств операторов координаты и импульса...
19061. Операторы координаты и импульса (продолжение). Различные представления волновой функции 96 KB
  Семинар 5. Операторы координаты и импульса продолжение. Различные представления волновой функции Напомнить и обсудить основную идею различных представлений волновой функции в квантовой механике – разложение по системам собственных функций тех или иных операторов. ...