49134

Прогнозирование исхода выборов президента

Курсовая

Информатика, кибернетика и программирование

Искусственные нейронные сети Нейронные сети возникли из исследований в области искусственного интеллекта а именно из попыток воспроизвести способность биологических нервных систем обучаться и исправлять ошибки моделируя низкоуровневую структуру мозга. Целью моей курсовой работы является построение такой нейронной сети которая бы с наибольшей точностью прогнозировала исход выборов президента нашей страны. Искусственные нейронные сети Искусственные нейронные сети НС совокупность моделей биологических нейронных сетей.

Русский

2013-12-21

887.5 KB

9 чел.

Федеральное агентство по образованию

государственное образовательное учреждение высшего профессионального образования «ПЕРМСКИЙ ГОСУДАРСТВЕННЫЙ ПЕДАГОГИЧЕСКИЙ УНИВЕРСИТЕТ»

факультет информатики и экономики

кафедра информатики и ВТ

КУРСОВОЙ ПРОЕКТ

по дисциплине

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

на тему:

«Прогнозирование исхода выборов президента»

Работу выполнила студентка гр.1233

М.Б. Кирьянова

Научный руководитель

Профессор Ясницкий Л.Н.

Подпись

«____»________________2008г.

Пермь 2008 г.
Содержание

[1]
Глава 1. Искусственные нейронные сети

[1.1] 1.1. Формальный нейрон

[1.2] 1.2. Ограничения модели нейрона

[1.3] 1.3. Виды функций активации

[1.4] 1.4. Многослойный персептрон

[1.5] 1.5. Алгоритм решения задач с помощью МСП

[1.6] 1.6. Обучение персептрона. Правило Хебба

[1.7] 1.7. Место нейронных сетей среди других методов решения задач

[2]
Глава 2. Практическое применение нейронных сетей при прогнозировании исхода выборов президента

[2.1] 2.1. Постановка задачи

[2.2] 2.2. Анализ полученных результатов

[2.3]
2.3. Исследование модели

[3]
Заключение

[4]
Библиографический список


Введение

Искусственный интеллект - это обширная область исследований и разработок интеллектуальных систем, предназначенных для работы в трудно формализуемых областях деятельности человека. Для задач, решаемых методами искусственного интеллекта, характерно наличие большого числа степеней свободы с числом вариантов поиска решений, приближающимся к бесконечности. В отличие от компьютерных программ системы искусственного интеллекта сами ищут пути решения поставленной задачи. При этом они могут менять свои параметры и структуру, совершенствоваться и развиваться, жить самостоятельной, не зависящей от воли разработчика жизнью. Нейронные сети возникли из исследований в области искусственного интеллекта, а именно, из попыток воспроизвести способность биологических нервных систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга. [2]

В последние десятилетия в мире бурно развивается новая прикладная область математики, специализирующаяся на искусственных нейронных сетях. [4] В области исследования нейронных сетей в настоящее время отчетливо выделяются два направления. Доминирующим является прикладное, так как нейросетевые конструкции позволяют решать массу практических задач. [3] Это автоматизация процессов распознавания образов, адаптивное управление, аппроксимация функционалов, прогнозирование, создание экспертных систем, организация ассоциативной памяти и многие другие приложения. С помощью НС можно, например, предсказывать показатели биржевого рынка, выполнять распознавание оптических или звуковых сигналов, создавать самообучающиеся системы, способные управлять автомашиной при парковке или синтезировать речь по тексту. В то время как на западе применение НС уже достаточно обширно, у нас это еще в некоторой степени экзотика – российские фирмы, использующие НС в практических целях, наперечет. [4] Второе направление состоит в детальном моделировании физиологических особенностей работы мозга  нервной системы. Отсюда разделение сетей на искусственные и реалистические. [3]

Целью моей курсовой работы является построение такой нейронной сети, которая бы с наибольшей точностью прогнозировала исход выборов президента нашей страны.


Глава 1. Искусственные нейронные сети

Искусственные нейронные сети (НС) — совокупность моделей биологических нейронных сетей. Представляют собой сеть элементов — искусственных нейронов — связанных между собой синаптическими соединениями. Сеть обрабатывает входную информацию и в процессе изменения своего состояния во времени формирует совокупность выходных сигналов.

Рис.1 Искусственный нейрон

Работа сети состоит в преобразовании входных сигналов во времени, в результате чего меняется внутреннее состояние сети и формируются выходные воздействия. Обычно НС оперирует цифровыми, а не символьными величинами. [1]

Каждый нейрон характеризуется своим текущим состоянием по аналогии с нервными клетками головного мозга, которые могут быть возбуждены или заторможены. Он обладает группой синапсов – однонаправленных входных связей, соединенных с выходами других нейронов, а также имеет аксон – выходную связь данного нейрона, с которой сигнал (возбуждения или торможения) поступает на синапсы следующих нейронов. Общий вид нейрона приведен на рис. 1. Каждый синапс характеризуется величиной синаптической связи или ее весом wi, который по физическому смыслу эквивалентен электрической проводимости. [4]

1.1. Формальный нейрон

Биологический нейрон — сложная система, математическая модель которого до сих пор полностью не построена. Введено множество моделей, различающихся вычислительной сложностью и сходством с реальным нейроном. Одна из важнейших — формальный нейрон (ФН, рис. 2.). Несмотря на простоту ФН, сети, построенные из таких нейронов, могут сформировать произвольную многомерную функцию на выходе.

Рис.2 . Формальный нейрон

Нейрон состоит из взвешенного сумматора и нелинейного элемента. Функционирование нейрона определяется формулами:

где xi — входные сигналы, совокупность всех входных сигналов нейрона образует вектор x;

wi весовые коэффициенты, совокупность весовых коэффициентов образует вектор весов w;

NET — взвешенная сумма входных сигналов, значение NET передается на нелинейный элемент;

θ — пороговый уровень данного нейрона;

F — нелинейная функция, называемая функцией активации.

Нейрон имеет несколько входных сигналов x и один выходной сигнал OUT. Параметрами нейрона, определяющими его работу, являются: вектор весов w, пороговый уровень θ и вид функции активации F. [1]

1.2. Ограничения модели нейрона

1. Вычисления выхода нейрона предполагаются мгновенными, не вносящими задержки. Непосредственно моделировать динамические системы, имеющие "внутреннее состояние", с помощью таких нейронов нельзя.

2. В модели отсутствуют нервные импульсы. Нет модуляции уровня сигнала плотностью импульсов, как в нервной системе. Не появляются эффекты синхронизации, когда скопления нейронов обрабатывают информацию синхронно, под управлением периодических волн возбуждения-торможения.

3. Нет четких алгоритмов для выбора функции активации.

4. Нет механизмов, регулирующих работу сети в целом (пример - гормональная регуляция активности в биологических нервных сетях).

5. Чрезмерная формализация понятий: "порог", "весовые коэффициенты". В реальных нейронах нет числового порога, он динамически меняется в зависимости от активности нейрона и общего состояния сети. Весовые коэффициенты синапсов тоже не постоянны. "Живые" синапсы обладают пластичностью и стабильностью: весовые коэффициенты настраиваются в зависимости от сигналов, проходящих через синапс.

6. Существует большое разнообразие биологических синапсов. Они встречаются в различных частях клетки и выполняют различные функции. Тормозные и возбуждающие синапсы реализуются в данной модели в виде весовых коэффициентов противоположного знака, но разнообразие синапсов этим не ограничивается. Дендро-дендритные, аксо-аксональные синапсы не реализуются в модели ФН.

7. В модели не прослеживается различие между градуальными потенциалами и нервными импульсами. Любой сигнал представляется в виде одного числа.

Итак, модель формального нейрона не является биоподобной и скорее похожа на математическую абстракцию, чем на живой нейрон. Тем удивительнее оказывается многообразие задач, решаемых с помощью таких нейронов и универсальность получаемых алгоритмов. [1]

1.3. Виды функций активации

Рассмотрим основные виды функций активации, получившие распространение в искусственных НС.

1. Жесткая ступенька (рис. 3.):

Используется в классическом формальном нейроне. Развита полная теория, позволяющая синтезировать произвольные логические схемы на основе ФН с такой нелинейностью. Функция вычисляется двумя-тремя машинными инструкциями, поэтому нейроны с такой нелинейностью требуют малых вычислительных затрат.

Эта функция чрезмерно упрощена и не позволяет моделировать схемы с непрерывными сигналами. Отсутствие первой производной затрудняет применение градиентных методов для обучения таких нейронов. Сети на классических ФН чаще всего формируются, синтезируются, т.е. их параметры рассчитываются по формулам, в противоположность обучению, когда параметры подстраиваются итеративно.

2. Логистическая функция (сигмоида, функция Ферми, рис. 3.):

Применяется очень часто для многослойных персептронов и других сетей с непрерывными сигналами. Гладкость, непрерывность функции — важные положительные качества. Непрерывность первой производной позволяет обучать сеть градиентными методами (например, метод обратного распространения ошибки).

Функция симметрична относительно точки (NET=0, OUT=1/2), это делает равноправными значения OUT=0 и OUT=1, что существенно в работе сети. Тем не менее, диапазон выходных значений от 0 до 1 несимметричен, из-за этого обучение значительно замедляется.

Данная функция — сжимающая, т.е. для малых значений NET коэффициент передачи K=OUT/NET велик, для больших значений он снижается. Поэтому диапазон сигналов, с которыми нейрон работает без насыщения, оказывается широким.

Значение производной легко выражается через саму функцию. Быстрый расчет производной ускоряет обучение.

3. Гиперболический тангенс (рис. 3):

Тоже применяется часто для сетей с непрерывными сигналами. Функция симметрична относительно точки (0,0), это преимущество по сравнению с сигмоидой. Производная также непрерывна и выражается через саму функцию.

4. Пологая ступенька (рис. 3):

Рассчитывается легко, но имеет разрывную первую производную в точках , что усложняет алгоритм обучения.

5. Экспонента: Применяется в специальных случаях.

6. SOFTMAX-функция:

Здесь суммирование производится по всем нейронам данного слоя сети. Такой выбор функции обеспечивает сумму выходов слоя, равную единице при любых значениях сигналов NETi данного слоя. Это позволяет трактовать OUTi как вероятности событий, совокупность которых (все выходы слоя) образует полную группу. Это полезное свойство позволяет применить SOFTMAX-функцию в задачах классификации, проверки гипотез, распознавания образов и во всех других, где требуются выходы вероятности.

7. Участки синусоиды:

8. Гауссова кривая (рис. ):

Применяется в случаях, когда реакция нейрона должна быть максимальной для некоторого определенного значения NET.

9. Линейная функция, OUT = K NET, K=const. Применяется для тех моделей сетей, где не требуется последовательное соединение слоев нейронов друг за другом. [1]

Рис.3 . Виды функций активации.

Выбор функции активации определяется:

1. Спецификой задачи.

2. Удобством реализации на ЭВМ, в виде электрической схемы или другим способом.

3. Алгоритмом обучения: некоторые алгоритмы накладывают ограничения на вид функции активации, их нужно учитывать.

Чаще всего вид нелинейности не оказывает принципиального влияния на решение задачи. Однако удачный выбор может сократить время обучения в несколько раз. [1]

1.4. Многослойный персептрон

Формальные нейроны могут объединяться в сети различным образом. Самым распространенным видом сети стал многослойный перцептрон (рис. 4).

Рис.4 . Многослойный перцептрон.

Сеть состоит из произвольного количества слоев нейронов. Нейроны каждого слоя соединяются с нейронами предыдущего и последующего слоев по принципу "каждый с каждым". Первый слой (слева) называется сенсорным или входным, внутренние слои называются скрытыми или ассоциативными, последний (самый правый, на рисунке состоит из одного нейрона) — выходным или результативным. Количество нейронов в слоях может быть произвольным. Обычно во всех скрытых слоях одинаковое количество нейронов.

Обозначим количество слоев и нейронов в слое. Входной слой: NI нейронов; NH нейронов в каждом скрытом слое; NO выходных нейронов. x — вектор входных сигналы сети, y * вектор выходных сигналов.

Существует путаница с подсчетом количества слоев в сети. Входной слой не выполняет никаких вычислений, а лишь распределяет входные сигналы, поэтому иногда его считают, иногда — нет. Обозначим через NL полное количество слоев в сети, считая входной.

Работа многослойного перцептрона (МСП) описывается формулами:

где индексом i всегда будем обозначать номер входа, j — номер нейрона в слое, l — номер слоя.

xijli-й входной сигнал j-го нейрона в слое l;

wijl — весовой коэффициент i-го входа нейрона номер j в слое l;

NET jl — сигнал NET j-го нейрона в слое l;

OUTjl — выходной сигнал нейрона;

θ jl — пороговый уровень нейрона j в слое l;

Введем обозначения: wjl — вектор-столбец весов для всех входов нейрона j в слое l; Wl — матрица весов всех нейронов в слоя l. В столбцах матрицы расположены вектора wjl . Аналогично x jl — входной вектор-столбец слоя l.

Каждый слой рассчитывает нелинейное преобразование от линейной комбинации сигналов предыдущего слоя. Отсюда видно, что линейная функция активации может применяется только для тех моделей сетей, где не требуется последовательное соединение слоев нейронов друг за другом. Для многослойных сетей функция активации должна быть нелинейной, иначе можно построить эквивалентную однослойную сеть, и многослойность оказывается ненужной. Если применена линейная функция активации, то каждый слой будет давать на выходе линейную комбинацию входов. Следующий слой даст линейную комбинацию выходов предыдущего, а это эквивалентно одной линейной комбинации с другими коэффициентами, и может быть реализовано в виде одного слоя нейронов.

Многослойная сеть может формировать на выходе произвольную многомерную функцию при соответствующем выборе количества слоев, диапазона изменения сигналов и параметров нейронов.

Как и ряды, многослойные сети оказываются универсальным инструментом аппроксимации функций. Видно отличие работы нейронной сети от разложения функции в ряд:

Ряд:  f( x) c f (x)

Нейронная сеть:   

За счет поочередного расчета линейных комбинаций и нелинейных преобразований достигается аппроксимация произвольной многомерной функции при соответствующем выборе параметров сети.

В многослойном персептроне нет обратных связей. Такие модели называются сетями прямого распространения. Они не обладают внутренним состоянием и не позволяют без дополнительных приемов моделировать развитие динамических систем. [1]

1.5. Алгоритм решения задач с помощью МСП

Чтобы построить МСП, необходимо выбрать его параметры. Чаще всего выбор значений весов и порогов требует обучения, т.е. пошаговых изменений весовых коэффициентов и пороговых уровней.

Общий алгоритм решения:

1. Определить, какой смысл вкладывается в компоненты входного вектора x. Входной вектор должен содержать формализованное условие задачи, т.е. всю информацию, необходимую для получения ответа.

2. Выбрать выходной вектор y таким образом, чтобы его компоненты содержали полный ответ поставленной задачи.

3. Выбрать вид нелинейности в нейронах (функцию активации). При этом желательно учесть специфику задачи, т.к. удачный выбор сократит время обучения.

4. Выбрать число слоев и нейронов в слое.

5. Задать диапазон изменения входов, выходов, весов и пороговых уровней, учитывая множество значений выбранной функции активации.

6. Присвоить начальные значения весовым коэффициентам и пороговым уровням и дополнительным параметрам (например, крутизне функции активации, если она будет настраиваться при обучении). Начальные значения не должны быть большими, чтобы нейроны не оказались в насыщении (на горизонтальном участке функции активации), иначе обучение будет очень медленным. Начальные значения не должны быть и слишком малыми, чтобы выходы большей части нейронов не были равны нулю, иначе обучение также замедлится.

7. Провести обучение, т.е. подобрать параметры сети так, чтобы задача решалась наилучшим образом. По окончании обучения сеть готова решить задачи того типа, которым она обучена.

8. Подать на вход сети условия задачи в виде вектора x. Рассчитать выходной вектор y, который и даст формализованное решение задачи. [1]

1.6. Обучение персептрона. Правило Хебба

Персептрон обучают по правилу Хебба. Предъявляем на вход персептрона один пример. Если выходной сигнал персептрона совпадает с правильным ответом, то никаких действий предпринимать не надо. В случае ошибки необходимо обучить персептрон правильно решать данный пример. Ошибки могут быть двух типов. Рассмотрим каждый из них.

Первый тип ошибки – на выходе персептрона 0, а правильный ответ – 1. Для того, чтобы персептрон (1) выдавал правильный ответ необходимо, чтобы сумма в правой части (1) стала больше. Поскольку переменные  принимают значения 0 или 1, увеличение суммы может быть достигнуто за счет увеличения весов . Однако нет смысла увеличивать веса при переменных , которые равны нулю. Таким образом, следует увеличить веса  при тех переменных , которые равны 1. Для закрепления единичных сигналов с , следует провести туже процедуру и на всех остальных слоях.

Первое правило Хебба. Если на выходе персептрона получен 0, а правильный ответ равен 1, то необходимо увеличить веса связей между одновременно активными нейронами. При этом выходной персептрон считается активным. Входные сигналы считаются нейронами.

Второй тип ошибки – на выходе персептрона 1, а правильный ответ равен нулю. Для обучения правильному решению данного примера следует уменьшить сумму в правой части (1). Для этого необходимо уменьшить веса связей  при тех переменных , которые равны 1 (поскольку нет смысла уменьшать веса связей при равных нулю переменных ). Необходимо также провести эту процедуру для всех активных нейронов предыдущих слоев. В результате получаем второе правило Хебба.

Второе правило Хебба. Если на выходе персептрона получена 1, а правильный ответ равен 0, то необходимо уменьшить веса связей между одновременно активными нейронами.

Таким образом, процедура обучения сводится к последовательному перебору всех примеров обучающего множества с применением правил Хебба для обучения ошибочно решенных примеров. Если после очередного цикла предъявления всех примеров окажется, что все они решены правильно, то процедура обучения завершается.

Нерассмотренными осталось два вопроса. Первый – насколько надо увеличивать (уменьшать) веса связей при применении правила Хебба. Второй – о сходимости процедуры обучения. Ответы на первый из этих вопросов дан в следующем разделе. В работе [146] приведено доказательство следующих теорем:

Теорема о сходимости персептрона. Если существует вектор параметров α, при котором персептрон правильно решает все примеры обучающей выборки, то при обучении персептрона по правилу Хебба решение будет найдено за конечное число шагов.

Теорема о «зацикливании» персептрона. Если не существует вектора параметров α, при котором персептрон правильно решает все примеры обучающей выборки, то при обучении персептрона по правилу Хебба через конечное число шагов вектор весов начнет повторяться. [9]

1.7. Место нейронных сетей среди других методов решения задач

Нейронные сети превосходят последовательные машины в решении тех же задач, в которых машину превосходит человек. Задачи, требующие большого объема вычислений или высокой точности лучше выполняются обычной ЭВМ.

К задачам, успешно решаемым НС на данном этапе их развития относятся:

  •  распознавание зрительных, слуховых образов; огромная область применения: от распознавания текста и целей на экране радара до систем голосового управления;
  •  ассоциативный поиск информации и создание ассоциативных моделей; синтез речи; формирование естественного языка;
  •  формирование моделей и различных нелинейных и трудно описываемых математически систем, прогнозирование развития этих систем во времени: применение на производстве; прогнозирование развития циклонов и других природных процессов, прогнозирование изменений курсов валют и других финансовых процессов;
  •  системы управления и регулирования с предсказанием; управление роботами, другими сложными устройствами;
  •  разнообразные конечные автоматы: системы массового обслуживания и коммутации, телекоммуникационные системы;
  •  принятие решений и диагностика, исключающие логический вывод; особенно в областях, где отсутствуют четкие математические модели: в медицине, криминалистике, финансовой сфере;

Уникальное свойство нейросетей — универсальность. Хотя почти для всех перечисленных задач существуют эффективные математические методы решения и несмотря на то, что НС проигрывают специализированным методам для конкретных задач, благодаря универсальности и перспективности для решения глобальных задач, например, построения ИИ и моделирования процесса мышления, они являются важным направлением исследования, требующим тщательного изучения. [1]


Глава 2. Практическое применение нейронных сетей при прогнозировании исхода выборов президента

2.1. Постановка задачи

Исход выборов президента страны не всегда бывает очевидным. Иногда результат очень сложно предугадать.

Целью моей курсовой работы является применение нейронных сетей при прогнозировании исхода выборов президента.

Для составления обучающей и тестовой выборки были использованы материалы, взятые из биографических статей всех кандидатов на пост президента страны. Для описание предметной области я использовала следующие параметры:

  1.  пол
  2.  возраст
  3.  от какой партии баллотировался
  4.  место рождения
  5.  статус
  6.  сфера деятельности
  7.  семейное положение
  8.  известность

Так как данные, используемые при описании предметной области, имеют разнообразный характер, а нейросеть может обрабатывать только числовую информацию, то все данные будут закодированы следующим образом:

Пол: 1 – женский

        2 – мужской

От какой партии баллотировался: 1 – правящая (те партии, которые на выборах в Думу набрали больше 5% голосов), 2 – остальные.

Место рождения:  4 – Москва, Санкт-Петербург

         3 – прочие города России

         2 – российские деревни, села

         1 – зарубежье

Статус: 1 – остальные

  2 – приемник резидента

  3 – действующий президент

Сфера деятельности: 1 – спорт, культура, медицина

   2 – военный

   3 – экономика

   4 - политика

Семейное положение: 1 – не женат/не замужем

     2 – женат/замужем

     3 – разведен/разведена

Известность: 1 – не публичный

 2 – публичный

 3 – очень известный

Так как входные параметры имеют различные значения, которые варьируются в диапазоне от 1 до 69, то активационной функцией входы будет линейная функция. На выходе персептрон выдает 0 (проиграл) или 1 (выиграл), значит активационной функцией выходы будет сигмоида.

Ниже приведены таблицы выборок: обучающей, на основе которой проходило обучение персептрона, и тестовой, на которой были проверены результаты обучения.[8-18]

Таблица 1.

Обучающая выборка (33 примера)

Ф.И.О.

пол

возраст

политическая партия

город

статус

сфера деятельности

семейное положение

известность

результат

1991 Бакатин Вадим Викторович

2

54

1

3

1

2

3

1

0

       Ельцин Борис Николаевич

2

60

1

2

2

4

3

2

1

       Жириновский Владимир Вольфович

2

45

1

1

1

4

3

2

0

       Макашов Альберт Михайлович

2

53

1

2

1

2

3

1

0

       Рыжков Николай Иванович

2

62

1

1

1

4

3

1

0

       Тулеев Амангельды Молдагазыевич

2

47

1

1

1

4

3

2

0

1996 Брынцалов Владимир Алексеевич

2

50

1

3

1

3

3

1

0

       Власов Юрий Петрович

2

61

1

1

1

1

3

1

0

       Горбачев Михаил Сергеевич

2

65

1

2

1

3

3

2

0

       Ельцин Борис Николаевич

2

65

2

2

3

4

3

3

1

       Жириновский Владимир Вольфович

2

48

2

1

1

4

3

3

0

       Зюганов Геннадий Андреевич

2

52

2

2

1

4

3

3

0

       Лебедь Александр Иванович

2

46

1

3

1

2

3

3

0

       Федоров Святослав Николаевич

2

69

1

1

1

1

3

1

0

       Шаккум Мартин Люцианович

2

45

1

3

1

3

3

1

0

       Явлинский Григорий Алексеевич

2

44

1

1

1

4

3

2

0

2000 Памфилова Элла Александровна

1

47

1

1

1

4

2

2

0

       Жириновский Владимир Вольфович

2

54

1

1

1

4

3

3

0

       Зюганов Геннадий Андреевич

2

56

2

2

1

4

3

2

0

       Тулеев Амангельды Молдагазыевич

2

56

1

1

1

4

3

2

0

       Явлинский Григорий Алексеевич

2

48

1

1

1

4

3

2

0

       Говорухин Станислав Сергеевич

2

64

2

3

1

1

3

1

0

       Джабраилов Умар Алиевич

2

42

1

3

1

3

2

2

0

       Подберезкин Алексей Иванович

2

47

1

4

1

4

3

1

0

       Путин Владимир Владимирович

2

48

1

4

2

2

3

3

1

       Скуратов Юрий Ильич

2

48

1

3

1

4

3

1

0

       Титов Константин Алексеевич

2

56

1

4

1

4

3

1

0

2004 Глазьев Сергей Юрьевич

2

43

1

1

1

4

3

1

0

       Малышкин Олег Александрович

2

53

2

2

1

4

3

1

0

       Миронов Сергей Михайлович

2

51

1

3

1

4

3

1

0

       Путин Владимир Владимирович

2

52

2

4

3

2

3

3

1

       Хакамада Ирина Муцуовна

1

49

1

4

1

3

3

2

0

       Харитонов Николай Михайлович

2

56

2

2

1

3

3

1

0

Таблица 2.

Тестовая выборка (4 примера)

Ф.И.О.

пол

возраст

политическая партия

город

статус

сфера деятельности

семейное положение

известность

результат

2008 Богданов Андрей Владимирович

2

38

2

4

1

4

3

1

0

        Жириновский Владимир Вольфович

2

62

1

1

1

4

3

3

0

        Зюганов Геннадий Андреевич

2

64

1

2

1

4

3

2

0

        Медведев Дмитрий Анатольевич

2

43

1

4

2

4

3

3

1

Для решения поставленной задачи будем использовать персептрон, который содержит восемь входов, один выход  два скрытых слоя: первый слой состоит из 4 нейронов, второй – из 2 нейронов. (Рис. 5)

Рис. 5. Проектирование сети

При обучении данного персептрона ошибка обучения сети составила 0,003 (Рис. 6).

Рис. 6. Ошибка обучения при исходной обучающей выборке

При проектировании персептронов необходимо понимать, что персептрон должен не только правильно реагировать на примеры, на которых он обучен, но и уметь обобщать приобретенные знания, т.е. правильно реагировать на примеры, которых в обучающей выборке не было. Погрешность персептрона, вычисленная на обучающей выборке называется погрешностью обучения, обозначаемой, а вычисленная на тестовой выборке- погрешностью обобщения, обозначаемой T  . При увеличении числа нейронов внутренних слоев персептрона N погрешность обучения   обычно падает, тогда как погрешность обобщения   сначала падает, а затем, начиная с некоторого оптимального значения N=N0, возрастает.

 

Рис. 7. Ошибка обучения

Рис. 8. Ошибка обобщения

Из анализа графиков погрешности обучения и погрешности обобщения видно, что оптимальным является количество нейронов равное 6. (Рис. 7,8)

2.2. Анализ полученных результатов

В результате обучения персептрона при проверке на тестовой выборке были получены следующие результаты (табл. 4).

Таблица 4.

Результаты, полученные при проверке на тестовой выборке

Ф.И.О.

Результат

Богданов Андрей Владимирович

0,0006

Жириновский Владимир Вольфович

0,002

Зюганов Геннадий Андреевич

0,0001

Медведев Дмитрий Анатольевич

0,9904

Проанализировав работу персептрона и полученные в результате обучения результаты, проверенные на тестовой выборке, можно сделать вывод, что полученные значения близки к практическим. (табл. 3)

Таблица 3.

Анализ практических и спрогнозированных результатов

Ф.И.О.

спрогнозированный результат

практический результат

Богданов Андрей Владимирович

0,0006

0

Жириновский Владимир Вольфович

0,002

0

Зюганов Геннадий Андреевич

0,0001

0

Медведев Дмитрий Анатольевич

0,9904

1

Для наглядности анализа полученных результатов и практических можно представить их в виде диаграммы (Рис. 8).

Рис. 9. Анализ спрогнозированных и практических результатов

Несмотря на то, что спрогнозированные значения не полностью совпадают с практическими, можно утверждать, что персептрон адекватно реагирует на примеры, которых не было в обучающей выборке. Следовательно, можно считать применение нейронных сетей в данной предметной области эффективным.


2.3. Исследование модели

Анализируя полученные результаты, выявились некоторые закономерности зависимости результатов выборов президента от возраста, принадлежности какой-либо партии и сферы деятельности кандидатов. Теперь с помощью специально обученного персептрона можно выявить, в каком возрасте каждому кандидату лучше баллотироваться на пост президента страны, при этом имея наилучшие результаты. (Рис. 9, 10, 11)

Рис. 9. Зависимость результатов выборов от возраста для Медведева Д.А.

Рис. 10. Зависимость результатов выборов от возраста для Жириновского В.В.

Рис. 11. Зависимость результатов выборов от возраста для Зюганова Г.А.

Также выявлена закономерность зависимости результатов выборов от принадлежности кандидатов той или иной партии. Так как при обучении персептрона использовалось разделение партий на правящие (т.е. набравшие при выборах в Думу больше 5% голосов) и остальные, то результат будет зависеть от принадлежности не к какой-то определенной партии, а группе партий. (Рис. 12, 13, 14)

Рис. 12. Зависимость результатов выборов от принадлежности к партии для Медведева Д.А.

Рис. 13. Зависимость результатов выборов от принадлежности к партии для Жириновского В.В.

Рис. 14. Зависимость результатов выборов от принадлежности к партии для Зюганова Г.А.

Как видно из этих диаграмм, если бы данные кандидаты баллотировались не от правящих партий, их шансы на победу были бы меньше, у всех, кроме Зюганова Г.А.. У него результат абсолютно не зависит от принадлежности к партии. Следовательно, можно сделать вывод, что для победы в выборах им нет необходимости переходить из одной партии в другую.

Далее рассмотрим зависимость результатов в выборах от сферы деятельности кандидатов в президента (Рис. 15).

Рис. 15. Зависимость результатов выборов от сферы деятельности кандидатов в президенты

Таблица 4

Зависимость результатов от сферы деятельности кандидатов

деятельность

Медведев Д.А.

Жириновский В.В.

Зюганов Г.А.

спорт, культура, медицина

0,9983

0,0078

0,0008

военные

0,9977

0,0046

0,0004

экономика

0,996

0,003

0,0002

политика

0,9904

0,002

0,0001

Анализируя данную диаграмму, делаем вывод, что наилучшие результаты все кандидаты в президенты имеют в том случае, если они бы занимались такими видами деятельности, как спорт, культура и медицина. Наименьшие результаты получили бы кандидаты, сферами деятельности которых, как ни странно, является политика. Но при этом разница в результатах является незначительной и сильно не влияет на конечный результат.

Исследуя все приведенные выше диаграммы и графики, не следует забывать, что на них отражены не действительные результаты выборов, а лишь зависимость результатов выборов от тех или иных показателей.


Заключение

Итоги проделанной работы:

  1.  В первой части курсовой работы я обобщила теоретические знания о нейронных сетях, их построении и практическом применении.
  2.  Во второй части я попыталась применить эти знания для прогнозирования исходов выборов президента страны. Для этого была проделана следующая работа:
  •  были определены параметры, по которым будет производится обучение персептрона;
  •  данные о всех кандидатах, участвовавших в президентских выборах в России в 1991, 1996, 2000, 2004, 2008 годах были собраны, обработаны и представлены в виде таблицы;
  •  так как персептрон может обрабатывать только числовую информацию, то вся информация о кандидатах была закодирована определенным образом;
  •  был смоделирован персептрон, который был обучен на полученной таблице обучающей выборки;
  •  итоги обучения были проверены на тестовой выборке, содержащей кандидатов на выборах в 2008 году;
  •  полученные результаты при сравнении с практическими показали маленькую погрешность, следовательно обученная нейросеть является эффективной при решении этого вида задач.

Проведенная работа показывает, что применяя нейросетевые технологии в области прогнозирования исхода выборов президента, можно с большой вероятностью утверждать, кто одержит победу в предстоящих выборах.


Библиографический список

Список литературы

  1.  И. В. Заенцев Нейронные сети: основные модели. Учебное пособие к курсу "Нейронные сети". Воронеж, 1999
  2.  Ясницкий Л.Н. Введение в искусственный интеллект: Учеб. Пособие для студ. высш. учеб. заведений (с гриформ УМО). – М.: Издательский центр «Академия», 2005 – 176с.
  3.  Динамика модифицированной модели нейронной сети Кропотова-Пахомова. Черных Г.А., Письмак Ю.М.,  Нейроинформатика, 2007, том 2, № 1

Ссылки Интернета

  1.  http://algolist.manual.ru/download.php?path=/ai/neuro/n1.htlm 

  1.  http://neuroschool.narod.ru/books/zaencev.html

  1.  http://www.niisi.ru/iont/ni/Journal/

  1.  http://www.softcraft.ru/neuro/ni/p00.shtml
  2.  http://wikipedia.org

  1.  http://peopels.ru

  1.  www.psj.ru

  1.  http://politika.su

  1.  http://vybory.ru

  1.  http://shakkum.ru

  1.  http://lobbying.ru

  1.  http://mediakuzbass.ru

  1.  http://sovetpamfilova.ru

  1.  http://kommentator.ru

  1.  http://flb.ru


 

А также другие работы, которые могут Вас заинтересовать

81425. Четвертичная структура белков. Особенности строения и функционирования олигомерных белков на примере гемсодержащего белка - гемоглобина 104.92 KB
  Особенности строения и функционирования олигомерных белков на примере гемсодержащего белка гемоглобина. В частности молекула гемоглобина состоит из двух одинаковых α и двух βполипептидных цепей т. Молекула гемоглобина содержит четыре полипептидные цепи каждая из которых окружает группу гема – пигмента придающего крови ее характерный красный цвет. Простетическая группа нековалентно связана с гидрофобной впадиной молекулы гемоглобина.
81426. Лабильность пространственной структуры белков и их денатурация. Факторы, вызывающие денатурацию 100.13 KB
  Под лабильностью пространственной структуры белка понимают способность структуры белковой молекулы претерпевать конформационные изменения под действием различных физикохимических факторов. Под денатурацией следует понимать нарушение общего плана уникальной структуры нативной молекулы белка преимущественно ее третичной структуры приводящее к потере характерных для нее свойств растворимость электрофоретическая подвижность биологическая активность и т. При непродолжительном действии и быстром удалении денатурирующих агентов возможна...
81427. Шапероны - класс белков, защищающий другие белки от денатурации в условиях клетки и облегчающий формирование их нативной конформации 105.78 KB
  Шаперо́ны (англ. chaperones) — класс белков, главная функция которых состоит в восстановлении правильной третичной структуры повреждённых белков, а также образование и диссоциация белковых комплексов. Термин «молекулярный шаперон» впервые был использован в работе Ласкей и других при описании ядерного белка нуклеоплазмина
81428. Многообразие белков. Глобулярные и фибриллярные белки, простые и сложные. Классификация белков по их биологическим функциям и по семействам: (сериновые протеазы, иммуноглобулины) 106.76 KB
  Глобулярные и фибриллярные белки простые и сложные. Так белки можно классифицировать: по форме молекул глобулярные или фибриллярные; по молекулярной массе низкомолекулярные высокомолекулярные и др.; по химическому строению наличие или отсутствие небелковой части; по выполняемым функциям транспортные защитные структурные белки и др.; по локализации в организме белки крови печени сердца и др.
81429. Иммуноглобулины, особенности строения, избирательность взаимодействия с антигеном. Многообразие антигенсвязывающих участков Н- и L-цепей. Классы иммуноглобулинов, особенности строения и функционирования 108.05 KB
  Домены тяжёлых цепей IgG имеют гомологичное строение с доменами лёгких цепей. Специфичность пути разрушения комплекса антигенантитело зависит от класса антител которых существует 5 типов: Ig IgD IgE IgG IgM. Созревающие Влимфоциты синтезируют мономерные бивалентные молекулы IgM по структуре похожие на рассматриваемые выше IgG которые встраиваются в плазматическую мембрану клеток и играют роль первых антигенраспознающих рецепторов. В количественном отношении IgG доминируют в крови и составляют около 75 от общего количества этих...
81430. Физико-химические свойства белков. Молекулярный вес, размеры и форма, растворимость, ионизация, гидратация 103.82 KB
  Молекулярный вес размеры и форма растворимость ионизация гидратация Индивидуальные белки различаются по своим физикохимическим свойствам: форме молекул молекулярной массе суммарному заряду молекулы соотношению полярных и неполярных групп на поверхности нативной молекулы белка растворимости белков а также степени устойчивости к воздействию денатурирующих агентов. Различия белков по молекулярной массе. Молекулярная масса белка зависит от количества аминокислотных остатков в полипептидной цепи а для олигомерных белков и от...
81431. Методы выделения индивидуальных белков: осаждение солями и органическими растворителями, гель-фильтрация, электрофорез, ионообменная и аффинная хроматография 104.42 KB
  Метод выделения белков основанный на различиях в их растворимости при разной концентрации соли в растворе. Соли щелочных и щёлочноземельных металлов вызывают обратимое осаждение белков т. Чаще всего для разделения белков методом высаливания используют разные концентрации солей сульфата аммония NH42SO4.
81432. Методы количественного измерения белков. Индивидуальные особенности белкового состава органов. Изменения белкового состава органов при онтогенезе и болезнях 110.81 KB
  Индивидуальные особенности белкового состава органов. Изменения белкового состава органов при онтогенезе и болезнях. Для определения количества белка в образце используется ряд методик: Биуретовый метод один из колориметрических методов количественного определения белков в растворе.
81433. История открытия и изучения ферментов. Особенности ферментативного катализа. Специфичность действия ферментов. Зависимость скорости ферментативных реакций от температуры, рН, концентрации фермента и субстрата 143.03 KB
  Особенности ферментативного катализа. Зависимость скорости ферментативных реакций от температуры рН концентрации фермента и субстрата. Собственно ферментами от лат. Важнейшие особенности ферментативного катализа эффективность специфичность и чувствительность к регуляторным воздействиям.