1734

ДУБЛИРОВАНИЕ ИНФОРМАЦИИ КАК СРЕДСТВО ПОВЫШЕНИЯ УСТОЙЧИВОСТИ НЕЙРОСЕТЕВЫХ РЕШЕНИЙ

Диссертация

Информатика, кибернетика и программирование

Информация и информационная технология. Формализация основных понятий и классификация дублей. Дублирование в процессе решения задачи классификации предсказаний летального исхода в случае наступления инфаркта миокарда.

Русский

2012-11-11

2.69 MB

15 чел.

Министерство общего и специального образования  
Российской Федерации 
Красноярский государственный технический университет 
 
 
На правах рукописи 
 
Вашко Татьяна Александровна 
 
ДУБЛИРОВАНИЕ ИНФОРМАЦИИ КАК СРЕДСТВО ПОВЫШЕНИЯ 
УСТОЙЧИВОСТИ НЕЙРОСЕТЕВЫХ РЕШЕНИЙ 
 
05.13.17 – Теоретические основы информатики 
 
 
ДИССЕРТАЦИЯ 
на соискание ученой степени кандидата технических наук 
 
 
 
 
Научные руководители: 
доктор физ.-мат. наук, профессор А.Н. Горбань 
кандидат физ.-мат. наук, доцент Е.М. Миркес 
 
 
 
 
Красноярск 2001 

 
4
 
ВВЕДЕНИЕ 
 
Актуальность работы. Бурное развитие информационных технологий и 
компьютерной техники послужило толчком к развитию общества, построенно-
го на использовании различной информации и к возникновению идеи примене-
ния  искусственного  интеллекта  в  современной  вычислительной  технике.  Ис-
следования искусственных нейронных сетей составляют значительные разделы 
в таких науках, как биофизика, вычислительная математика, электроника. Ней-
росети применяются для решения задач искусственного интеллекта, в системах 
технических органов чувств, ядерной физике, геологии, управлении производ-
ственными процессами и социально-экономическими системами. 
Подход к обработке информации, основанный на применении нейронных 
сетей, не требует готовых алгоритмов и правил – система должна “уметь” само-
стоятельно  вырабатывать  правила  и  модифицировать  их  в  процессе  решения 
конкретных задач. Для многих задач, где такие алгоритмы неизвестны, или же 
известны,  но  требуют  значительных  затрат  на  разработку  программного  обес-
печения,  нейросети  предлагают  исследователю  эффективные,  легко  и  быстро 
реализуемые  методы  решения.  И  это  делает  нейронные  сети  универсальным 
инструментом обработки информации, а разработка методов нейросетевого мо-
делирования и анализа информации представляют большой интерес. 
Стремительный рост объемов используемой информации ведет к услож-
нению алгоритмов прямой обработки с помощью различных способов и мето-
дов, увеличению временных затрат, усложнению процедур оптимизации и, как 
следствие, к снижению точности решения задач. С увеличением числа изучае-
мых объектов все большее распространение получают эмпирические зависимо-
сти (формулы, алгоритмы). В отличие от теоретических зависимостей, эмпири-
ческие зависимости не единственны. Поэтому возникает необходимость выбора 
“наилучшего” варианта зависимости из полученных альтернатив. 
Наиболее распространенным подходом получения “наилучших зависимо-
стей”  является  уменьшение  числа  исходных  данных  (минимизация  описания). 
 

 
5
Этот подход позволяет решать задачи отбора наиболее информативных данных, 
сжатия массивов обрабатываемой и хранимой информации, задачи наглядного 
представления данных (визуализация данных). Однако такого рода операция с 
данными, безусловно, ведет к потере части полезной информации и ограниче-
ниям в использовании дополнительных априорных сведений о решаемой зада-
че.  Поэтому  все  чаще  возникает  вопрос:  насколько  хорош  созданный  мини-
мальный набор параметров? 
В зависимости от решаемой задачи ответ на этот вопрос может быть раз-
ным. Если все входные параметры являются объективными (например, резуль-
татами физических измерений), то минимального набора параметров достаточ-
но  для  качественного  решения  задачи.  Однако  если  входные  параметры  явля-
ются субъективными (например, экспертная оценка) или решение чувствитель-
но к изменению значения измеряемой величины, меньшему чем точность изме-
рения, то минимальный набор ненадежен.  
В  условиях  сокращения  (минимизации)  описания  все  чаще  возникают 
проблемы повышения качества нейросетевых решений и их надежности в слу-
чаях  искажения  информации  во  входных  данных,  а  также  выявление  взаимо-
связей между признаками в процессе решения поставленных задач. Как прави-
ло искажение информации во входных данных возникает в двух случаях: либо 
это случайные (неумышленные) ошибки исследователя в процессе формирова-
ния выборки, либо преднамеренное искажение данных. И хотя на сегодняшний 
день существуют инструменты позволяющие контролировать качество входной 
информации, однако все они основаны на проверке качества работы исследова-
теля, а это не значит, что ошибка, допущенная одним человеком, не может быть 
пропущена другим. 
Поэтому на сегодняшний день решение задачи повышения устойчивости 
нейросетевой  системы  (в  условиях  сокращения  количества  входных  данных  и 
возможного искажения информации) является актуальной. 
В диссертационной работе решение поставленной задачи производится по-
средством поиска компромисса, то есть добавления к минимальному набору та-
 

 
6
кого набора признаков, который содержит в  себе данные, полностью или  час-
тично дублирующие информацию из минимального набора. 
Цель  работы.  Разработка  метода  повышения  качества  решения  задач  в 
условиях  искажения  информации  во  входных  данных  и  минимизации  про-
странства признаков. 
Для достижения указанной цели были поставлены следующие задачи. 
•  Разработка теоретических основ метода. 
•  Построение алгоритмов реализации метода. 
•  Формирование структурных схем зависимости признаков. 
•  Применение  метода  при  решении  задачи  классификации  осложне-
ний инфаркта миокарда. 
•  Апробация метода в процессе решения задачи прогнозирования ре-
зультативности труда преподавателя. 
В рамках реализации цели и задач диссертационной работы сделано сле-
дующее. 
В  первой  главе  дана  характеристика  основных  понятий  категории  “ин-
формация” и ее особенностей. Описан круг задач, связанных с обработкой дан-
ных.  Дан  обзор  и  анализ  традиционных  методов  и  алгоритмов  обработки  ин-
формации. Проведено обзорное исследование алгоритмов восстановления зави-
симостей и методов снижения размерности выборки. Обоснован выбор нейро-
сетевых подходов к обработке информации как наиболее универсального инст-
румента  и  описаны  основные  элементы  нейросетей.  Рассмотрены  проблемы 
возникновения  искажений  информации  и  существующие  способы  их  устране-
ния. Поставлена задача создания компромиссной модели формирования выбор-
ки, которая удовлетворяла бы и решению задачи снижения размерности и зада-
чи повышения устойчивости решений к искажениям во входных данных. В ка-
честве базы для решения поставленной задачи предложена идея поиска дубли-
рующих признаков. Введено понятие дублирования информации – как способа 
повышения качества обработки данных и предсказания поведения объекта. 
 

 
7
Во второй главе подробно охарактеризован круг задач, успешного реше-
ния  которых  можно  достигнуть  с  помощью  дублирования  информации.  Дано 
формальное  описание  основных  понятий,  применяемых  в  процессе  создания 
методологии  дублирования.  На  базе  предложенных  понятий  сформирована 
классификация  дублей.  Исходя  из  предложенной  классификации  определены 
четыре возможных варианта дублей: прямой дубль первого рода (ПДПР), кос-
венный  дубль  первого  рода  (КДПР),  прямой  дубль  второго  рода  (ПДВР),  кос-
венный дубль второго рода (КДВР). Далее последовательно рассмотрены под-
ходы и алгоритмы получения каждого дубля в отдельности и, на их основе, на-
боров повышенной надежности для решения задачи в условиях возникновения 
искажений информации. На базе каждого из дублей сформирована структурная 
схема зависимости признаков в рамках решения поставленной задачи. С помо-
щью теорем доказано соотношение между различными видами дублей. 
В главе три показано практическое применение методологии дублирова-
ния информации на примере решения задачи классификации предсказаний ле-
тального исхода в случае наступления инфаркта миокарда. В процессе решения 
задачи  найдено  три  вида  дублей:  прямой  дубль  первого  рода,  прямой  дубль 
второго рода и косвенный дубль второго рода. На базе полученных дублей по-
строены  структурные  схемы  зависимостей  признаков.  В  ходе  проведения  экс-
периментов доказано, что для выборки по осложнениям инфаркта миокарда на-
боры повышенной надежности на базе каждого из дублей по праву носят свое 
название,  так  как  результаты  работы  нейронной  сети  в  условиях  искажения 
входной информации лучше, чем в случае с набором прототипов. 
В четвертой главе получены результаты при решении задачи прогнози-
рования  результата  деятельности  преподавателя  со  студентами.  Найдены  все 
виды дублей, на их основе построены наборы повышенной надежности. В каче-
стве системы, способной решать поставленную задачу со всеми ограничениями 
в  условиях  возможных  искажений  информации  во  входных  данных,  выбрана 
нейронная сеть с набором признаков, обладающим повышенной надежностью и 
построенном  на  базе  прямого  дубля  первого  рода.  Построены  схемы  иерархи-
ческой структуры пространства признаков. 
 

 
8
Научная новизна диссертации заключается в следующем: 
•  впервые  предложен  метод  дублирования  информации,  позволяю-
щий  повысить  качество  решения  задач  в  условиях  возникновения 
искажений информации во входных данных; 
•  построены алгоритмы поиска дублирующих наборов и формирова-
ния иерархических схем зависимости признаков; 
•  предложенный метод дублирования реализован с помощью нейро-
сетевых технологий обработки данных; 
•  на  конкретных  примерах  исследовано  влияние  дублирования  ин-
формации на качество решения задач прогнозирования и классифи-
кации. 
Практическая значимость. Предложенные в работе методы построения 
наборов  признаков  повышенной  устойчивости  к  искажениям  входной  инфор-
мации  с  помощью  различных  видов  дублирования  могут  применяться  при  ре-
шении задач в различных областях. На примере решения задачи классификации 
предсказаний летального исхода в случае наступления инфаркта миокарда и за-
дачи прогнозирования результативности деятельности  преподавателя показана 
эффективность использования предложенных методов. Полученные результаты 
представляют  интерес  для  создания  методов  анализа  и  обработки  данных  не 
только  в  медицине  и  в  процессе  управления  персоналом  в  социально-
экономических системах, но и в других областях. 
Представленный в работе подход к выявлению зависимостей в простран-
стве  признаков  позволяет  сократить  и  упростить  работу  над  созданием  иерар-
хической  структуры  данных.  Метод,  реализованный  на  имитаторе  нейронной 
сети, открывает путь к оптимизации моделей, созданных на базе искусственных 
нейронных сетей по принципу достаточного для данной задачи объема инфор-
мации. 
Предложенный метод построения дублирующих множеств может реали-
зовываться и с помощью других инструментов построения эмпирических зави-
симостей. 
 

 
9
Результаты, выносимые на защиту: 
1.  Метод дублирования информации, как средство повышения устойчивости 
решений в условиях искажения входных сигналов.  
2.  Классификация дублирующих наборов, сформированная на базе сочетания 
двух принципов: по объекту дублирования и по способу определения.  
3.  Алгоритмы  построения  дублирующих  наборов  на  основе  предложенной 
классификации.  
4.  Апробация  метода  на  задачах  классификации  и  прогнозирования.  Под-
тверждение  повышения  устойчивости  решений  нейросетевой  системой  на 
базе наборов, сформированных на основе различных видов дублирования, 
в условиях искажения входной информации. 
Публикации.  Основные  результаты  работы,  полученные  при  выполне-
нии диссертационных исследований, опубликованы в 11 печатных работах, из 
них 6 статей и 5 тезисов докладов. 
Апробация  работы.  Материалы  диссертации  докладывались  на  Межре-
гиональной конференции студентов и аспирантов “Теория и практика коммер-
ческой деятельности” 29 февраля 2000 года, на Региональной межвузовской на-
учно-практической  конференции  “Социально-экономические  проблемы  разви-
тия  рынка  потребительских  товаров” 24.03.2000г.,  на  Всероссийской  научно-
практической  конференции  с  международным  участием  “Достижение  науки  и 
техники – развитию  сибирских  регионов  (инновационный  и  инвестиционный 
потенциалы)”  в  марте 2000 года,  на III Международной  научно-практической 
конференции “Экономические реформы в России” в Санкт-Петербурге в апреле 
2000г., на открытом методическом семинаре кафедры “Менеджмента” Красно-
ярского государственного торгово-экономического института 26.11.99г., на се-
минаре  кафедры  системотехники  Сибирского  государственного  технологиче-
ского университета весной 2000 года, на городском семинаре по Нейроинфор-
матике в Институте вычислительного моделирования СО РАН г. Красноярска в 
2001 году.  
 
 

 
10
ГЛАВА 1. ИНФОРМАЦИЯ КАК ОБЪЕКТ ИССЛЕДОВАНИЙ 
 
1.1. Информация и информационная технология 
 
Современное общество живет в период, одну из характерных черт кото-
рого  составляет  информатизация.  Под  информатизацией  общества  понимается 
повсеместная  реализация  мер,  обеспечивающих  возможность  своевременного 
получения и использования полной и достоверной информации во всех облас-
тях знаний и видах человеческой деятельности [55]. 
Информация – это  одна  из  сложнейших,  еще  полностью  не  раскрытых, 
даже таинственных проблем современной науки. Это следует хотя бы из нечет-
кости самих определений понятия информации – совокупность сведений, дан-
ных, знаний или информация есть знание об особом факте, событии, или ситуа-
ции [19, 55, 69]. 
Как и любой объект изучения, информация имеет свои четко определен-
ные показатели качества, систему классификации, инструменты и методы обра-
ботки, средства и способы защиты [95] и т.п. Каждый из видов информации со-
держит  смысловую  ценность,  требования  к  точности,  достоверности  и  опера-
тивности отражения факторов, определенные формы представления и фиксации 
на  физическом  носителе,  а  процесс  её  переработки  по  аналогии  с  процессами 
переработки материальных ресурсов можно воспринимать как технологию.  
Информационная  технология – процесс,  использующий  совокупность 
средств  и  методов  сбора,  обработки  и  передачи  данных  (первичной  информа-
ции) для получения информации нового качества о состоянии объекта, процес-
са  или  явления [55]. По  сути,  под  информационной  технологией  на  практике 
понимается  технологическое  применение  компьютеров  и  других  технических 
средств обработки и передачи информации. 
Как  и  всякая  технология,  информационная  технология  включает  в  свой 
состав определенные комплексы материальных средств (носители информации, 
технические  средства  ее  измерения,  передачи,  обработки  и  т.п.),  способы  их 
 

 
11
взаимодействия,  а  также  определенные  методы  организации  работы  с  инфор-
мацией.  К  настоящему  моменту  времени  информационная  технология  прошла 
несколько  эволюционных  этапов,  смена  которых  определялась  главным  обра-
зом  развитием  научно-технического  прогресса  и  появлением  новых  техниче-
ских средств переработки информации. 
Информационная технология имеет достаточно большое количество раз-
новидностей, но, несмотря на это, она представляет собой процесс, состоящий 
из  чётко  регламентированных  правил  выполнения  операций,  действий,  этапов 
(разной  степени  сложности)  над  данными,  хранящимися  в  компьютерах.  Ос-
новная цель этого процесса состоит в получении необходимой для пользователя 
(исследователя) информации в результате целенаправленных действий по пере-
работке первичных данных. 
Понятие информационной технологии тесно связано с информационными 
системами, которые являются для неё основной средой существования. 
Информационная  система – человеко-компьютерная  система  для  под-
держки  принятия  решений  и  производства  информационных  продуктов,  ис-
пользующая  компьютерную  информационную  технологию [55, 69]. Из  всего 
многообразия  компьютерных  информационных  систем  наиболее  распростра-
ненными  являются  системы  обеспечения  принятия  решения.  Составляющими 
элементами  такой  системы  являются  компьютеры,  компьютерные  сети,  про-
граммные  продукты,  базы  данных,  люди,  различного  рода  технические  и  про-
граммные средства связи и т. д.  
Идеальная  система  обеспечения  принятия  решения – это  динамическая 
система  с  непрерывным  обновлением  данных,  развитием  которой  являются 
экспертные  системы.  Эти  системы  представляют  собой  компьютерные  про-
граммы,  включающие  базы  знаний  по  частным  проблемам  и  механизмы  взаи-
модействия элементов этих баз и являются по сути интеллектуальными. 
База знаний таких систем включает в себя большую сумму знаний отно-
сительно проблем, запомненных в системе. Исследователи находят, что исполь-
зование этой массы знаний более эффективно, чем использование специальных 
решающих процедур. Поэтому экспертные системы являются консультантами в 
 

 
12
принятии решений, так как содержат факты, знания и правила, которые взаимо-
действуют в проблемной области. 
Выгоды оперирования реальным знанием и способности экспертных сис-
тем ведут к созданию и использованию систем с искусственным интеллектом, 
центральным  правилом  которых  является  скорее  использование  правил  эври-
стики (или перебора), чем алгоритмов обработки информации. 
Независимо от вида информационной системы основная цель ее сущест-
вования – это организация хранения и передачи информации. Так как информа-
ционная  система  представляет  собой  человеко-компьютерную  систему  обра-
ботки информации [69, 84], то процессы, обеспечивающие работу информаци-
онной системы, включают в себя несколько блоков [56]: 
•  ввод информации из внешних или внутренних источников; 
•  обработка входной информации и представление её в удобном виде; 
•  вывод информации для представления потребителям или передачи в другую 
систему; 
•  обратная  связь – это  информация,  переработанная  людьми  для  коррекции 
входной информации. 
Основной  компонент  информационной  системы – технические  средства. 
Техническими средствами производства информации является аппаратное, про-
граммное и математическое обеспечение этого процесса. С их помощью произ-
водится переработка первичной информации в информацию нового качества. 
Математическое и программное обеспечение – это совокупность матема-
тических методов, моделей, алгоритмов и программ для реализации целей и за-
дач  информационной  системы,  а  также  нормального  функционирования  ком-
плекса технических средств [5]. К ним относятся: средства моделирования про-
цессов;  типовые  задачи;  методы  математического  программирования,  матема-
тической статистики, теории массового обслуживания и др. 
В  состав  программного обеспечения  входят  общесистемные  и  специаль-
ные  программные  продукты,  а  также  техническая  документация.  Они  предос-
тавляют  исследователю  ряд  качественно  новых  технических  возможностей  в 
 

 
13
формировании статистического материала, в регистрации, обработке и отобра-
жении полезной информации [59]. 
Наиболее  активно  развивающимся  направлением  компьютерной  инфор-
мационной  технологии  на  сегодняшний  день  является  анализ  данных.  Эта  об-
ширная область, которая включает в  себя совокупность методов и средств из-
влечения из определенным образом организованных данных информации ново-
го характера для принятия решений [68, 78]. При этом методы анализа данных 
реализуются в виде различных пакетов прикладных программ, в состав которых 
входят  известные  процедуры  математики,  математической  статистики  и  др. 
Применение таких программ основано на реализации восьми этапов:  
1)  установочный (предметно-содержательное определение целей);  
2)  постановочный (определение типа прикладной задачи);  
3)  информационный  (составление  плана  сбора  исходной  информации  и  его 
реализация, затем предварительный анализ исходной информации, ее ввод 
в ЭВМ, сверка, редактирование);  
4)  априорный  математико-постановочный  (осуществляемый  до  каких  бы  то 
ни было расчетов выбор базовой математической модели механизма гене-
рации исходных данных);  
5)  разведочный  (специальные  методы  статистической  обработки  исходных 
данных);  
6)  апостериорный  математико-постановочный  (уточнение  базовой  математи-
ческой модели с учетом результатов предыдущего этапа); 
7)  вычислительный  (реализация  на  ЭВМ  уточненного  на  предыдущем  этапе 
плана математико-статистического анализа данных); 
8)  итоговый  (подведение  итогов  исследования,  формулировка  научных  или 
практических выводов). 
Широкое применение различных методов анализа и обработки информа-
ции,  а  так  же  компьютерной  техники  предъявляет  повышенные  требования  к 
качеству обрабатываемой информации на всех этапах ее прохождения. Однако 
практика показывает, что в процессе формирования исходной информации ис-
 

 
14
следователь  не  застрахован  от  ошибок.  В  зависимости  от  характера,  стадии  и 
причин различают несколько типов ошибок (табл. 1.1). 
 
Таблица 1.1 
Классификация ошибок наблюдения [80] 
Признаки классификации 
Виды ошибок 
Случайные 
Характер ошибок 
Систематические 
Ошибки регистрации 
Стадия возникновения 
Ошибки при подготовке данных к обработке 
Ошибки в процессе обработки 
Ошибки измерения 
Ошибки репрезентативности 
Причины возникновения 
Преднамеренные ошибки 
Непреднамеренные ошибки 
 
В настоящее время можно выделить большое количество причин возник-
новения такого рода ошибок в процессе формирования первичных данных – это 
приписки,  безответственность,  некомпетентность  и  другие  как  умышленные, 
так  и  неумышленные  искажения  исходной  информации.  И  естественно,  что  в 
рамках  развития  современной  науки  разрабатываются  методы  выявления  и 
предупреждения ошибок. Однако до сих пор нередкими являются случаи иска-
жения  значений  информации,  ведущие  к  принятию  ошибочных  решений,  не-
достоверных исследований, дополнительным затратам времени и т.п. 
Таким  образом,  к  основным  компонентам  информационной  технологии 
можно отнести: сбор данных, обработку данных и их хранение. При этом наи-
более ответственным этапом для исследователя является именно сбор данных, а 
наиболее сложным – обработка и анализ данных [13, 37]. Это связано с необхо-
димостью  выполнения  таких  операции,  как:  классификация  или  группировка; 
сортировка, с помощью которой упорядочивается последовательность записей; 
вычисления, включающие арифметические и логические операции; укрупнение 
или агрегирование, служащее для уменьшения количества данных.  
 
 

 
15
1.2. Алгоритм и традиционные методы обработки информации 
 
Развитие  электронно-вычислительной  техники,  как  средства  обработки 
больших  массивов  данных,  стимулировало  проведение  комплексных  исследо-
ваний сложных социально-экономических, технических, медицинских и других 
процессов и систем. В связи с многоплановостью и сложностью этих объектов 
и процессов данные о них носят, как правило, многомерный и разнотипный ха-
рактер,  в  связи  с  этим  исследователю  приходиться  прибегать  к  специальному 
математическому инструментарию многомерного статистического анализа. 
К числу основных методологических принципов, которые лежат в основе 
большинства конструкций многомерного статистического анализа, следует от-
нести следующие принципы [2, 3]. 
1.  Необходимость  учета  эффекта  существенной  многомерности  анализируе-
мых  данных  (используемые  в  конструкциях  характеристики  должны  учи-
тывать  структуру  и  характер  статистических  взаимосвязей  исследуемых 
признаков).  
2.  Возможность лаконичного объяснения природы анализируемых многомер-
ных  структур  (допущение,  в  соответствии  с  которым  существует  сравни-
тельно  небольшое  число  определяющих,  подчас  латентных,  то  есть  непо-
средственно  не  наблюдаемых,  факторов,  с  помощью  которых  могут  быть 
достаточно точно описаны все наблюдаемые исходные данные, структура и 
характер связей между ними).  
3.  Максимальное использование “обучения” в настройке математических мо-
делей (под “обучением” понимается та часть исходных данных, в которой 
представлены “статистические фотографии” соотношений “входов” и “вы-
ходов”  анализируемой  системы).  Если  исследователь  располагает  и  “вхо-
дами” и “выходами” задачи, то исходную информацию называют обучаю-
щей и целью исследования является описание процедур, с помощью кото-
рых  при  поступлении  только  входных  данных  нового  объекта  его  можно 
было бы с наибольшей точностью вычислить результат, отнести к одному 
 

 
16
из  классов  или  снабдить  значениями  определяющих  факторов.  Именно  к 
таким  ситуациям  относятся  типичные  задачи  медицинской  диагностики, 
когда в клинических условиях в качестве исходных данных исследователь 
располагает как “входами” — результатами инструментальных обследова-
ний пациентов, так и “выходами” — уже установленным диагнозом по ка-
ждому из них. Цель исследований такого типа — использование имеюще-
гося  “обучения”  для  отбора  из  множества  результатов  обследований  не-
большого числа наиболее информативных показателей и для построения на 
их основе формального диагностирующего правила. 
4.  Возможность  оптимизационной  формулировки  задач  многомерного  стати-
стического анализа (то есть нахождение наилучшей процедуры статистиче-
ской  обработки  данных  с  помощью  оптимизации  некоторого  заданного 
критерия качества метода). 
На  этапе  сбора  информации  исследователь  создает  базу  данных  с  помо-
щью  различных  статистических  методов,  которые  позволяют  создавать  обу-
чающую выборку, оформленную (как правило) в виде таблиц данных. (Под “ба-
зой  данных”  понимается  вся  необходимая  для  решения  определенного  класса 
задач  информация,  записанная  на  машинных  носителях  и  организованная  по 
определенным правилам, обеспечивающим удобство хранения, поиска и преоб-
разования.)  Эти  таблицы  содержат  в  себе  пространство  признаков,  характери-
зующих объекты изучения (примеры). 
При  формировании  исходного  множества  признаков  исследователь  рас-
полагает  большой свободой и, как следствие, сложностью в  определении пол-
ноты  выбранного  множества.  Поэтому  формирование  исходного  множества 
признаков является трудно формализуемой задачей и для ее решения предлага-
ется лишь ряд общих рекомендаций [49, 70]. В целом этот процесс формирова-
ния исходного множества (особенно при конструировании базы данных) явля-
ется трудоемким и тонким занятием, а качество его выполнения полностью за-
висит от знаний, опыта и интуиции специалиста, выполняющего работу.  
Кроме того, в процессе дальнейшей работы с данными, перед исследова-
телем чаще всего возникают проблемы восстановления значения результата по 
 

 
17
значениям  “сопутствующих”  переменных;  классификации  объектов  или  при-
знаков;  исследования  зависимостей  между  анализируемыми  показателями  и 
снижение размерности исследуемого факторного пространства [64, 80]. Поэто-
му  стоит  обратить  внимание  именно  на  методы  обработки  данных  и  решение 
некоторых поставленных задач. 
В статистике выделяют две основные группы методов (табл. 1.2), способ-
ных  установить  зависимости  между  признаками  или  объектами  выборки: пер-
вая основана на критерии автоинформативности экспериментальных данных, а 
вторая – на использовании внешних критериев [2, 3]. 
 
Таблица 1.2 
Методы определения структуры данных 
Смысловая ценность критерия  Используемые предположе-
Название 
информативности 
ния о структуре данных 
Метод главных  Выявление  в  пространстве  ис- Основная  часть  исходных 
компонент 
ходных  признаков  новой  коор- признаков  согласованно  от-
динатной  оси  с  максимальной  ражает требуемых конструкт
дисперсией 
Факторный 
Максимальная  точность  вос- Одна  или  несколько  групп 
анализ 
произведения  корреляционных  взаимосвязанных  признаков 
связей  между  исходными  при- отражают один или несколь-
знаками  с  помощью  новых  ко  диагностических  конст-
вспомогательных переменных 
руктов 
Метод  контра- Исключение 
признаков 
из  Большая  часть  признаков 
стных групп 
“чернового” варианта выборки,  подобрана правильно 
уменьшающих 
вытянутость 
гиперэллипсоида рассеивания 
Регрессионный  Минимизация  ошибки  восста- Значения 
критериального 
анализ 
новления  значений  критери- показателя  линейно  связаны 
ального показателя по значени- с признаками 
ям исходных признаков 
Дискрими-
Минимизация 
вероятности  Критериальный  показатель 
нантный  ана- ошибочного  отнесения  объек- является  номинальной  вели-
лиз 
тов к заданным классам 
чиной 
Типологиче-
Минимизация  ошибки  восста- Нелинейная  сложная  связь 
ский подход 
новления критериального пока- значений 
критериального 
зателя  для  отдельных  групп  показателя  с  исходными 
объектов 
признаками  для  выборки  в 
целом 
 

 
18
Критерии автоинформативности – это такие критерии, оптимизация кото-
рых  приводит  к  набору  вспомогательных  переменных,  позволяющих  макси-
мально  точно  воспроизводить  информацию,  содержащуюся  в  описательном 
массиве данных. 
Критериями  внешней  информативности  (имеется  в  виду  информатив-
ность,  внешняя  по  отношению  к  информации,  содержащейся  в  описательном 
массиве) называют такие критерии, которые нацелены на поиск экономных на-
боров  вспомогательных  переменных,  обеспечивающих  максимально  точное 
воспроизведение  информации,  относящейся  к  результирующему  показателя 
(результату вычисления). 
Методы, основанные на критерии автоинформативности 
Формальные алгоритмы данной группы методов не оперируют непосред-
ственно обучающей информацией о значении вычисляемой переменной. Но та-
кая информация в неявном виде всегда присутствует в экспериментальных дан-
ных, так как закладывается на этапе формирования исходного множества при-
знаков. 
Наиболее  распространенным  методом  из  этой  группы  является  метод 
главных  компонент [55, 56, 67]. Алгоритмы,  обеспечивающие  выполнение 
данного метода, входят практически во все пакеты статистических программ.  
Его  суть  заключается  в  переходе  к  новой  системе  координат  y1, …, yp  в 
исходном  пространстве  признаков  x1, …, xp,  которая  является  системой  орто-
нормированных  линейных  комбинаций.  Комбинации  выбираются  таким  обра-
зом, что среди всех возможных линейных нормированных комбинаций исход-
ных  признаков  первая  главная  компонента  обладает  наибольшей  дисперсией, 
обусловленной  взаимосвязанностью  признаков,  а  вторая  главная  компонента 
имеет  наибольшую  дисперсию  среди  всех  оставшихся  линейных  преобразова-
ния, некоррелированных с первой и т.д. Под критерием автоинформативности 
пространства  признаков  в  методе  понимается  то,  что  ценную  информацию 
можно отразить в линейной модели, которая соответствует новой координатной 
оси  в  данном  пространстве  с  максимальной  дисперсией  распределения  проек-
ции исследуемых объектов. 
 

 
19
В отличие от метода главных компонент факторный анализ основан не 
на  дисперсионном  критерии  автоинформативности  системы  признаков,  а  ори-
ентирован на объяснение имеющихся между признаками корреляций [74]. По-
этому  он  применяется  в  более  сложных  случаях  совместного  проявления  на 
структуре  данных  тестируемого  и  исследуемого  свойств  объектов.  Подробное 
описание факторного анализа можно найти в [1], [50], [65] и [99]. 
В основе метода контрастных групп лежит гипотеза о том, что значи-
тельная  часть  исследуемой  модели  подобрана  или  угадана  правильно,  то  есть 
выборка  содержит  достаточно  много  признаков,  согласовано  отражающих  ис-
следуемое свойство. В тоже время предполагается наличие определенной доли 
признаков, создающей ненужный или даже вредный балласт, от которого нуж-
но избавиться [7]. 
Каждый из рассмотренных методов имеет свое самостоятельное значение 
для решения конкретных задач обработки информации. Они имеют определен-
ные достоинства и недостатки и могут применяться в совокупности с другими 
методами. 
Методы, использующие внешний критерий 
Выделяют три основных группы внешних критериев:  
1.  Экспертные. К их числу относят оценки, суждения, заключения и т.д., вы-
несенные экспертом или группой экспертов. 
2.  Экспериментальные.  Экспериментальными  критериями  внешней  информа-
тивности служат результаты одновременного и независимого эксперимента. 
Наиболее целесообразен такой подход, когда ставится задача улучшить ха-
рактеристики известного инструментария. 
3.  “Жизненные”. В качестве таких критериев используют объективные данные 
в области психологии, социологии, медицине, экономике и т.д. 
Внешний критерий может быть представлен номинальным, ранговым или 
количественным  показателем, “привязанным”  к  объектам  анализируемой  базы 
данных [3]. Его специфика влияет на выбор метода обработки информации. 
С  позиции  регрессионного  анализа  критериальный  показатель  рассмат-
ривается как “зависимая” переменная, выраженная функцией от “независимых” 
 

 
20
признаков [8, 11, 38, 40, 44, 62]. Известно большое количество вариантов такого 
анализа, опирающихся на различные допущения в структуре данных и свойст-
вах линейной модели. Каждый из них применяется в определенных условиях и 
имеет конкретное значение. 
Если критериальный показатель измерен в номинальной шкале или связь 
этого показателя с исходными признаками является нелинейной и носит неиз-
вестный характер, то для определения структуры данных используют методы 
дискриминантного  анализа.  Для  этого  объекты  выборки  в  соответствии  с 
внешним  критерием  разбиваются  на  классы,  а  эффективность  структуры  дан-
ных  рассматривается  как  способность  дискриминировать  даигностируемые 
классы [8, 44]. Большая  часть  этих  методов  основана  на  байесовской  схеме 
принятия решений о принадлежности объектов к тому или иному классу. 
Описание работы типологического подхода можно найти в [61]. Он ос-
нован  на  том,  что  каждый  объект  описывается  набором  характеристик  и  ему 
ставится в соответствие значение некоторого критериального показателя. Тогда 
задача состоит в том, чтобы построить математическую модель, имеющую мак-
симальную корреляцию с критерием или дискриминирующую объекты относи-
тельно критериального показателя. Однако этот подход связан с трудно форма-
лизуемым и нечетким определением понятия однородности группы объектов. 
Процесс  статистической  обработки  данных  с  помощью  рассмотренного 
инструментария весьма трудоемкий, имеет свои специфические особенности, а 
создание методики его реализации в определенных условиях требует привлече-
ния специалистов в области статистического анализа.  
Более  того,  по  мере  роста  объемов  перерабатываемой  информации  воз-
можность эффективной реализации подобной логики исследования становится 
все  менее  реальной.  В  настоящее  время  в  исследовательской  и  практической 
деятельности  все  чаще  и  чаще  приходится  сталкиваться  с  ситуациями,  когда 
общее  количество  признаков  по  каждому  примеру  в  выборке  очень  велико – 
порядка ста и более, а работать с такой информацией просто необходимо. По-
этому понятно желание исследователя существенно сократить объем выборки, 
чтобы: 
 

 
21
•  иметь возможность наглядного представления исходных данных; 
•  упростить счет и интерпретацию полученных выводов; 
•  существенно сжать объем хранимой информации (без потерь в ее информа-
тивности). 
Задача  снижения  размерности  была  решена  статистиками  с  помощью 
различных методов [2, 3, 4, 8] и на сегодняшний день не представляет особой 
проблемы. 
Методы минимизации описания 
Пусть имеется выборка с n-ым количеством примеров и общим количест-
вом признаков x(1), x(2), …,x(p) по каждому примеру равным p. Необходимо пред-
ставить  каждое  из  наблюдений  в  виде  вектора  Z  некоторых  вспомогательных 
показателей  z(1), z(2),…,z(p’)  с  существенно  меньшим  (чем  p)  числом  компонент 
p’. При этом новые (вспомогательные) признаки могут выбираться из числа ис-
ходных или определяться по какому-либо правилу по совокупности исходных 
признаков.  
Решая  эту  задачу  в  процессе  формирования  нового  набора  признаков  к 
ним предъявляют такие требования, как наибольшая информативность (в опре-
деленном  смысле),  взаимная  некоррелированность,  наименьшее  искажение 
структуры  множества  исходных  данных,  максимальное  исключение  дубли-
рующей информации и др.  И уже, в зависимости от варианта формальной кон-
кретизации этих требований, можно выбрать тот или иной алгоритм снижения 
размерности [37, 42, 91] и,  как  следствие,  конкретный  метод:  метод  главных 
компонент,  факторный  анализ,  экстремальная  группировка  параметров  и  др. 
(табл. 1.3).  
Таким образом, переход от характеризующего состояния или функциони-
рования некоторой совокупности объектов исходного массива данных к суще-
ственно  более  лаконичному  набору  показателей,  отобранных  из  некоторого 
числа  исходных  или  построенных  с  помощью  некоторого  их  преобразования 
таким образом, чтобы минимизировать связанные с этим потери в информации, 
и составляет сущность процесса снижения размерности.  
 

 
22
Таблица 1.3 
Типологизация задач снижения размерности 
(АИ – автоинформативность, ВИ – внешняя информативность) 
№  Класс и смысловая нацеленность критерия информа-
Название соответ-
тивности; форма задания исходной информации 
ствующих методов
1 2 

1  АИ:  максимизация  содержащейся  в  z(1),…, z(p’)  доли  Метод 
главных 
суммарной вариабельности исходных признаков x(1),…,  компонент [3, 8, 
x(p). 
44] 
Описательная информация: в форме матрицы. 
Обучающая информация: отсутствует 
2  АИ: максимизация точности воспроизведения корреля- Модели  и  методы 
ционных  связей  между  исходными  признаками  по  их  факторного  анали-
аппроксимациям  с  помощью  вспомогательных  пере- за [51] и  главных 
менных z(1),…, z(p’)
компонент 
Описательная информация: в форме матрицы. 
Обучающая информация: отсутствует 
3  АИ: разбиение исходных признаков на группы высоко- Метод 
экстре-
коррелированных (внутри группы) переменных и отбор  мальной  группи-
от  каждой  группы  фактора,  имеющего  максимальную  ровки параметров 
интегральную  характеристику  корреляционных  связей 
со всеми признаками данной группы. 
Описательная информация: в форме матрицы. 
Обучающая информация: отсутствует 
4  АИ:  приписывание  каждому  объекту  Oi  значений  ус- Многомерное 
ловных координат (z(1),…, z(p’)) таким образом, чтобы по  шкалирование [92]
ним  максимально  точно  восстанавливались  заданная 
структура  попарных  описательных  отношений  между 
объектами. 
Описательная информация: в форме матрицы. 
Обучающая информация: отсутствует 
5  АИ: максимальное сохранение заданных описательным  Методы  кластер-
массивом  анализируемых  структурно-геометрических  анализа, 
метод 
и  вероятностных  свойств  после  его  проецирования  в  главных 
компо-
пространство меньшей размерности. 
нент 
Описательная информация: в форме матрицы. 
Обучающая информация: отсутствует 
6  ВИ:  минимизация  ошибки  прогноза  значения  резуль- Отбор  существен-
тирующей  количественной  переменной  по  значениям  ных  предикторов 
описательных переменных. 
(описательных  пе-
Описательная информация: в форме матрицы. 
ременных)  в  рег-
Обучающая информация: в форме зарегистрированных  рессионном анали-
на объектах O1,…, On значений соответственно y1,…, yn  зе [38, 40, 43] 
результирующего количественного показателя y 
 

 
23
Продолжение таблицы 1.3 
1 2 

7  ВИ: минимизация вероятностей ошибочного отнесения  Отбор  типообра-
объекта  к  одному  из  заданных  классов  по  значениям  зующих признаков 
его описательных переменных. 
в  дискриминант-
Описательная информация: в форме матрицы. 
ном анализе 
Обучающая информация: для каждого описанного объ-
екта указан номер класса, к которому он относится 
8  ВИ:  максимизация  точности  воспроизведения  задан- Методы  латентно-
ных в “обучении” отношений объектов по анализируе- структурного  ана-
мому результирующему свойству. 
лиза 
Описательная информация: в форме матрицы. 
Обучающая информация: в форме попарных сравнений 
или  упорядочений  объектов  по  анализируемому  свой-
ству 
9  ВИ:  максимизация  точности  воспроизведения  задан- Многомерное 
ных в “обучающей информации” попарных отношений  шкалирование  как 
объектов  по  анализируемому  результирующему  свой- средство латентно-
ству. 
структурного  ана-
Описательная информация: отсутствует. 
лиза 
Обучающая  информация:  в  форме  матрицы  попарных 
сравнений 
 
При  этом  если  во  время  выбора  подходящего  математического  инстру-
ментария  для решения конкретной задачи следует исходить из типа конечных 
прикладных целей исследования и характера априорной и выборочной инфор-
мации, то при определении математической модели (лежащей в основе выбора 
метода решения задачи снижения размерности) следует идти от типа приклад-
ной  задачи  к  характеристике  состава  и  формы  исходных  данных,  а  затем – к 
смысловой нацеленности и конкретному виду подходящего критерия информа-
тивности. Это в свою очередь ведет к усложнению процесса обработки инфор-
мации и появлению необходимости использования понятного и в достаточной 
мере простого (для исследователя) инструментария решения задач. 
Кроме того, процесс снижения размерности выборки предполагает выяв-
ление факторов-детерминантов, а минимизация – ведет к сокращению количе-
ства признаков за счет “отбрасывания” незначимых. Однако утверждать одно-
значно, что отброшенные признаки являются незначимыми (неинформативны-
 

 
24
ми)  или  зашумляющими  было  бы  некорректно,  скорее  часть  из  них  попадает 
под категорию “условно незначимых”. То есть, информация, отраженная в  та-
ких признаках может быть полезна в  процессе проведения исследований. Так, 
например,  работая  только  с  выборкой,  основанной  на  минимальном  наборе 
признаков, исследователь попадает в ситуацию, когда ошибка в данных может 
привести к изменению хода исследования, к снижению качества решения задач 
и, как следствие, к неверному решению задачи. 
Описанные  выше  математические  методы  конструирования  выборки  в 
полной мере подпадают под определение распознавания образов. 
Методы теории распознавания образов 
Распознаванием  образов  называются  задачи  построения  и  применения 
формальных  операций  над  числовыми  или  символьными  отображениями  объ-
ектов  реального  или  идеального  мира,  результаты  которых  отражают  принад-
лежность объектов к каким-либо классам, рассматриваемым как самостоятель-
ные единицы. Существует ряд специфических, но наиболее распространенных 
и чаще всего применяемых методов этой группы [15, 45, 46, 47, 50]. 
Основываясь на способах предоставления знаний [48, 82, 97, 98], можно 
выделит две основные группы формальных методов распознавания образов: 
1.  Интенсиональные методы, основанные на операциях с признаками. 
2.  Экстенсиональные методы, основанные на операциях с объектами. 
Особенностью  интненсиональных  методов  является  то,  что  в  качестве 
элементов операций при  построении и применении алгоритмов распознавания 
образов  используются  различные  характеристики  признаков  и  их  взаимосвязи 
(табл. 1.4). При  этом  объекты  не  рассматриваются  как  целостные  информаци-
онные единицы, а выступают в роли индикаторов для оценки взаимодействия. 
Экстенсиональные  методы  позволяют  в  большей  или  меньшей  степени 
придавать  самостоятельное  диагностическое  значение  каждому  изучаемому 
объекту, поэтому основными операциями в распознавании образов с помощью 
данных методов являются операции определения сходства и различия объектов 
[105, 106]. В зависимости от условий задачи эти методы делятся на подклассы 
(табл. 1.5). 
 

 
25
Таблица 1.4 
Характеристика групп методов распознавания образов, основанных на опера-
циях с признаками 
Название 
Характеристика 
Недостатки 
1 2 

Методы,  осно- Объекты  рассматриваются  как  реа- Необходимость  запо-
ванные 
на  лизация  многомерной  случайной  ве- минания  всей  обу-
оценках  плот- личины, распределенной в простран- чающей  выборки  для 
ностей  распре- стве  признаков  по  определенному  вычисления 
оценок 
деления  значе- закону. Методы базируются на “бей- локальных плотностей 
ний  признаков  совской” схеме принятия решений и  распределения  веро-
[2, 100] 
сводятся  к  определению  отношения  ятностей, 
высокая 
правдоподобия  в  различных  облас- чувствительность  не-
тях многомерного пространства при- представительности 
знаков 
выборки 
Лингвистиче-
Основаны  на  использовании  специ- Зависимость  от  труд-
ские  (структур- альных  грамматик,  порождающих  ности  формализации 
ные) методы [16, языки,  с  помощью  которых  может  грамматик  по  некото-
99, 108] 
описываться  совокупность  свойств  рому  множеству  опи-
распознаваемых образов 
саний объектов 
Методы,  осно- На  основании  известного  общего  Т.к.  задача  распозна-
ванные 
на  вида решающей функции и заданно- вания 
определяется 
предположени-
го  функционала  ее  качества  по  обу- как задача поиска экс-
ях  о  классе  ре- чающей  последовательности  ищется  тремума,  то  качество 
шающих  функ- наилучшее  приближение  этой  функ- ее решения полностью 
ций [16, 41, 53,  ции 
зависит  от  выбранно-
71, 96, 101] 
го подхода 
Логические  ме- Базируются на аппарате алгебры ло- Требуют 
высокоэф-
тоды [2, 14, 34,  гики  и  позволяют  оперировать  ин- фективную  организа-
63, 93] 
формацией,  заключенной  в  сочета- цию  вычислительного 
ниях значений признаков. Это поиск  процесса, хорошая ра-
по  обучающей  выборке  логических  бота  возможна  при 
закономерностей  и  формирование  небольших  размерно-
системы логических решающих пра- стях 
пространства 
вил 
признаков 
 
В практике статистического анализа и моделирования, как правило, точ-
ный вид закона распределения анализируемой генеральной совокупности быва-
ет  неизвестен.  Исследователь  вынужден  строить  свои  выводы  на  базе  расчета 
ограниченного  ряда  выборочных  характеристик.  Кроме  того,  осмысленное  и 
обоснованное  использование  в  статистическом  анализе  основных  выборочных 
 

 
26
характеристик требует знания их свойств, учета специфики генеральной сово-
купности и т.п. 
 
Таблица 1.5 
Характеристика групп методов распознавания образов, основанных на опера-
циях с объектами 
Название 
Характеристика 
Недостатки 
Методы 
Применяется  когда  распознаваемые  Сложности  в  выборе 
сравнения  с  классы  отображаются  в  пространстве  меры  близости  и  ана-
прототипом 
признаков  компактными  геометриче- лизе 
многомерных 
[60, 81] 
скими  группировками.  Для  классифи- структур  эксперимен-
кации неизвестного объекта находится  тальных  данных  в  ус-
ближайший  прототип,  и  объект  отно- ловиях  высокой  раз-
сится к классу прототипа 
мерности  пространства 
признаков 
Метод  бли- При классификации неизвестного объ- Сложности  в  выборе 
жайших  со- екта  к  нему  находится  заданное  коли- метрики  для  определе-
седей [2, 41]  чество  геометрически  ближайших  в  ния  близости  диагно-
пространстве  признаков  объектов  с  стируемых  объектов, 
известной  принадлежностью  к  распо- особенно  в  условиях 
знаваемым  классам,  а  решение  об  от- высокой  размерности 
несении к тому или иному классу при- пространства  призна-
нимается  путем  анализа  информации  ков 
об  этой  неизвестной  принадлежности 
его ближайших соседей 
Алгоритмы 
Принцип  действия  алгоритмов  вычис- Трудности на этапе на-
вычисления 
ления  оценок  состоит  в  вычислении  стройки  алгоритмов  и 
оценок  (го- приоритетов (оценок сходства), харак- организации 
эффек-
лосования) 
теризующих  “близость”  распознавае- тивного  вычислитель-
[46, 47, 85] 
мого и эталонных объектов по системе  ного  процесса,  и  необ-
ансамблей  признаков,  представляю- ходимость 
введения 
щей  собой  систему  подмножеств  за- дополнительных  огра-
данного множества признаков 
ничений и допущений 
 
Вторая задача, возникающая перед исследователем в процессе обработки 
исходных  данных – лаконичность  в  описании  интересующих  свойств  иссле-
дуемой  совокупности,  то  есть  представление  множества  обрабатываемых  дан-
ных в виде сравнительно небольшого числа сводных характеристик, построен-
ных на основании этих исходных данных.  
 

 
27
При этом важно,  чтобы потеря информации, необходимой для принятия 
решений, была минимальной. Добиться лаконичности в описании информации, 
содержащейся  в  массиве  обрабатываемых  данных,  помогает  ряд  прикладных 
методов математической статистики [1, 11]: 
•  выбор и обоснование математической модели механизма явления, 
•  изучение  свойств  анализируемой  системы  или  механизма  функционирова-
ния с помощью небольшого числа сводных характеристик, 
•  визуализация исходных данных с помощью формирования рабочих гипотез 
о  механизме  изучаемого  явления,  анализа  относительных  частот,  выбороч-
ных функций распределения и других методы описательной статистики, 
•  анализ природы обрабатываемых данных, 
•  описание связей между анализируемыми признаками и т.д. 
Таким образом, учитывая все эти тонкости описанных методов обработки 
информации,  можно  сказать,  что  с  их  помощью  не  только  сложно  сформиро-
вать  выборку  и  обработать  информацию,  но  и  на  начальном  этапе  грамотно 
сформулировать  задачу,  для  дальнейшего  выбора  соответствующих  методов 
анализа. Поэтому возникает задача использования таких методов, которые тре-
бовали бы минимум времени, усилий и знаний со стороны исследователя. 
Развитие научно-технического прогресса привело к появлению достаточ-
но простых инструментов, способных в комплексе решать большинство как ос-
новных, так и прикладных задач проводимых исследований. К универсальным 
инструментам такого рода можно отнести нейросетевые технологии, созданные 
на базе искусственного интеллекта. 
 
1.3. Возможности нейросетевых подходов обработки информации 
 
Термин искусственный интеллект (artificial intelligence) был предложен в 
1956  году  на  семинаре  в  Станфордском  университете  в  США.  И  вскоре  про-
изошло  разделение  на  два  основных  направления:  нейрокибернетику  и  кибер-
 

 
28
нетику  “черного  ящика”.  Но  в  настоящее  время  можно  отметить  тенденции  к 
объединению этих частей в единое целое [9, 12, 20, 29, 83, 90, 104].  
Основная  идея  нейрокибернетики  заключается  в  следующем – единст-
венный  объект,  способный  мыслить, - это  человеческий  мозг,  поэтому  созда-
ваемое  “мыслящее”  устройство  должно  каким-то  образом  воспроизводить  его 
структуру. Поэтому усилия нейрокибернетики сосредоточены на создании эле-
ментов, аналогичных нейронам, и их объединения в функционирующие систе-
мы. Эти системы принято называть нейронными сетями (нейросетями). 
Нейросетевые подходы к обработке информации не требуют готовых ал-
горитмов и правил обработки – система должна “уметь” самостоятельно выра-
батывать правила и модифицировать их в процессе решения конкретных задач 
обработки информации [83, 87]. В настоящее время применяются три подхода к 
созданию нейронных сетей [27, 29, 33, 55]: 
•  аппаратный подход – создание специальных компьютеров, плат расширения, 
наборов микросхем, реализующих все необходимые алгоритмы; 
•  программный  подход – создание  программ  и  инструментариев,  рассчитан-
ных на высокопроизводительные компьютеры; 
•  гибридный подход – комбинация первых двух. Часть вычислений выполня-
ют специальные платы расширения, а часть – программные средства. 
В основу кибернетики “черного ящика” лег принцип: не имеет значения, 
как  устроено  “мыслящее”  устройство,  главное,  чтобы  на  заданные  входные 
воздействия оно реагировало так же, как и человеческий мозг [79]. Это направ-
ление искусственного интеллекта ориентировано на поиск алгоритмов решения 
интеллектуальных  задач  на  существующих  моделях  компьютеров.  В  рамках 
этого направления были созданы и апробированы различные направления: мо-
дель лабиринтного поиска (в конце 50-х гг.); эвристическое программирования 
(начало 60-х  гг.);  модели  с  подключением  методов  математической  логики 
(1963 – 1970 гг. и в 1973 г. создается язык Пролог); представление знаний (экс-
пертные системы (70-е гг.)). 
 

 
29
С одной стороны, интерес к нейросетевым моделям вызван желанием по-
нять принципы работы нервной системы, с другой - с помощью таких моделей 
ученые  моделируют  эффективные  процессы  обработки  информации,  свойст-
венные живым существам [46, 106]. 
Искусственной  нейронной  сетью  называют  некоторое  устройство,  со-
стоящее  из  большого  числа  простых  параллельно  работающих  процессорных 
элементов – нейронов, соединенных адаптивными линиями передачи информа-
ции – связями  или  синапсами.  У  нейронных  сетей  выделяют  группу  входных 
связей, по которым она получает информацию из внешнего мира, и группу вы-
ходных  связей,  с  которых  снимаются  выдаваемые  сетью  сигналы.  Нейросети 
применяются для решения различных задач классификации и прогнозирования 
и  обладают  рядом  преимуществ  перед  традиционными  способами  обработки 
информации [32, 33, 35, 54, 57]. 
Несмотря  на  существенные  различия  алгоритмов  реализации  нейросете-
вых имитаторов, отдельные типы нейронных сетей обладают несколькими об-
щими чертами [26, 52, 107]: 
•  основу каждой нейронной сети составляют относительно простые элементы, 
имитирующие  работу  нейронов  мозга - нейроны.  Каждый  нейрон  обладает 
группой  синапсов – однонаправленных  входных  связей,  соединенных  с  вы-
ходами  других  нейронов,  а  также  имеют  аксон – выходную  связь  данного 
нейрона, с которой сигнал поступает на синапсы следующих нейронов. Каж-
дый синапс характеризуется величиной синаптической связи или ее весом. 
•  они обладают принципом параллельной обработки сигналов, который дости-
гается путем объединения большого числа нейронов в так называемые слои 
и соединения определенным образом нейронов различных слоев, а также, в 
некоторых конфигурациях, и нейронов одного слоя между собой, причем об-
работка взаимодействия всех нейронов ведется послойно. 
Выбор  структуры  нейронной  сети  осуществляется  в  соответствии  с  осо-
бенностями и сложностью задачи. Однако все нейронные сети состоят из взаи-
мосвязанных клеточных автоматов. 
 
 

 
30
Нейрон – элемент  (рис. 1.1),    α
преобразующий входной сигнал по 

 
 
 
α
 
 
 
функции:   
x
(x) =
с
α
,  где 

 
 
x
∑α 
ϕ 
…  
 
входной  сигнал,  c - параметр,  оп-
α
Нелинейный 
Точка 

преобразователь ветвления
ределяющий  крутизну  графика  по-
 
     Входной сумматор 
роговой  функции,  а  c
 
m - параметр 
Р и с .   1 . 1 .   Ф о р м а л ь н ы й   н ей р о н  
спонтанной активности нейрона. 
 
  В х о д н о й
В ы х о д н о й   
Сумматор 
– 
элемент    си гн ал  
α 
с и г н а л  
 
α
(рис. 1.2),  осуществляющий  сум-
2  
 
x  
…  
∑ α                  
 
мирование  сигналов  поступающих 
α n  
(x ,α )   =   ∑ x iα 
 
 
             i= 1  
N
 
на его вход:  = ∑xi  
Р и с .  1 .2 .  А д а п т и в н ы й  с у м м а т о р  
i=1
Нелинейный  преобразова-

ϕ(x) 
тель сигнала (рис. 1.3) – получает 
ϕ
 
 
 
скалярный  входной  сигнал  x  и  пе-  
Рис. 1.3. Н елинейный преобразователь 
реводит его в (x). 
сигнала 
Синапс  - элемент,  осущест-
вляющий  линейную  передачу  сиг-
χ
α 
 
αχ 
 
нала  (рис 1.4):  (x) = ⋅ ,  где  w  
Рис. 1.4. Синапс 
“вес” соответствующего синапса. Линейная связь на синапс отдельно от сумма-
торов не встречается, он умножает входной сигнал x на “вес синапса”.  
Точка  ветвления  служит 
для  рассылки  одного  сигнала  по 
  x 
нескольким  адресам  (рис. 1.5). 
x  x 
  x 
Она  получает  скалярный  входной   
сигнал  x  и  передает  его  всем  сво-
Рис. 1.5. Точка ветвления 
им выходам.  
Среди нейронных сетей выделяют две базовые архитектуры – слоистые и 
полносвязные сети. Наиболее распространенными сетями для решения задач в 
процессе  обработки  информации  являются  слоистые  нейронные  сети,  в  кото-
 

 
31
рых нейроны расположены в несколько слоев (рис. 1.6). Нейроны первого слоя 
получают входные сигналы, преобразуют их и через точки ветвления передают 
нейронам  второго  слоя.  Далее  работа  по  слоям  осуществляется  аналогичным 
образом до того слоя, который выдает выходные сигналы. Более  же подробно 
познакомиться  со  структурой  и  работой  нейронных  сетей  можно  в  различных 
литературных источниках, посвященных нейроинформатике [27, 32, 104, 109]. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ы
 
 
 
 
 
 
 
 
 
 
 
 
г
н
ал
г
н
алы
 
 
 
 
 
 
 
 
 
 
 
е
 
си
е
 
си
 
 
ы
… …  … 
… … … 
… … … 
 
 
х
о
дн
о
д
н
ы
Вы
Вх
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Слой 1 
 
Слой 2 
 
Слой 3 
 
Рис. 1.6. Слоистая сеть 
 
Используя  нейроимитатор  для  обработки  информации,  составить  обу-
чающую  выборку  для  прогнозирования  и  диагностики  не  очень  сложно – для 
этого достаточно взять намного больше признаков, а нейроимитатор потом са-
мостоятельно расклассифицирует их по важности и (при необходимости) авто-
матическим путем можно будет сократить этот набор. 
Прежде, чем приступить к работе с нейронной сетью исследователю, не-
обходимо создать задачник или базу данных (обучающую выборку). Такая база 
обычно формируется в виде таблицы и состоит из некоторого количества при-
меров,  обладающих  многими  свойствами  и  особенностями  (признаками)  и,  в 
зависимости  от  задачи,  имеющих  результат  (результаты)  вычисления  по  каж-
дому  примеру.  В  свою  очередь  признаки  могут  носить  различный  характер  и 
быть: существенными и второстепенными; качественными и количественными; 
первичными  и  вторичными  и  т.д. [30, 39, 64, 72, 73]. При  этом  для  работы  с 
нейронной сетью (опять же в зависимости от поставленной задачи) к выборке 
 

 
32
не предъявляется такое количество жестких требований, как, например, при ра-
боте  с  традиционными  методами  обработки  информации.  Структура  таблицы 
экспериментальных данных приведена в табл. 1.6. 
Таблица 1.6 
База данных 
Объекты 
Исходные признаки 
Результаты 
x1
x2
… xj
… xM
Y1
… YP
X1
x11
x12
… x1j
… x1M
Y11
… Y1P
X2
x21
x22
… x2j
… x2M
Y21
… Y2P
…  … … … … … …  …  …  … 
Xi
xi1
xi2
… xij
… xiM
Yi1
… YiP
…  … … … … … …  …   
 
XN
xN1
xN2
… xNj
… xNM
YN1
 
YNP
 
Такая  таблица  содержит  N  примеров,  для  характеристики  которых  ис-
пользуется некоторое количество признаков (равное M) и по заранее известно-
му количеству результатов (равное P).  
Для формирования такой таблицы необходимо обратить внимание на ко-
личество примеров (чем их больше, тем точнее результат вычисления); на ин-
формативную загрузку набора признаков: для начала работы лучше взять,  как 
можно  больше  признаков  (в  последствии  этот  набор  можно  будет  сократить), 
при  этом  их  количество  ограничивается  лишь  возможностями  программного 
обеспечения.  
Нейронная сеть способна обучаться решению задачи на основании такой 
обучающей выборки – "задачника", состоящего из набора пар "вход–требуемый 
выход",  и  далее  может  решать  примеры,  не  входящие  в  обучающую  выборку 
[75, 88]. При этом процесс обучения представляет собой автоматический поиск 
закономерности  между  данными  и  заранее  известным  результатом  в  обучаю-
щей  выборке.  Примеры  из  предложенной  выборки  предъявляются  нейросете-
вой модели, а нейроны, получая по входным связям сигналы - "условия приме-
ра", преобразуют их, несколько раз обмениваются преобразованными сигнала-
ми и выдают ответ (набор сигналов) [21, 24, 25, 28, 36]. 
 

 
33
Обученная нейронная сеть автоматически записывается на диск компью-
тера как обыкновенный файл. В любой момент времени можно считать сеть с 
диска и продолжить обучение со старой или новой обучающей выборкой. Одна 
нейронная сеть обучается решать только одну задачу, однако может использо-
вать для обучения различные обучающие выборки. Которые могут различаться 
по количеству примеров, но должны соответствовать друг другу по числу обу-
чающих параметров и их порядку и смыслу. 
Тестирование  выборки  с  заранее  известными  результатами  позволяет 
проверить,  правильно  ли  сеть  определяет  результаты  для  всех  примеров  и  на-
сколько уверенно она это делает.  Полученный результат по каждому примеру 
сравнивается  с  заранее  известным,  и  если  сеть  обучилась  полностью,  то  при 
тестировании той же самой выборки результаты будут определены правильно. 
Кроме такого алгоритма тестирования можно так же протестировать вы-
борки  с  примерами,  которые  не  участвовали  в  обучении  нейронной  сети.  В 
этом случае можно спрогнозировать неизвестный результат или выявить недос-
татки в обучающей выборке, в структуре сети и в постановке задачи. 
Изменяя  в  различных  направлениях  значения  параметров  примера  и  по-
вторяя его тестирования, можно определить, как и на сколько изменяется зна-
чение результата. Это позволяет создать почву для составления рекомендаций 
по изменению результата в реальной жизни. 
В процессе обучения нейронная сеть способна оценивать влияние каждо-
го из обучающих параметров на принятие решения (то есть определить степень 
важности отдельных признаков). Эта способность позволяет выявить информа-
тивность каждого признака по сравнению с остальными и оценить значимость 
признаков [22, 23, 89, 102]. 
Применение  этих  алгоритмов  и  вычисленные  на  их  основе  показатели 
значимости  признаков  позволяют  анализировать  вектор  входных  сигналов  на 
избыточность. То есть, отбрасывая сигналы, показатель которых имеет малень-
кое значение для вычисления ответа, обучаем сеть без него и смотрим измене-
ние  ошибки.  В  том  случае,  когда  значение  ошибки  укладывается  в  заданный 
интервал, таким признаком можно пренебречь (исключить из выборки), а когда 
 

 
34
результат  вычисляется  более  точно,  можно  говорить  о  зашумлении  выборки 
этим признаком. 
Данная  возможность  нейронных  сетей  (оценка  значимости  признаков) 
позволяет  решить  еще  одну  проблему:  облегчение  процесса  создания  вопрос-
ника для решения конкретной задачи. То есть для начала можно сформировать 
обучающую выборку с большим  количеством признаков,  а затем  нейроимита-
тор  способен  сам  расклассифицировать  их  по  важности  и  сократить  список 
входных сигналов. 
С  помощью  нейронных  сетей  можно  автоматически  минимизировать 
число обучающих признаков [31]. При этом сокращение множества параметров 
и входных сигналов нейросети может преследовать несколько целей [54]: 
•  упрощение специализированных технических устройств; 
•  сокращение  объема  используемой  памяти  и  увеличение  быстродействия 
нейросети при решении задачи; 
•  удешевление  и  упрощение  сбора  данных  за  счет  отбрасывания  наименее 
значимых; 
•  облегчение  явной  вербальной  интерпретации  процесса  и  результатов  обра-
ботки данных. 
Алгоритмы  минимизации  пространства  признаков  рассмотрены  в  книге 
Горбаня А.Н. и Россиева Д.А. “Нейронные сети на персональном компьютере”, 
а  также  в  материалах III Всероссийского  семинара  “Нейроинформатика  и  ее 
приложения”. 
Одними  из  исследователей,  занимающихся  теоретическими  вопросами  в 
области нейроинформатики и разрабатывающих программное обеспечение для 
решения прикладных задач в этой области, являются члены группы НейроКомп 
Красноярского  института  вычислительного  моделирования  СО  РАН [76, 77]. 
Ими  был  разработан  пакет MultiNeuron, который  состоит  из  трех  программ  и 
является  программным  инструментарием,  позволяющим  создавать  экспертные 
системы, и NeuroPro. 
 

 
35
Последний  программный  продукт  представляет  собой  менеджер  обучае-
мых искусственных нейронных сетей, работающий в среде MS Windows 95 или 
MS Windows NT 4.0. В процессе работы NeuroPro позволяет производить сле-
дующие базовые операции: 
1.  Создание нейросетевого проекта. 
2.  Подключение  к  нейропроекту  файла  (базы)  данных  в  формате dfb (dBase, 
FoxBase, FoxPro, Clipper) или db (Paradox). 
3.  Редактирование  файла  данных – изменение  существующих  значений,  до-
бавление новых записей в базу данных и сохранение файла данных в другом 
формате. 
4.  Добавление в проект нейронной сети слоистой архитектуры с числом слоев 
нейронов от 1 до 10, числом нейронов в слое – до 100. 
5.  Обучение нейронной сети решению задачи прогнозирования или классифи-
кации.  Нейронная  сеть  может  одновременно  решать  как  несколько  задач 
прогнозирования,  так  и  несколько  задач  классификации,  а  также  одновре-
менно задач и прогнозирования, и классификации. 
6.  Тестирование нейронной сети на файле данных, получение статистической 
информации о точности решения задачи. 
7.  Вычисление  показателей  значимости  входных  сигналов  сети,  сохранение 
значений показателей значимости в текстовом файле на диске. 
8.  Упрощение нейронной сети. 
9.  Генерация  и  визуализация  вербального  описания  нейронной  сети,  сохране-
ние вербального описания в текстовом файле на диске. 
10. Выбор  алгоритма  обучения,  назначение  требуемой  точности  прогноза,  на-
стройка нейронной сети. 
По мнению авторов, данный продукт отличает наличие возможностей це-
ленаправленного упрощения нейронной сети для последующей генерации вер-
бального описания. В дальнейшем все эксперименты по данной диссертацион-
ной  работе  будут  проводиться  именно  с  помощью  нейросетевого  имитатора 
NeuroPro. 
 

 
36
Интеллектуальные  системы  на  основе  искусственных  нейронных  сетей 
позволяют  с  успехом  решать  проблемы  распознавания  образов,  выполнения 
прогнозов,  оптимизации,  ассоциативной  памяти  и  управления [96, 109]. Они 
предпочтительны  там,  где  имеется  очень  много  входных  данных,  в  которых 
скрыты закономерности. В этом случае можно почти автоматически учесть раз-
личные нелинейные взаимодействия между показателями-признаками, характе-
ризующими  такие  данные.  Это  особенно  важно  в  системах  обработки  инфор-
мации,  в  частности,  для  ее  предварительного  анализа  или  отбора,  выявления 
"выпадающих  фактов" (условно  незначимых  признаков)  или  грубых  ошибок 
человека, принимающего решения [12, 32, 103, 110].  
Таким  образом,  имея  достаточно  простой  набор  элементов  структуры, 
нейронные  сети  способны  решать  разнообразные  задачи:  а)  управление  в  ре-
альном времени; б) распознавание образов; в) предсказание; г) оптимизация; д) 
задачи  обработки  сигналов  при  наличии  больших  шумов  и  т.д.  И  можно  ска-
зать, что нейронные сети универсальный инструмент, с точки зрения исследо-
вателя они являются достаточно производительными и зависят лишь от произ-
водительности  вычислительной  машины,  они  обеспечиваю  достаточно  высо-
кую  устойчивость  к  ошибкам,  на  сегодняшний  день  они  являются  дешевым 
продуктом. В итоге получаем, что применять технологии нейронных сетей вы-
годно, а разработка методов нейросетевого моделирования и анализа информа-
ции является актуальной задачей.  
 
1.4. Оценка качества решения задач и виды контроля достоверности 
данных 
 
Характеристика рассмотренных выше подходов и методов обработки ин-
формации была бы не полной без учета оценки качества алгоритмов и способов 
определения критериев таких оценок. Показателями качества обычно являются 
ошибки вычислений (классификации), либо связанные с ними некоторые функ-
ции потерь. При этом ошибки бывают: условно-вероятностными, ожидаемыми 
 

 
37
и  асимптотическими,  а  функции  потерь  разделяют  на:  функцию  средних  по-
терь, функцию ожидаемых потерь и эмпирическую функцию средних потерь [2, 
6]. 
Способы  оценки  того  или  иного  показателя  качества  делятся  на  три  ос-
новные экспериментальные группы: 
1.  Одновременное  использование  выборки  как  обучающей  и  контрольной. 
Этот способ дает завышенную оценку качества решения задачи по сравне-
нию с оценкой качества по не зависимым от обучения данным. 
2.  Разбиение выборки на две части – обучающую и контрольную. Данный спо-
соб применяется в экспериментах с достаточно большим количеством дан-
ных и является самым простым и наиболее убедительным. 
3.  Извлечение из выборки случайного объекта (контрольного), синтез решаю-
щего  правила  по  оставшимся  и  распознавание  извлеченного  объекта.  Дан-
ный способ получил название метод скользящего экзамена и является наи-
более предпочтительным, так как дает меньшую дисперсию оценки вероят-
ности ошибки. 
Выбор способа оценки полностью зависит от поставленных перед иссле-
дователем  задач.  Однако  хотелось  бы  обратить  внимание  на  то,  что  точность 
решения задачи зависит не только от выбранной модели и ее способности, но и 
от  точности исходных данных. При этом если  модель поддается  изменению  и 
адаптации, то ошибки в данных – это проблема, плохо поддающаяся решению. 
Как правило, ошибки в данных носят преднамеренный и неумышленный 
характер и возникают по вине исследователя. Преднамеренные искажения дан-
ных проявляются систематически, а методы борьбы с ними носят организаци-
онный характер применительно к человеку.  
Методы борьбы же с искажениями, возникающими из-за невнимательно-
сти, случайности, усталости и т.п., рассматривались до сих пор учеными только 
в рамках контроля достоверности данных (табл. 1.7) [80].  
В условиях роста информационных потоков и применения компьютерной 
техники  специфика  обработки  данных  ведет  к  появлению  таких  операций  как 
кодирование признаков и перенос данных с первичных документов на машин-
 

 
38
ные носители. И в этих условиях проблема появления искажений информации и 
на сегодняшний день имеет свою актуальность (особенно при работе с выбор-
кой, основанной на минимальном количестве признаков). 
Таблица 1.7 
Виды и содержание контроля 
Способы контроля 
Что проверяется? 
Структура документа 
Синтаксический  
Полнота документа 
(вручную) 
Полнота заполнения строк 
Соответствие кодов и наименований признаков 
Логический  
Наличие отклонений от заданных значений 
(на ЭВМ) 
Наличие логических связей между показателями 
Соответствие построчных контрольных сумм документа 
Арифметический  
и контрольных сумм ЭВМ 
(на ЭВМ) 
Соответствие  пографных  сумм  документа  и  контроль-
ных сумм ЭВМ 
 
Применение различных видов контроля достоверности данных хоть и яв-
ляется действенным, но и здесь не исключена возможность появления искаже-
ний  информации.  Поэтому  на  сегодняшний  день  нет  способов,  способных  су-
щественно повлиять на качество решения задач в ситуациях с искажениями во 
входных данных. 
В  связи  с  этим,  в  процессе  решения  задач  минимизации  пространства 
признаков  в  условиях  возникновения  искажений  информации,  возникает  про-
блема поиска компромисса, способного реализовать и цели минимизации и це-
ли повышения устойчивости систем обработки данных от такого рода ошибок. 
 
1.5. Дублирование информации – источник повышения устойчивости 
вычислительных систем к искажению входной информации 
 
Решение  задачи  создания  системы,  устойчивой  к  искажениям  входной 
информации  на  выборке  с  минимальным  количеством  признаков  можно  стро-
ить по двум направлениям. 
 

 
39
Первое направление - “сверху вниз”. То есть, путем отбрасывания наиме-
нее значимых признаков из исходной выборки и постоянным контролем над ус-
тойчивостью системы (изменением ошибки вычислений) к искусственно созда-
ваемым  искажениям  во  входной  информации.  Однако  данный  подход  ведет  к 
тому, что решение задачи минимизации будет неудовлетворительным (то есть, 
в  процессе  реализации  данного  подхода  говорить  о  “минимуме”  практически 
невозможно). 
Второе направление - “снизу вверх”. То есть, изначально сократить набор 
исходных  признаков  до  минимального  количества,  а  затем  увеличивать  мини-
мальное количество признаков такими признаками (из множества не вошедших 
в минимальный набор), которые повышали бы устойчивость системы к искаже-
ниям  информации  во  входных  данных.  Реализация  этого  направления  требует 
перебора  как  минимум  всех  “оставшихся”  признаков  и  постоянного  контроля 
над качеством вычислений в условиях искажения информации. 
Таким образом, эти подходы являются достаточно трудоемкими и заранее 
ведут  к  избыточному  увеличению  количества  входных  параметров.  Поэтому 
очевидно, что решать поставленную задачу необходимо с помощью такого ме-
тода, который позволил бы за меньшее количество итераций определять набор 
признаков,  повышающих  устойчивость  системы  к  искажениям  информации  в 
условиях сокращения исходного числа входных параметров. В роли такого ме-
тода выступает предлагаемый ниже метод дублирования информации. Его тео-
ретическому  описанию  и  реализации  при  решении  задач  прогнозирования  и 
классификации посвящены данные диссертационные исследования. 
Понятие  “дублирование  информации”  рассматривается  в  литературе  как 
“…одна  из  предпосылок,  обуславливающих  необходимость  перехода  от  боль-
шого числа исходных показателей состояния анализируемой системы к сущест-
венно  меньшему  числу  наиболее  информативных  переменных” [2, 3]. Однако 
для построения систем, обладающих устойчивостью к искажениям во входных 
данных,  дублирование  информации  может  сыграть  существенную  роль.  Суть 
идеи  применения  дублирующей  информации  состоит  в  том,  чтобы  создавать 
устойчивость  системы  путем  дополнения  минимального  набора  признаками-
 

 
40
дублерами [17, 18]. При этом дублировать можно как весь минимальные набор, 
так  и  отдельные  признаки  из  его  состава,  а  преимущество  состоит  в  том,  что 
исследователь  определяет  непосредственные  признаки-дублеры  за  минималь-
ное количество итераций, а не создает устойчивость системы к искажениям во 
входных данных посредством перебора признаков. 
Этот  способ  создания  устойчивости  системы  к  искажениям  во  входных 
данных  путем  дублирования  информации  из  минимального  набора  признаков 
позволит решить следующие задачи. 
1.  Дублирование  информации  из  минимального  набора  признаков  позволит 
избежать  потери  части  полезной  информации,  или  информации,  которая  в 
процессе реализации методов минимизации перешла в разряд относительно 
незначимой, и сократить ограничения в использовании дополнительных ап-
риорных сведений о решаемой целевой задаче. 
2.  Решение задачи, основанное на минимальном наборе признаков, сопряжено 
с  высокой  степенью  риска  возникновения  ошибок  вычислений  в  случаях 
невнимательности  исследователя  (неумышленных  искажений  в  данных). 
Увеличивая  же  минимальный  набор  признаков  соответствующими  дубли-
рующими признаками, вероятность искажений во всех данных сокращается, 
отсюда снижается степень риска и повышается качество решения задачи. 
3.  Наличие в выборке признаков, дублирующих информацию из минимально-
го  набора,  позволяет  повысить  качество  вычислений  в  условиях  наличия 
пробелов  в  данных.  А  при  соответствующей  аппаратной  поддержке  и  вос-
полнить эти пробелы с достаточной степенью достоверности. 
4.  На  базе  построенных  наборов  признаков  (полном,  дублирующем  и  мини-
мальном)  выстраивается  иерархическая  зависимость  между  наборами,  что 
позволяет исследователю выбирать одну из трех баз данных в зависимости 
от критериев, предъявляемых к решению задачи и от технического и инст-
рументального обеспечения. 
Таким  образом,  решение  задачи  сводится  к  поиску  признаков,  дубли-
рующих  информацию  из  минимального  набора  параметров,  и  созданию  алго-
ритмов формирования наборов повышающих надежность вычислительных мо-
 

 
41
делей. Под надежностью в дальнейшем будем понимать устойчивость системы 
(в данном случае нейросетевой) к искажениям информации во входных данных.  
 
Выводы к главе 1 
 
1.  Проведенный  анализ  процесса  информатизации  общества  показал,  что  во-
просы  отбора,  анализа,  обработки  и  использования  информации  на  сего-
дняшний день являются актуальными и специфическими, а роль и значение 
исследователя на всех этапах ее прохождения наиболее существенными для 
качественного решения поставленных задач.  
2.  Анализ  особенностей  использования  традиционных  методов  и  инструмен-
тов обработки информации показал, что алгоритмы их реализации не удов-
летворяют требованиям сокращения времени, усилий и количества специа-
лизированных знаний со стороны исследователя. Однако в качестве универ-
сального инструмента обработки информации и минимизации описания вы-
ступает нейросетевой подход к обработке данных. 
3.  Анализ различных способов контроля достоверности данных показал, что в 
процессе  решение  задач  минимизации  пространства  признаков  в  условиях 
возникновения  неумышленных  искажений  информации,  возникает  пробле-
ма поиска компромисса, способного реализовать и цели минимизации и це-
ли сохранения устойчивости систем обработки данных от таких ошибок. 
4.  Проведен  анализ  различных  подходов  к  решению  задачи  поиска  набора 
входных параметров, обеспечивающих устойчивость решения к искажениям 
во входной информации. На его основе предложен метод дублирования, ос-
нованный  на  увеличении  количества  признаков  минимального  набора  на 
число соответствующих признаков с дублирующей информацией. 
 

 
42
 
ГЛАВА 2. ДУБЛИРОВАНИЕ ПРИЗНАКОВ КАК СРЕДСТВО 
ПОВЫШЕНИЯ НАДЕЖНОСТИ В ПРОЦЕССЕ 
ОБРАБОТКИ ИНФОРМАЦИИ 
2.1. Формализация основных понятий и классификация дублей 
 
Реализация  решения  вышеизложенных  задач  основана  на  увеличении 
пространства  признаков - добавлении  к  минимальному  набору  такого  набора 
признаков, который если не полностью, то частично дублирует информацию из 
минимального набора, то есть формируется набор, способный минимизировать 
степень влияния неумышленных искажений информации. Теоретически задача 
и ее решение выглядят следующим образом. 
Рассмотрим  обучающую  выборку  V  (см.  табл. 1.6), в  которой  n - общее 
количество объектов, m - количество признаков по каждому объекту, а p- коли-
чество результатов каждого объекта. 
Пусть данная выборка является совокупностью однородных объектов ха-
рактеризующихся  некоторым  числом  качественных  и  количественных  призна-
ков  и  результатов.  Определим  целевую  задачу, – в  процессе  работы  с  данной 
выборкой  необходимо  спрогнозировать  результат  так,  чтобы  отклонение  вы-
численного значения результата от существующего (заданного) было как мож-
но меньше и укладывалось в пределы заданной точности вычислений. И, плюс 
к этому, необходимо сократить размерность вектора входных признаков с уче-
том  вышеизложенного  требования  и  возможности  возникновения  искажений 
информации.  
Не будем акцентировать внимание на способах прогнозирования резуль-
тата, так как решение этого вопроса описано во многих литературных источни-
ках. Отметим лишь, что в рамках решения этой задачи воспользуемся имитато-
ром нейронных сетей “NeuroPro” [76, 77], который позволяет достаточно быст-
ро  решать  задачи  прогнозирования  результатов,  оценки  информативности  па-
раметров  и,  что  очень  важно,  автоматически  минимизировать  число  входных 
 

 
43
характеристик. (Однако  следует  заметить,  что  предложенные  ниже  алгоритмы 
поиска  дублирующих  признаков  необязательно  базируются  на  использовании 
нейронных сетей.) 
Решение  следующей  подзадачи  минимизации  описания  позволяет  повы-
сить  вычислительную  эффективность  соответствующих  алгоритмов  и  имеет 
самостоятельное  значение [46]. Известно,  что  процесс  минимизации  общего 
количества  признаков  основан  на  вычислении  информативности  каждого  из 
них [58, 86]. То есть, определяется значимость каждого признака в обучающей 
выборке,  отбрасываются  наименее  информативные  из  них,  и  создается  новая 
выборка S` с вектором входных признаков меньшей размерности (табл. 2.1), где 
N – общее количество примеров, а M` - общее количество признаков. 
 
Таблица 2.1 
Структура выборки S` 
Объекты 
Исходные признаки 
Результаты 
x1
x2
… xj
… xM`
Y1
… YP
X1
x11
x12
… x1j
… x1M`
Y11
… Y1P
X2
x21
x22
… x2j
… x2M`
Y21
… Y2P
…  … … … … … …  …  …  … 
Xi
xi1
xi2
… xij
… xiM`
Yi1
… YiP
…  … … … … … …  …   
 
XN
xN1
xN2
… xNj
… xNM`
YN1
 
YNP
 
Как видно из таблицы 2.1 , выборка S` меньшей размерности отличается 
от исходной размерностью вектора входных признаков, который был сокращен 
до некоторого числа M` < M без существенной потери качества прогнозирова-
ния результата. 
Однако  нельзя  утверждать,  что  отброшенные  признаки  не  имеют  значе-
ния  для  решения  поставленной  задачи,  а  их  информативность  является  наи-
меньшей. Корректнее всего было бы рассматривать понятие “условно незначи-
мые”  признаки.  Тогда  возникает  вопрос:  насколько  хорош  созданный  мини-
мальный набор параметров? 
 

 
44
В зависимости от решаемой задачи ответ на этот вопрос может быть раз-
ным. Если все входные параметры являются объективными (например, резуль-
татами  физических  измерений),  то  минимальный  набор  входных  параметров 
видимо  надежен.  Однако  если  входные  параметры  являются  субъективными, 
минимальный набор не надежен, а принятое решение на основе минимального 
набора  таких  субъективных  признаков  некорректно.  И,  кроме  того,  нельзя  за-
бывать и об неумышленных ошибках в данных. 
Прежде, чем приступить непосредственно к описанию метода и алгорит-
мов  реализации,  введем  понятие  “дубля”.  Для  начала  обратимся  к  понятиям 
прототип и дублер: 
•  “прототип” – начальный, основной образец, источник; 
•  “дублер” – это двойник, способный почти полностью компенсировать отсут-
ствие прототипа. 
Таким  образом  “дубль” – это  набор  дублеров,  а  “дублирование” - это 
процесс замены прототипа(ов) соответствующим(ими) дублером(ами). 
Можно предложить множество видов дублей в зависимости от направле-
ния дублирования, например: 
•  дубль для всех признаков из минимального набора; 
•  дубль для части признаков (в диссертационной работе не рассматривается); 
•  дубль для одного конкретного признака; 
•  дубль на основе замены признака (совокупности признаков); 
•  дубль  на  основе  вычислений  значения  признака  (совокупности  значений 
признаков) и т.д. 
В  целях  ограничения  диссертационных  исследований  остановимся  на 
реализации  “крайних  состояний”.  В  связи  с  этим  классифицируем  дубли  по 
двум принципам: по объекту дублирования и по способу определения. 
Классификация дублей 
1. По объекту дублирования: 
•  дубль первого рода - такой дубль позволяет дублировать все множество при-
знаков из минимального набора в целом; 
 

 
45
•  дубль  второго  рода – позволяет  дублировать  конкретный  признак  (прото-
тип). 
2. По способу определения: 
•  прямой  дубль – набор  признаков,  способный  заменить  определенный  при-
знак  (или  множество  признаков)  при  получении  ответа  первоначальной  за-
дачи; 
•  косвенный  дубль - и  набор  признаков,  позволяющий  вычислить  дублируе-
мый признак (множество дублируемых признаков). 
Исходя из предложенной классификации очевидно, что возможны четыре 
варианта дублей (рис. 2.1): прямой дубль первого рода, косвенный дубль перво-
го рода, прямой дубль второго рода, косвенный дубль второго рода. 
 
 
ДУБЛИ 
 
 
 
 
Классификация 
 
По объекту дублирования 
 
По способу определения 
 
дубль первого 
 
дубль второго 
 
прямой  
 
косвенный  
рода 
рода 
дубль 
дубль 
 
виды дублей 
 
прямой дубль 
косвенный дубль 
прямой дубль 
косвенный дубль 
первого рода 
 
первого рода 
 
второго рода 
 
второго рода 
(ПДПР) 
(КДПР) 
(ПДВР) 
(КДВР) 
 
 
Рис. 2.1. Классификация и разновидности дублей 
 
Задача.  Пусть  дана  таблица  данных,  содержащая  n  записей,  каждая  из 
которых содержит M+P+1 поле. Введем соответствующие обозначения: 
1.  Обозначим  значение  каждого  j-го  поля  i-ой  записи  через  xij,  где   i=1,…,N
j=1,…,M.  
2.  Обозначим через V(A,S) задачник, в котором ответы заданы в полях с номе-
рами jA, а входные данные содержатся в полях с номерами jS. Множест-
 

 
46
во  А  будем  называть  множеством  ответов,  а  множество  S – множеством 
входных данных. 
3.  Минимальное множество входных сигналов, полученное при обучении сети 
на задачнике V(A,S), обозначим через F(A,S).  
4.  В случае, когда сеть не удалось обучить решению задачи, будем считать, что 
F(A,S)=∅.  
5.  Число элементов во множестве будем обозначать через ⏐A⏐.  
6.  Через T(A,S) будем обозначать сеть, обученную решать задачу предсказания 
всех полей (ответов), номера которых содержатся в множестве A, на основе 
входных сигналов, номера которых содержатся в множестве S
Необходимо  построить  набор  входных  параметров,  который  позволяет 
надежно решать задачу V({0},{1,…,M})
Решение задачи будем называть множеством повышенной надежности, и 
обозначать Sпн
Для решения этой задачи необходимо определить набор параметров, дуб-
лирующих минимальный набор S1=F({0}, {1,…,M})
Рассмотрим  последовательно  алгоритмы  поиска  дублей  всех  вышепере-
численных видов и процессы формирования наборов повышенной надежности 
на основе предложенной классификации. 
 
2.2. Алгоритмы дублирования 
2.2.1. Прямой дубль первого рода (ПДПР) 
 
Для нахождения прямого дубля первого рода требуется найти такое мно-
жество признаков из множества M``= M-M`, которое является минимальным 
для решения задачи прогнозирования результата. При этом необходимо выпол-
нение условия, что существует сеть T({0},D) и S1|D=∅. Алгоритм решения этой 
задачи приведен на рис. 2.2. 
 

 
47
 
Исходная выборка с количеством признаков M 
Минимизируем исходное количество признаков M 
Минимальный набор признаков с количеством признаков M`
Исключаем из общего числа признаков исходной 
выборки минимальный набор M` 
Выборка с количеством признаков M``=M-M` 
Минимизируем количество признаков M`` 
Прямой дубль первого рода 
Объединяем минимальный набор M` и прямой дубль 
первого рода 
Набор признаков повышенной надежности S1ппн 
 
Рис. 2.2. Процесс формирования ПДПР и набора повышенной надежности 
-  содержание информации, 
-  действие с информацией, 
-  движение информации. 
 
Определим  минимальное  множество  признаков  (M`),  необходимое  для 
вычисления  результата.  Затем  исключим  из  общего  множества  входных  при-
знаков M те из них, которые вошли в первоначальное минимальное множество 
признаков S1  (то есть M-M`). Следующим шагом найдем минимальное множе-
ство признаков среди оставшихся признаков (M``). Это множество и будет ис-
комым дублем. 
Формально  описанную  выше  процедуру  можно  записать  следующей 
формулой:   
 
 
 
D=F({0},{1,…,M}\S1)
 

 
48
При этом множество повышенной надежности в этом случае можно запи-
сать в следующем виде: 
S1nпн= S1 U D=F({0},{1,…,M}) U F({0},{1,…,M}\ F({0},{1,…,M})). 
Очевидно,  что  последнюю  формулу  можно  обобщить,  исключив  из  пер-
воначального  множества  признаков  найденное  ранее  множество  повышенной 
надежности  и  попытавшись  найти  минимальное  множество  среди  оставшихся 
признаков. Однако можно выделить круг таких задач, для которых не сущест-
вует прямых дублей первого рода. Примером может служить одна из классиче-
ских нейросетевых  тестовых задач – задача о предсказании результатов выбо-
ров президента США. 
 
2.2.2. Косвенный дубль первого рода (КДПР) 
 
Для нахождения косвенного дубля первого рода необходимо найти такое 
множество признаков D из множества M``= M-M`, которое является минималь-
ным  и  позволяющим  вычислить  дублируемые  признаки  множества  M`.  При 
этом  необходимо  выполнить  условие,  что  существует  сеть  T({0},D)  и  S1|D=∅. 
Другими словами, среди множества признаков, не включающего начальное ми-
нимальное множество (M-M`), нужно найти такие признаки, по которым можно 
восстановить  значения  признаков  начального  минимального  множества.  Схе-
матично  процесс  формирования  косвенного  дубля  первого  рода  изображен  на 
рис. 2.3.  
Математически же описанную выше процедуру можно записать следую-
щей формулой: 
D=F(S1,{1,…,M}\S1)
А  множество  повышенной  надежности  в  этом  случае  можно  записать  в 
следующем виде: 
S1кпн= S1 U D=F({0},{1,…,M}) U F({0},{1,…,M}){1,…,M}\ F({0},{1,…,M})). 
 

 
49
 
Исходная выборка с количеством признаков M 
М инимизируем исходное количество признаков M 
Минимальный набор признаков с количеством признаков M`
Переводим минимальный набор признаков в разряд 
«результатов» 
Выборка с набором признаков M`` и набором результатов M` 
М инимизируем количество признаков M`` 
Косвенный дубль первого рода 
Объединяем минимальный набор M` и косвенный дубль 
первого рода 
Набор признаков повышенной надежности S1кпн 
 
Рис. 2.3. Процесс формирования КДПР и набора повышенной надежности 
-  содержание информации, 
-  действие с информацией, 
-  движение информации. 
 
 
Эта формула так же допускает обобщение. Однако следует заметить, что 
косвенные дубли первого рода встречаются еще реже, чем прямые дубли пер-
вого  рода.  Соотношение  между  косвенным  и  прямым  дублем  первого  рода 
можно описать с помощью следующей теоремы. 
Теорема 1. Если множество D является косвенным дублем первого рода, 
то оно является и прямым дублем первого рода. 
Доказательство.  Построим  нейронную  сеть,  состоящую  из  последова-
тельно соединенных сетей T(S1,D) и T({0},S1) (рис. 2.4). Очевидно, что на выхо-
 

 
50
де  первой  сети  будут  получены  те  сигналы,  которые,  будучи  поданы  на  вход 
второй сети, приведут к получению на выходе второй сети правильного ответа. 
Таким образом сеть, полученная в результате объединения двух сетей T(S1,D) и 
T({0},S1), является сетью T({0},D). Что и требовалось доказать. 
 
 
 
 
 
 

T(S
S
T({0},S
x0 
1,D ) 
1 
1) 
 
 
Рис. 2.4. Сеть для получения ответа из косвенного дубля 
 
Из данной теоремы вытекает следующее следствие. 
Следствие. Если у множества S1 нет прямого дубля первого рода, то у нее 
нет и косвенного дубля первого рода. 
Доказательство.  Пусть  это  не  так.  Тогда  существует  косвенный  дубль 
первого рода. Но по теореме 1 он является и прямым дублем первого рода, что 
противоречит условию теоремы. Это противоречие и доказывает следствие. 
 
2.2.3. Прямой дубль второго рода (ПДВР) 
 
Прежде, чем приступить к описанию процесса определения прямого дуб-
ля второго рода и косвенного дубля второго рода перенумеруем входные при-
знаки из множества S1={i1,…,ik},k=|S1|. Тогда множество признаков, являющееся 
прямым  дублем  второго  рода  для  признака  xi   можно  получить,  найдя  мини-
1
мальное множество для получения ответа, если из исходного множества вход-
ных  признаков  исключен  признак  xi .  Отсюда  получаем,  что  прямые  дубли 
1
второго рода определяются следующим образом: Dj=F({0},{1,…,M}\{ij})
Полный прямой дубль второго рода является объединением всех дублей 
для отдельных признаков (рис. 2.5): 
 
|S1
 
D=U F({0},{1,…,M}\{ij}). 
j=1 
 
 

 
51
 
Исходная выборка с количеством признаков M 
Минимизируем исходное количество признаков M 
Минимальный набор признаков с количеством признаков M`
 
 
Исключаем из общего числа признаков тот признак, 
Выборка с набором признаков M``=M-1 
дубль которого необходимо найти 
Выборка с набором признаков M``=M-1 
Выб М
орк и
а  н
с и
нм
а и
б зируем
ором 
 коли
призна чест
ков  в
о пр
``=Mиз
на
1  ков M`` 
Минимизируем количество признаков M`` 
Прямой дубль второго рода для выбранного признака 
Минимизируем количество признаков M`` 
Прямой дубль второго рода для выбранного признака 
M` 
Прямой дубль второго рода для выбранного признака 


Объединяем все прямые дубли второго рода 
Полный прямой дубль второго рода 
Объединяем минимальный набор M` и полный прямой 
дубль второго рода 
Набор признаков повышенной надежности S2ппн 
 
Рис. 2.5. Процесс формирования ПДВР и набора повышенной надежности 
-  содержание информации,  
 
 
-    действие с информацией,
-  подпроцесс, выполняемый M` раз,   
-    движение информации.   
 
 

 
52
Множество  повышенной  надежности  для  прямого  дубля  второго  рода 
можно записать в следующем виде: 
 
S2n
 
пн= F({0},{1,…,M})   U   F({0},{1,…,M}\{j}). 
jF({0},{1,…,M}) 
При  формировании  прямого  дубля  второго  рода,  в  зависимости  от  по-
ставленной задачи, можно ограничиться несколькими признаками. В этом слу-
чае множество повышенной надежности будет складываться из минимального 
набора признаков плюс прямые  дубли второго рода для интересующих иссле-
дователя признаков. Если же прямой дубль второго рода требуется найти лишь 
для одного признака из минимального множества, то тогда набор повышенной 
надежности будет состоять  из минимального множества и единственного пря-
мого дубля второго рода. 
Заметим, что при построении прямого дубля второго рода не требовалось 
отсутствия  в  нем  всех  элементов  множества  S1,  как  это  было  при  построении 
прямого дубля первого рода. Такое снижение требований приводит к тому, что 
прямые дубли второго рода встречаются чаще, чем прямые дубли первого рода. 
Более  того,  прямой  дубль  первого  рода,  очевидно,  является  прямым  дублем 
второго  рода.  Более  точное  соотношение  между  прямыми  дублями  первого  и 
второго родов дает следующая теорема. 
Теорема 2. Полный прямой дубль второго рода является прямым дублем 
первого рода тогда, и только тогда, когда  
 
U   F({0},{1,…,M}\{j})|F({0},{1,…,M})= 
(1)
jF({0},{1,…,M}) 
Доказательство. Построим сеть, состоящую из параллельно работающих 
сетей,  T({0},{1,…,M}\{ij}),  за  которыми  следует  элемент,  выдающий  на  выход 
среднее арифметическое своих входов. Такая сеть, очевидно, будет решать за-
дачу, а в силу соотношения (1) она будет сетью T({0},{1,…,M}\S1). Таким обра-
зом, если соотношение (1) верно, то прямой дубль второго рода является пря-
мым дублем первого рода. Необходимость следует непосредственно из опреде-
ления прямого дубля первого рода.  
 
 

 
53
2.2.4. Косвенный дубль второго рода (КДВР) 
 
Косвенный  дубль  второго  рода  для  признака  xi  является минимальным 
1
множеством 
входных 
признаков, 
для 
которых 
существует 
сеть 
T({i1},{1,…,M}\{i1}). Другими словами – это такое минимальное множество при-
знаков (дублеров), по которому можно восстановить значение признака (прото-
типа) из минимального множества. То есть, этот признак (прототип) переводит-
ся из разряда “характеристик” в разряд “результатов”.  
Таким  образом,  косвенные  дубли  второго  рода  получаются  следующим 
образом: Dj=F({ij},{1,…,M}\{ij}) (рис. 2.6). 
Полный  косвенный  дубль  второго  рода  строится  как  объединение  кос-
венных дублей второго рода для всех признаков первоначального минимально-
го множества (2), а множество повышенной надежности можно выразить фор-
мулой (3). 
 
|S1
(2) 
D=U F({ij},{1,…,M}\{ij}). 
j=1 
 
 
 
 
S2кпн= F({0},{1,…,M})   U   F({j},{1,…,M}\{j}). 
(3) 
j∈F({0},{1,…,M}) 
Соотношения между косвенными дублями второго рода и другими вида-
ми дублей первого и второго рода задаются теоремами 1, 2 и следующими дву-
мя теоремами. 
Теорема 3. Косвенный дубль второго рода всегда является прямым дуб-
лем второго рода.  
Доказательство  данной  теоремы  полностью  аналогично  доказательству 
теоремы 1. 
Теорема 4.  Полный  косвенный  дубль  второго  рода  является  косвенным 
дублем первого рода тогда, и только тогда, когда верно соотношение 
 
U   F({j},{1,…,M}\{j})|F({0},{1,…,M})=   
j∈F({0},{1,…,M}) 
Доказательство  данной  теоремы  полностью  аналогично  доказательству 
теоремы 2. 
 

 
54
 
 
Исходная выборка с количеством признаков M 
Минимизируем исходное количество признаков M 
Минимальный набор признаков с количеством признаков M`
 
 
Переводим признак, дубль которого требуется найти, в 
Выборка с набором признаков M``=M-1 
разряд «результатов» 
Выборка с набором признаков M``=M-1 
Выборк М
а си
  ним
коли изируем
чеством   количест
признако в
в  о пр
M`` из
на
M-1 к
  ов M`` 
Минимизируем количество признаков M`` 
Прямой дубль второго рода для выбранного признака 
Минимизируем количество признаков M`` 
Прямой дубль второго рода для выбранного признака 
M` 
Косвенный дубль второго рода для выбранного признака 


Объединяем все косвенные дубли второго рода 
Полный косвенный дубль второго рода 
Объединяем минимальный набор M` и полный косвенный 
дубль второго рода 
Набор признаков повышенной надежности S2кпн 
 
Рис. 2.6. Процесс формирования КДВР и набора повышенной надежности 
-  содержание информации,  
 
 
-    действие с информацией,
-  подпроцесс, выполняемый M` раз,   
-    движение информации.   
 
 

 
55
2.3. Теоретические результаты дублирования 
 
Таким  образом,  применяя  данные  алгоритмы  дублирования  в  процессе 
обработки первичной информации в сочетании с нейросетевыми возможностя-
ми, исследователь получает качественно новые системы поддержки и принятия 
решений. 
Дублирование информации позволяет сократить набор входных характе-
ристик таким образом, чтобы качество вычисления результата минимально по-
страдало от искажений входной информации в процессе дальнейшей работы с 
выборкой.  Кроме  этого,  набор  повышенной  надежности  на  базе  косвенного 
дубля  второго  рода  позволяет  делать  выводы  о  наличии  ненужных (“зашум-
ляющих”)  признаков.  Однако  процесс  определения  наборов  повышенной  на-
дежности на базе полных косвенного и прямого дублей второго рода является 
достаточно трудоемким. 
Еще  одной  задачей,  которую  можно  решать  с  помощью  дублирования, 
является  задача  вычисления  или  прогнозирования  результата  на  таблице  дан-
ных имеющей пробелы. То есть в том случае, когда отсутствуют данные по ря-
ду  примеров,  можно  определить  их  значение  с  помощью  соответствующих 
дублеров. Или же проще того, дублеры, вошедшие в набор повышенной надеж-
ности, частично заменят отсутствие информации в прототипах. Что существен-
но отразится на качестве принятия решения. 
При решении задачи расстановки приоритетов среди признаков в выбор-
ке исследователь может воспользоваться методом дублирования информации и   
выстроить иерархическую зависимость признаков друг от друга. То есть, с по-
мощью реализации алгоритмов поиска дублей (ПДПР, КДПР, ПДВР, КДВР) на 
высшем  уровне  пирамиды  будут  находиться  признаки-прототипы  из  мини-
мального набора, на среднем уровне – признаки-дублеры, а на низшем уровне – 
набор  признаков,  обладающих  повышенной  надежность  к  неумышленным  ис-
кажениям  информации  (рис. 2.7).  В  основе  же  всей  этой  пирамиды  будет  ле-
жать весь набор признаков. 
 

 
56
 
 
 
 
 
Набор 
прототипов 
(минимальный 
набор) 
 
 
 
Набор дублеров 
(дубль) 
 
 
 
Набор признаков повышенной 
надежности 
 
 
 
 
Полный набор признаков 
 
 
 
Рис. 2.7. Иерархическая структура признакового пространства для ПДПР, 
КДПР, ПДВР и КДВР 
 
Такая  возможность,  предоставляемая  методом  дублирования,  позволяет 
создавать почву для выработки дополнительной информации нового качества и 
структуре пространства признаков.  Кроме того,  при  решении различного рода 
задач применение дублирования информации помогает исследователю форми-
ровать  выборки  с  различным  набором  признаков,  деленные  на  первичные  и 
вторичные. Эта возможность наиболее актуальна при технических ограничени-
ях решения задач. 
Так как процесс поиска дублеров и прототипов основан на минимизации 
пространства  признаков,  то  алгоритмы  поиска  дублирующих  признаков  могут 
быть  реализованы  не  только  с  помощью  нейросетевых  инструментов.  Выбор 
того  или  иного  метода  минимизации  будет  зависеть  от  поставленной  задачи, 
знаний исследователя и возможностей необходимых технических средств. 
 
 

 
57
Выводы к главе 2 
 
1.  С  целью  уменьшения  количества  признаков  и  одновременного  повышения 
устойчивости решения задачи в условиях искажения входных данных пред-
ложено использование дублирования признаков минимального набора. 
2.  Выделено четыре вида дублей: прямой дубль первого рода, косвенные дубль 
первого рода, прямой дубль второго рода и косвенный дубль второго рода, 
различающихся по объекту дублирования и способу определения. 
3.  Сформулированы алгоритмы получения дублей: 
-  алгоритм поиска прямого дубля первого рода предполагает поиск ми-
нимального набора признаков (для вычисления результата) из множе-
ства M``=M-M`
-  косвенный  дубль  первого  рода  предполагает  перевод  минимального 
набора признаков M` в разряд результатов и поиск нового минималь-
ного  набора  признаков  из  множества  M``= M-M`,  способного  вычис-
лить эти результаты, 
-  прямой  дубль  второго  рода  и  косвенный  дубль  второго  рода  получа-
ются аналогично предыдущим, только дублирование проводят не для 
всего минимального множества M`, а для определенных признаков. 
4.  Показаны соотношения между различными видами дублей, и выявлено, что 
формализм  описания  алгоритмов  может  быть  применен  как  к  нейронным 
сетям, так и к линейной и нелинейной регрессии. 
5.  Одновременное  использование  набора  прототипов  и  дублеров  позволяет 
формировать  набор  признаков,  обладающий  устойчивостью  к  неумышлен-
ным искажениям информации. 
 
 
 

 
58
ГЛАВА 3. ДУБЛИРОВАНИЕ В ПРОЦЕССЕ РЕШЕНИЯ ЗАДАЧИ 
КЛАССИФИКАЦИИ ПРЕДСКАЗАНИЙ ЛЕТАЛЬНОГО 
ИСХОДА В СЛУЧАЕ НАСТУПЛЕНИЯ ИНФАРКТА 
МИОКАРДА 
 
3.1. Описание задачи и процесса ее решения 
 
Для  проведения  исследований  в  данной  области  воспользуемся  частью 
базы  данных,  опубликованной  Институтом  вычислительного  моделирования 
СО РАН в 1997 году на материалах Кардиологического центра городской боль-
ницы №20 [32] и неросетевым имитатором NeuroPro. 
Прежде, чем непосредственно приступить к экспериментам по формиро-
ванию дублей различного рода, обратимся к имеющейся информации и опреде-
лим цели исследований. 
Для работы с выбранным программным продуктом на первом этапе необ-
ходимо  сформировать  задачник  (см.  табл. 1.6).  В  его  состав  вошла  часть  базы 
данных  и  в  итоге  получилась  выборка  из 529 примеров, 118 признаков  (см. 
прил. 1) и одного прогнозируемого результата. При этом признаки носят в ос-
новном  качественный  характер,  а  результатом  является  определенный  класс 
(см. прил. 2). 
Таким  образом,  стоит  задача  соотнесения  объектов  выборки  к  опреде-
ленному классу (задача классификации), сокращении числа входных сигналов, 
создание  набора  повышенной  надежности  к  неумышленным  искажениям  ин-
формации  и  установление  взаимозависимостей  между  признаками  с  помощью 
возможностей алгоритмов дублирования информации. 
Для решения поставленных задач необходимо: 
•   обучить сеть по сформированному задачнику; 
•  минимизировать  количество  признаков  и  оценить  точность  решения  за-
дачи классификации на полученном наборе (M`) в сравнении с решением 
по всему задачнику; 
 

 
59
•  найти дубли всех видов и сформировать на их основе наборы повышен-
ной надежности; 
•  оценить  качество  решения  задачи  классификации  в  случае  искажений 
информации; 
•  проанализировать полученные результаты. 
Выполним  последовательно  все  эксперименты  и  оценим  возможность 
применения метода дублирования информации для данной выборки. 
 
3.2. Минимальный набор признаков 
 
На  первом  этапе  экспериментов  создаем  нейронную  сеть  со  структурой, 
предлагаемой  программным  продуктом  (по  умолчанию).  Такая  сеть  является 
трехслойной и содержит по 10 нейронов на каждом слое и имеет характеристи-
ку 0,1. Обучаем  сеть  решать  поставленную  задачу  классификации  по  предла-
гаемому  задачнику,  и  тестируем  полученные  результаты  (по  каждому  классу 
исхода болезни) по следующим параметрам: 
•  правильно расклассифицировано; 
•  неуверенно; 
•  неправильно. 
Как видно (табл. 3.1) нейронная сеть обучилась правильно расклассифи-
цировать все объекты, при этом неуверенного решения задачи, так же как и не-
правильного, нет (0%). Таким образом, для решения поставленной задачи дос-
таточно трехслойной сети с предложенной структурой. 
Осуществляя  автоматическую  минимизацию  количества  входных  сигна-
лов,  нейросетевой  имитатор  оставил  для  решения  задачи  всего 50 признаков 
(табл. 3.2), которые в дальнейшем будем считать прототипами для следующей 
серии экспериментов с дублированием информации. При этом тестирование се-
ти, способной классифицировать объекты по заданным классам показывает, что 
правильно было распределено 100% объектов и неуверенность в решении зада-
чи отсутствует (результаты тестирования аналогичны результатам в табл. 3.1). 
 

 
60
Таблица 3.1 
Результаты тестирования  
Тестируемый параметр 
Класс 
Правильно, %  Неуверенно, %  Неправильно, % 
Всего 
Класс 1 
100 


480 
Класс 2 
100 



Класс 3 
100 



Класс 4 
100 


16 
Класс 5 
100 



Класс 6 
100 



Класс 7 
100 



Класс 8 
100 



 
Таблица 3.2 
Минимальный набор признаков 
   
 
 
   
 
 
  №  Порядковый 
№  Порядковый 
номер при-
Характеристика 
номер при-
Характеристика 
знака в ис-
признака 
знака в ис-
признака 
ходной вы-
(см. прил. 1) 
ходной вы-
(см. прил. 1) 
борке 
борке 
1. 
3 SEX 
26. 
71 N_P_ECG_P_08 
2. 
12 ZSN_A 
27. 
73 N_P_ECG_P_10 
3. 
15 NR_02 
28. 
75 N_P_ECG_P_12 
4. 
21 NP_04 
29. 
76 FIBR_TER_01 
5. 
22 NP_05 
30. 
77 FIBR_TER_02 
6. 
24 NP_08 
31. 
83 GIPO_K 
7. 
28 ENDOCR_02 
32. 
85 GIPER_NA 
8. 
30 ZAB_LEG_01  33. 
88 AST_BLOOD 
9. 
31 ZAB_LEG_02  34. 
91 ROE 
10. 
33 ZAB_LEG_04  35. 
96 R_AB_1_N 
11.
 
 
34 ZAB_LEG_06  36. 
98 R_AB_3_N 
12. 
39 O_L_POST 
37. 
102 NITR_S 
13. 
40 K_SH_POST 
38. 
103 NA_R_1_N 
14. 
41 MP_TP_POST  39. 
105 NA_R_3_N 
15. 
43 GT_POST 
40. 
109 LID_S_N 
16. 
44 FIB_G_POST 
41. 
111 ANT_CA_S_N 
17. 
49 IM_PG_P 
42. 
112 GEPAR_S_N 
18. 
51 RITM_ECG_P_02 43. 
114 TIKL_S_N 
19. 
52 RITM_ECG_P_04 44. 
119 FIBR_JELUD 
20. 
57 N_R_ECG_P_02 45. 
121 OTEK_LANC 
21. 
60 N_R_ECG_P_05 46. 
122 RAZRIV 
22. 
61 N_R_ECG_P_06 47. 
123 DRESSLER 
23. 
66 N_P_ECG_P_03  48. 
124 ZSN 
24. 
69 N_P_ECG_P_06  49. 
125 REC_IM 
25. 
70 N_P_ECG_P_07  50. 
126 P_IM_STEN 
   
   
 
 
 

 
61
 
3.3. Реализация алгоритмов дублирования 
 
Следующим шагом исследований является апробация всех видов дубли-
рования на поставленной задаче классификации.  
Эксперименты будем проводить в следующем порядке: 
•  определим прямой дубль первого рода; 
•  сформируем косвенный дубль первого рода; 
•  найдем прямые дубли второго рода для каждого прототипа и составим пол-
ный прямой дубль второго рода; 
•  найдем  полный  косвенный  дубль  второго  рода  на  базе  косвенных  дублей 
второго рода для каждого прототипа в отдельности. 
 
Прямой дубль первого рода (ПДПР) 
Выполняя  последовательно  алгоритм  поиска  данного  вида  дублей  (см. 
рис. 2.2), получаем следующие результаты: 
1.  Нейронная сеть способна решать поставленную задачу по выборке, в соста-
ве  которой  отсутствует  минимальный  набор  признаков,  то  есть  на  наборе 
M-M`. Этот результат говорит о том, что применение прямого дублирования 
имеет смысл. 
2.  Для данного набора прототипов существует набор дублеров, способный ес-
ли не полностью, то частично заменить их отсутствие. 
3.  Этот набор состоит из 24 дублеров (см. прил. 3 табл. 1). При этом нейрон-
ная сеть правильно решает задачу классификации и на данном наборе дуб-
леров со сто процентной точностью. 
4.  Имея после эти экспериментов набор прототипов и набор дублеров, можно 
сформировать  набор  повышенной  надежности  (см.  прил. 3 табл. 1)  на  базе 
прямого дубля первого рода (S1ппн). 
5.  Получена  структурная  схема  иерархической  зависимости  признаков 
(рис. 3.1). 
 

 
62
 
Р Е З У Л Ь Т А Т  
Н а б о р  
п о в ы ш е н н о й  
н а д е ж н о с т и   ( 7 4   п р и з н а к а )  
 
Н а б о р  п р о т о т и п о в  
Н а б о р  д у б л е р о в  
 
( 5 0  п р и з н а к о в )  
  ( 2 4   п р и з н а к а )  
 
 
И с х о д н ы й  н а б о р   ( 1 1 8   п р и з н а к о в )  
 
Рис. 3.1. Структурная схема иерархической зависимости признаков  
на базе ПДПР 
 
Косвенный дубль первого рода (КДПР) 
Для определения косвенного дубля первого рода необходимо воспользо-
ваться  задачником,  в  состав  которого  входит  весь  набор  признаков  M  и  пере-
вести признаки-прототипы в разряд результатов (см. рис. 2.3), обучить сеть ре-
шать  задачу  вычисления  этих  результатов  на  выборке  с  набором  M-M`  и  еще 
раз провести минимизацию количества признаков. 
Эксперименты  показали,  что  нейронная  сеть  не  может  качественно  ре-
шить поставленную задачу (прил. 3 табл. 2). Поэтому поиск косвенного дубля 
первого  рода  не  имеет  смысла – сеть,  неспособная  решить  задачу  на  базе  вы-
борки с набором признаков большим, чем набор дублеров, тем более не сможет 
его определить. Задача минимизации признакового пространства M-M` является 
нецелесообразной.  Таким  образом  получаем,  что  для  набора  прототипов  не 
представляется возможным определить набор дублеров с помощью косвенного 
дубля первого рода для исследуемой базы данных и нейронной сети с установ-
ленными характеристиками. 
 
Прямой дубль второго рода (ПДВР) 
Теперь определим прямые дубли второго рода (см. рис. 2.5) для каждого 
из прототипов и составим полный прямой дубль второго рода. Алгоритм дуб-
лирования такого рода подробно описан в главе 3. 
 

 
63
Результаты реализации этого алгоритма (см. прил. 3 табл. 3) показывают: 
•  для всех прототипов существуют прямые дубли второго рода; 
•  наибольшее количество дублеров (51 шт.) имеет прототип под номером 125 
“Рецидив инфаркта миокарда (REC_IM)”; 
•  наименьшее количество дублеров (17 шт.) у прототипа, порядковый номер 
которого  равен 60 “Пароксизмы  фибрилляции  предсердий  на  ЭКГ  при  по-
ступлении (n_r_ecg_p_05)”; 
•  чаще  всего (49 раз)  дублером  является  признак  под  номером 122 “Разрыв 
сердца (RAZRIV)”; 
•  а реже всех (1 раз) участвуют в дублях признаки 11 “Длительность течения 
артериальной гипертензии (DLIT_AG)” и 92 “Время, прошедшее от начала 
ангинозного приступа до поступления в стационар (TIME_B_S)”; 
•  двадцать один признак вообще не принимает участия в дублях и не входит в 
состав прототипов; 
•  полный прямой дубль второго рода состоит из 97 дублеров, что составляет 
82% от количества первоначального набора признаков; 
•  так как все прототипы выступают и в роли дублеров, то набор повышенной 
надежности будет соответствовать полному прямому дублю второго рода; 
•  для каждого из прототипов можно построить схему зависимости признаков 
(например, для признака под порядковым номером 60 и 96 в исходной вы-
борке схема зависимостей изображена на рис. 3.2). 
 
РЕЗУЛЬТАТ 
Набор повышенной надежности  
(97 признаков) 
Полный прямой дубль второго рода 
(97 признаков) 
 
Другие дубли 
Дубль для признака 
№96 (20 признаков) 
Минимальный набор 
(50 признаков) 
Дубль для признака 
№60 (17 признаков) 
Рис. 3.2. Иерархическая структура зависимости признаков на базе ПДВР 
 

 
64
Косвенный дубль второго рода (КДВР) 
Согласно процессу формирования набора повышенной надежности на ба-
зе косвенного дубля второго рода (см. рис. 2.6) выполняем эксперименты, в ко-
торых последовательно переводим каждый из прототипов в разряд результатов 
и находим минимальный набор признаков, способный вычислять его значение. 
При этом работа выполняется на выборке с набором признаков M-1 без участия 
исходного  результата.  Совокупность  полученных  пятидесяти  дублей  данного 
вида  и  будет  являться  полным  косвенным  дублем  второго  рода.  Полученные 
результаты дублирования (см. прил. 3 табл. 4) выглядят следующим образом: 
•  нейронная сеть способна вычислять значения прототипов и определить ми-
нимальные наборы для этих вычислений; 
•  полный косвенный дубль второго рода включает в себя 100 дублеров; 
•  наибольшее  количество  дублеров (42 штук)  имеет  прототип  номер 109 
“Введение лидокаина в ОРиИТ (LID_S_N)”; 
•  наименьшее количество дублеров (2 штуки) у прототипа номер 76 “Прове-
дение фибринолитической терапии целиазой 750 тыс. ЕД (fibr_ter_01)”; 
•  чаше всего в роли дублера (25 раз) выступает признак под номером 60 “Па-
роксизмы  фибрилляции  предсердий  на  ЭКГ  при  поступлении 
(n_r_ecg_p_05)”; 
•  а  реже (1 раз) – признаки  под  номерами 84 “Содержание  К+  в  сыворотке 
крови (K_BLOOD)”, 86 “Содержание Na в сыворотке крови (Na_BLOOD)” и 
90 “Содержание лейкоцитов в крови (×109 /л) (L_BLOOD)”; 
•  все прототипы хотя бы один раз входят в состав дублей, поэтому набор по-
вышенной  надежности  будет  соответствовать  полному  косвенному  дублю 
второго рода. 
Анализируя  полученные  дубли  можно  определить  набор  признаков,  ко-
торые  не  принимают  участи  в  процессах  дублирования  информации  (см. 
прил. 3 табл. 5). Их число составило 18 штук, так же как и для косвенного дуб-
ля  второго  рода,  который  содержит  наибольшее  количества  признаков.  Схема 
иерархической структуры пространства признаков приведена на рис. 3.3. 
 

 
65
 
 
 
Н абор  
прототипов  
(50 признаков) 
 
 
П олны й косвенны й дубль  
второго рода, он ж е  
набор признаков повы ш енной  
надеж ности (100 признаков) 
 
 
И сходны й набор (118 признаков) 
 
Рис. 3.3. Иерархическая структура признакового пространства на базе КДВР 
 
Следующим  этапом  проводимых  экспериментов  является  анализ  устой-
чивости  нейросетевых  решений  на  различных  наборах  повышенной  надежно-
сти к искажениям входной информации. 
 
3.4.  Оценка  качества  решения  задачи  классификации  в  случае  
искажения информации для различных наборов признаков 
 
Сформируем  наборы  повышенной  надежности  на  базе  различных  видов 
дублей с помощью объединения набора прототипов и соответствующего дубля. 
В итоге состав различных наборов повышенной надежности выглядит следую-
щим образом: 
• S1ппн  - состоит из 75 признаков; 
• S1кпн  -  отсутствует,  так  как  нейронная  сеть  не  может  решить  задачу  одно-
временного вычисления всего набора прототипов; 
• S2ппн  - включает в себя 97 признаков, количество которых совпадает с коли-
чеством полного прямого дубля второго рода; 
• S2кпн  - в его состав вошло 100 признаков, что соответствует полному дублю. 
Для проведения экспериментов с искаженной информацией, сформируем 
три выборки на базе исходного задачника. В первой выборке внесем искажения 
 

 
66
информации  в  наиболее  информативный  признак  (номер 122) в 53 объекта 
(10%  от  общего  количества).  Во  второй  выборке – в  произвольных  местах  в 
тринадцати прототипах и том же объеме примеров (686 искажений). В третьей 
– в 50% прототипах (1325 искажений).  
Протестируем  решение  задачи  нейрсетью  по  следующим  направлениям: 
количество правильных ответов, количество неуверенных ответов и количество 
неправильных ответов для каждого набора в отдельности. 
Результаты экспериментов показывают (табл. 3.3), что искажения инфор-
мации  не  влияют  на  качество  классификации  по  задачнику  со  всем  набором 
признаков  и  с  наборов  повышенной  надежности,  основанном  на  косвенном 
дубле  второго  рода.  Однако  качество  решений  задачи  на  базе  других  наборов 
признаков ухудшается в зависимости от роста количества искажений. 
 
Таблица 3.3 
Результаты тестирования нейросети по выборкам с искаженной информацией 
Значение оценки в случае: 
Вид 
Характер 
на-
отсутствия 
искажений 
искажений 
оценки 
искажений в 
бора 
искажений 
10% прототи-
50% прототи-
122 признаке 
пов 
пов 
Правильно 
529 (100%)
529 (100%) 
529 (100%) 
529 (100%) 
  М 
Неуверенно 
0 (0%) 
0 (0%) 
0 (0%) 
0 (0%) 
Неправильно 
0 (0%) 
0 (0%) 
0 (0%) 
0 (0%) 
Правильно 
529 (100%)
518 (97,92%) 
523 (98,87%) 
507 (95,84%) 
  М`  Неуверенно 
0 (0%) 
9 (1,7%) 
0 (0%) 
16 (3,03%) 
Неправильно 
0 (0%) 
2 (0,38%) 
6 (1,13%) 
6 (1,13%) 
Правильно 
529 (100%)
529 (100%) 
527 (99,62%) 
524 (99,06%) 
 
Неуверенно 
0 (0%) 
0 (0%) 
1 (0,19%) 
3 (0,56%) 
S1ппн Неправильно 
0 (0%) 
0 (0%) 
1 (0,19%) 
2 (0,38%) 
Правильно 
529 (100%)
528 (99,81%) 
529 (100%) 
528 (99,81%) 
 
Неуверенно 
0 (0%) 
1 (0,19%) 
0 (0%) 
0 (0%) 
S2ппн Неправильно 
0 (0%) 
0 (0%) 
0 (0%) 
1 (0,19%) 
Правильно 
529 (100%)
529 (100%) 
529 (100%) 
529 (100%) 
 
Неуверенно 
0 (0%) 
0 (0%) 
0 (0%) 
0 (0%) 
S2кпн Неправильно 
0 (0%) 
0 (0%) 
0 (0%) 
0 (0%) 
 
Более  того,  из  таблицы  видно,  что,  по  сравнению  с  качеством  решения 
задачи сетью по минимальному набору признаков, наборы повышенной надеж-
 

 
67
ности на базе каждого из дублей по праву носят свое название, так как резуль-
таты работы нейронной сети в условиях искажения информации в базе данных 
лучше, чем в случае с набором прототипов. А наиболее зависимым от точности 
данных оказалось решение нейронной сети, основанное на минимальном набо-
ре признаков (на прототипах) не содержащем дублеров информации.  
Таким образом можно сказать, что для решения поставленных задач наи-
более оптимальным набором признаков, позволяющих максимально удовлетво-
рить  все  условия  задачи,  является  выборка,  включающая  в  себя  набор  повы-
шенной  надежности  на  базе  косвенного  дубля  второго  рода.  Использование 
этого  дубля  удовлетворяет  условию  устойчивости  решения  к  искажениям  во 
входных данных и сокращению числа входных признаков (на 15%). 
 
Выводы к главе 3 
 
1.  Применение дублирования при решении задач классификации показало, что 
выборки, с большим количеством признаков, содержат не только минималь-
ный набор признаков, но некоторые виды дублирующих наборов. А на осно-
ве выявленных видов дублирующих наборов четко выстраивается структур-
ная зависимость в пространстве признаков. 
2.  Эксперименты показали, что менее устойчивыми к искажениям информации 
являются  нейросетевые  системы,  работающие  на  выборке  с  минимальным 
набором признаков. Системы же, решение задачи в которых основано на на-
борах повышенной надежности, в меньшей степени зависят от искажений во 
входных данных. 
3.  Анализ  состава  наборов  признаков  (минимального,  дублирующих  и  повы-
шенной надежности) показал, что  ряд из них не входит ни в  минимальный 
набор,  ни  в  набор  дублеров,  следовательно,  они  не  содержат  информации, 
необходимой для решения задачи. При этом анализ изменения ошибки клас-
сификации  доказал,  что  эти  признаки  являться  зашумляющими,  то  есть  ка-
чество решение задачи снижается, если они присутствуют в выборке. 
 

 
68
ГЛАВА 4. ДУБЛИРОВАНИЕ ИНФОРМАЦИИ НА ПРИМЕРЕ 
РЕШЕНИЯ ЗАДАЧИ ПРОГНОЗИРОВАНИЯ 
РЕЗУЛЬТАТИВНОСТИ ТРУДА ПРЕПОДАВАТЕЛЯ 
4.1. Характеристика информации и постановка задачи  
 
Для проведения исследований в этом направлении воспользуемся инфор-
мацией, предоставленной сотрудниками отдела кадров Красноярского государ-
ственного торгово-экономического института.  
Данная  информация  оформлена  в  виде  таблицы,  которая  состоит  из 51 
примера и 73 признаков. Каждый исходный признак в предложенной базе дан-
ных имеет свою определенную числовую кодировку, как правило, это 1 или 0 
(“Да” или “Нет”).  Эти признаки, характеризующие претендента на должность, 
делятся на три группы (см.прил. 4): 
•  первая  группа  характеризует  деловые  и  профессиональные  качества  (стаж 
работы, количество публикаций, частоту сменяемости рабочих мест и т.д.), 
•  вторая и третья группы (это графоаналитическая экспертиза и анализ внеш-
него вида по фотографии) определяют  характер  и психологические особен-
ности претендента.  
Учитывая специфику работы преподавателя, результатом для оценки его 
деятельности  в  данном  случае  является  средний  балл  анкеты  “Преподаватель 
глазами студентов” (см. прил. 5). Результат имеет формат числа, которое лежит 
в интервале от 0 до 5 (например, 3,  4,7 или 3,5). Эти данные призваны помогать 
руководителю  организации  в  принятии  решений  об  отборе  персонала  на  ва-
кантную должность, то есть прогнозировать отношения преподаватель-студент 
на  начальном  этапе  управления  персоналом.  Решение  такой  задачи  связано  с 
проблемой определения результатов труда претендента и выявления его психо-
логических особенностей для работы в условиях конкретной организации [10].  
Однако  это  решение  затруднено  относительно  большим  количеством 
признаков  для  визуального  анализа  информации.  А  статистической  обработке 
предложенная таблица данных не поддается, так как нарушено основное прави-
 

 
69
ло,  предъявляемое  к  выборке:  количество  примеров  должно  быть  намного 
больше, чем количество признаков. И, хотелось бы отметить, что большинство 
современных организаций на сегодняшний день имеют достаточно большое ко-
личество невостребованной информации такого рода.  
Поэтому,  прежде  всего,  возникла  задача  выбора  метода  обработки  ин-
формации, способного вычислять результат с точностью ±0,3 балла, минимиза-
ция  исходного  набора  признаков,  а  затем  задача  обработки  данной  таблицы  с 
помощью дублирования информации для получения дополнительных сведений 
и повышения надежности системы от неумышленных искажений информации. 
Учитывая все требования, предъявляемые к информации управленческо-
го  характера,  информационное  и  техническое  обеспечение  современных  орга-
низаций, воспользуемся нейросетевыми технологиями как инструментом для ее 
анализа и обработки. Все эксперименты основаны на возможностях нейросете-
вого имитатора NeuroPro и проводятся по следующей схеме: 
1.  Обучение нейронной сети, способной наиболее точно вычислять результат. 
2.  Снижение  размерности  исследуемого  признакового  пространства  с  целью 
отбора  наиболее  информативных  показателей,  визуализация  данных  и  сжа-
тие массивов обрабатываемой и хранимой информации. 
3.  Реализация алгоритмов дублирования как способа “защиты” выборки от не-
умышленных искажений информации. 
 
4.2. Обучение сети и минимизация количества признаков 
 
Для начала обучим нейронную сеть по базе данных, сформированной на 
основе выборки, оценим ошибку вычислений и минимизируем количество при-
знаков.  Результаты  тестирования  (табл. 4.1) созданной  трехслойной  сети  с  ха-
рактеристикой 0,1 и количеством нейронов равному 10 в каждом слое (структу-
ра предложена программой) показывают, что выбранная нейронная сеть вычис-
ляет  результат  по  всем  предложенным  примерам  выборки,  при  этом  значение 
средней ошибки вычислений равно 0,0988127, а значение максимально ошибки 
 

 
70
– 0,189229. Это  говорит  о  том,  что  данная  сеть  вычисляет  результат  на 40% 
точнее,  чем  требовалось  в  задаче.  Следовательно,  нейросеть  способна  обраба-
тывать предложенную таблицу данных, более того, она способна предсказывать 
результат  с  меньшим  отклонением  от  реального  значения.  Этот  эксперимент 
открывает еще одну область применения нейросетевых технологий – оценка ре-
зультатов деятельности персонала в социально-экономических системах. 
 
Таблица 4.1 
Результаты тестирования нейронной сети по всему набору признаков 
   
   
№ при-
Прогноз 
№ при-
Прогноз 
 
Ответ
Ошибка 
Ответ 
Ошибка 
мера 
сети 
мера 
сети 
 
1   4,7  4,564834  0,1351664
27 
3,8 3,933739 -0,1337394
 
2   4,6  4,511941 0,08805857
28 
4,6 4,567887 0,0321127
 
3   4,5  4,586222 -0,08622169
29 
3,3 3,488559 -0,1885585
 
4   4,4  4,212804  0,1871957
30 
4,3 4,281864 
0,01813631
 
5   3,7  3,531701  0,1682987
31 
4,5 4,6522 
-0,1522002
 
6   4,2  4,250319  -0,050319
32 
3,8 3,769537 
0,03046327
 
7   4,6  4,505969 0,09403095
33 
4,7 4,572262 0,1277377
 
8   3,6  3,635629 -0,03562894
34 
4,5 4,602953 -0,1029534
 
9   3,5  3,619191  -0,1191907
35 
4,3 4,362319 
-0,06231947
 10   4,6  4,517105  0,0828949
36 
4 3,865637 0,1343634
 11   3  3,088985 
-0,08898497
37 
3,7 3,668845 
0,03115458
 12   4,7  4,634391 0,06560917
38 
3,7 3,752254 
-0,05225425
 13   4  4,129437  -0,129437
39 
4,1 4,241192 -0,1411923
 14   4  4,147848 -0,1478481
40 
4,3 4,205741 
0,09425907
 15   4,5  4,349964  0,1500363
41 
3,7 3,510771  0,189229
 16   4,6  4,679758 -0,07975759
42 
4,3 4,392426 
-0,09242649
 17   4  3,951845 0,04815459
43 
4,3 4,321236 
-0,02123613
 18   4,2 
4,15826 0,04173965
44 
3,4 3,49298 
-0,09298048
 19   2,8  2,816724 -0,01672406
45 
4 4,170143 
-0,1701431
 20   3,4 
3,3422  0,0578002
46 
4,8 4,667688 0,1323116
 21   4,1  4,250048  -0,1500482
47 
4,7 4,582488 0,1175124
 22   4,3  4,142254  0,1577461
48 
4 4,18909 
-0,1890898
 23   4,3  4,263924 0,03607588
49 
4,7 4,617945 
0,08205529
 24   3,4  3,390842 0,00915756 
50 
4,1 4,180614 
-0,08061447
 25   4,9  4,722338  0,1776623
51 
4,2 4,192139 
0,00786133
 26   3,6  3,441244  0,1587563
 
 
   
 
  Всего: 51;        Правильно:  51 (100%); 
Неправильно: 0 (0%); 
  Средняя ошибка: 0,0988127; 
  Максимальная ошибка: 0,189229. 
   
   
 
 

 
71
Так  как  программа NeuroPro позволяет  автоматически  сокращать  число 
входных сигналов и формировать минимальные наборы признаков, то, исполь-
зуя данную возможность, создадим такой набор и еще раз исследуем точность 
вычисления результирующей характеристики. 
После  автоматического  сокращения  числа  входных  сигналов  из 73 при-
знаков  программа  оставила  всего 11 при  достаточно  хорошем  результате  вы-
числений. В табл. 4.2 приведен перечень признаков (прототипов), вошедших в 
минимальный набор и распределенных в порядке их значимости.  
 
Таблица 4.2 
Минимальный набор признаков 
Порядковый 
Значимость 
номер при-
Характеристика признака 
признака 
знака 
18  Последняя работа педагогическая 
1
30  Буквы крупные 0,876149
35  Прямое написание 0,803882
29  Буквы средние 0,788738
45  Длинные петли нижней части букв 0,748162
57  Лицо круглое 0,737079
54  Плавный поток ровных букв 0,736483
50  Экстравагантные заглавные буквы 0,681887
22  Обучение в аспирантуре/докторантуре 0,669261
51  Разные по размеру буквы 0,606694
10  Проживает рядом с работой 0,505956
 
Результаты  тестирования  сети  после  сокращения  количества  входных 
сигналов (табл. 4.3) показывают, что сеть успешно предсказывает результат по 
всем примерам, но качество вычислений ухудшается (по сравнению с вычисле-
ниями на базе исходного набора признаков) на 10% (табл. 4.4). Однако макси-
мальное значение ошибки не выходит за пределы допустимых отклонений, бо-
лее  того,  результат  предсказывается  с  точность  на 30% лучше  заданной  (±0,3 
балла),  поэтому  при  необходимости  можно  воспользоваться  лишь  минималь-
ным набором признаков для оценки результативности деятельности преподава-
телей.  
 

 
72
Таблица 4.3 
Результаты тестирования нейронной сети по минимальному набору признаков 
   
 
№ 
№ 
Прогноз 
Прогноз 
  при- Ответ 
Ошибка 
при- Ответ
Ошибка 
сети 
сети 
мера 
мера
 1 
4,7 
4,501318  0,1986815
27
3,8
3,97676 -0,1767599
 2 
4,6 
4,407734  0,1922656
28
4,6
4,51272 
0,08728037
 3 
4,5 
4,351751  0,1482491
29
3,3 3,401172 -0,1011724
 4 
4,4 
4,596153 -0,1961533
30
4,3 4,165644 0,1343558
 5 
3,7 
3,548701  0,1512994
31
4,5 4,475142 0,02485752
 6 
4,2 
4,122122 0,07787819
32
3,8 3,980754 -0,1807539
 7 
4,6 
4,486978  0,1130219
33
4,7
4,50788 0,1921198
 8 
3,6 
3,751646 -0,1516463
34
4,5 4,346823 0,1531768
 9 
3,5 
3,592304 -0,09230375
35
4,3 4,459353 -0,159353
 10 4,6 
4,426985  0,1730152
36
4 3,887701  0,112299
 11  3 
3,184931  -0,184931
37
3,7 3,887701 -0,187701
 12 4,7 
4,596153  0,1038467
38
3,7 3,711635 -0,01163511
 13  4 
3,956284  0,04371643
39
4,1 4,227572 -0,1275724
 14  4 
4,143391  -0,1433911
40
4,3 4,175501 0,1244987
 15 4,5 
4,703939  -0,203939
41
3,7 3,669543 0,03045673
 16 4,6 
4,479212  0,1207877
42
4,3 4,407734 -0,1077344
 17  4 
3,920425  0,0795753
43
4,3 4,124745 0,1752546
 18 4,2 
4,031225  0,1687753
44
3,4
3,37266 0,02734032
 19 2,8 
2,861704  -0,06170363
45
4 4,172176 -0,1721764
 20 3,4 
3,426845  -0,02684507
46
4,8 4,613778 0,1862219
 21 4,1 
4,271272  -0,1712722
47
4,7 4,684228 0,01577206
 22 4,3 
4,248971  0,05102854
48
4 4,195423 -0,1954231
 23 4,3 
4,271272  0,02872782
49
4,7 4,536718 0,1632816
 24 3,4 
3,224185  0,1758145
50
4,1 4,179564 -0,07956447
 25 4,9 4,69099  0,2090096
51
4,2
4,10666 0,09334011
 26 3,6 
3,426845  0,1731549
 
   
 
   
 
  Всего: 51;        Правильно:  51 (100%); 
Неправильно: 0 (0%); 
  Средняя ошибка: 0,1266889; 
Максимальная ошибка: 0,290096. 
   
 
   
 
 
Таблица 4.4 
Сравнение ошибок вычислений до и после минимизации 
Вид ошибки 
Значение 
до минимизации 
после минимизации 
Средняя ошибка 0,0988127 
0,1266889
Максимальная ошибка 0,189229 
0,2090096
 

 
73
Ухудшение качества вычислений говорит о том, что сеть, пренебрегая ча-
стью признаков, теряет некоторое количество полезной информации. И эти по-
тери окажут существенное влияние в процессе работы с выборкой в случае воз-
никновения искажений в ряде входных данных. Данное замечание весьма важ-
но, так как деятельность кадровых служб не исключает внесения сотрудником 
неумышленных ошибок во время внесения дополнительных примеров, анализа 
и обработки данной таблицы. 
Поэтому  предлагается  проанализировать  взаимозависимость  данных  с 
помощью  различных  алгоритмов  дублирования  и  определить  наиболее  опти-
мальный вариант окончательного набора признаков, способный удовлетворить 
основные требования по сокращению выборки и точности вычислений. 
 
4.3. Прямой дубль первого рода (ПДПР) 
 
Согласно  алгоритму  формирования  прямого  дубля  первого  рода  (см. 
рис. 2.2)  определим  набор  дублеров  и  набор  повышенной  надежности  для  по-
лученных выше прототипов. 
Из  первоначального  набора  признаков  выключаем  (выбрасываем)  все 
признаки, принадлежащие минимальному набору. Обучаем сеть решать задачу 
на выборке с оставшимися признаками и, минимизируя их количество, находим 
дублеров исключенной информации. 
В результате реализации данного алгоритма получаем дубль (см. прил. 6 
табл. 1), в состав которого входит 19 признаков: 4, 6, 12, 14, 19, 20, 25, 28, 34, 
41, 44, 49, 55, 56, 58, 59, 65, 68, 70 (характеристику  признаков  см.  в  прил. 4). 
При этом максимальная ошибка вычислений равна 0,207231 и средняя ошибка 
– 0,130369. По сравнению с первоначальным набором признаков качество вы-
числения  результата  ухудшилось  на 10%, а  по  сравнению  же  с  результатами 
экспериментов  по  минимальному  набору  оно  улучшилось  на 0,5%. Такое  зна-
чение ошибок не выходит за пределы требуемой в задаче точности вычислений, 
поэтому, даже используя только этот набор дублеров, сеть способна решать по-
 

 
74
ставленную  задачу.  Таким  образом,  полученный  минимальный  набор  призна-
ков, состоящий из 19 штук, является прямым дублем первого рода и показыва-
ет, какие признаки стоит оставить для дальнейшей работы с выборкой, а каки-
ми можно пренебречь. 
Формируя окончательный набор признаков, полученный с помощью ком-
бинирования  набора  прототипов  и  дублеров,  получаем  набор  повышенной  на-
дежности, в состав которого вошло 30 признаков. Решение задачи, основанное 
на данном наборе, показывает, что нейронная сеть предсказывает результат на 
5% лучше, чем по набору прототипов, на 4% - по сравнению с набором дубле-
ров и на 6% хуже по сравнению с результатом максимальной ошибки вычисле-
ний по всему набору. 
Проверим, действительно ли данный набор признаков можно назвать на-
бором  повышенной  надежности.  Для  этого  выбираем  несколько  признаков  из 
минимального набора, наиболее подверженных неумышленным искажениям, и 
по некоторому числу примеров заносим в эти признаки неверную информацию. 
После этого решаем задачу прогнозирования результата на искаженном задач-
нике  и  сравниваем  точность  вычислений  результата,  основанных  на  исходном 
задачнике и искаженном. 
Проверка надежности 
Внесем  последовательно  искажения  информации  в  наиболее  значимый 
признак (18) из минимального набора, в половину признаков минимального на-
бора и во всю совокупность признаков минимального набора. Определим сред-
нюю ошибку вычислений для каждой позиции в сетях с минимальным набором 
признаков и с набором повышенной надежности. Сравним среднее отклонение 
ошибок вычислений по минимальному набору и по набору повышенной надеж-
ности (табл. 4.5). 
Из таблицы видно, что более точными вычислениями даже после искаже-
ния  информации  являются  те,  которые  принадлежат  выборке  с  набором  при-
знаков повышенной надежности. Вследствие этого, набор такого рода действи-
тельно  называется  набором  повышенной  степени  надежности  и  оправдывает 
свое назначение. 
 

 
75
Таблица 4.5 
Результаты вычислений на основе выборок с искаженной информацией 
 
Значение ср. ошибки 
Измене-
Искажение  Искажения в 
Искаже-
ние ср. 
в 10% про-
50% прото-
Набор 
Исходное
ние в 18 
ошибки 
тотипов (92 
типов (459 
признаке 

искажения)
искажений) 
Минимальный  0,1266889
0,131359
0,1291419
0,1483551
≈+7,6% 
Повышенной 
надежности  на  0,108108 0,1094385
0,109233
0,110633
≈+1,5% 
базе ПДПР 
 
4.4. Косвенный дубль первого рода (КДПР) 
 
Решение задача косвенного дубля первого рода состоит в том, чтобы по 
набору  оставшихся  признаков  (за  минусом  признаков  минимального  набора) 
восстановить значения признаков начального минимального множества прото-
типов (см. рис. 2.3). 
Для решения данной задачи необходимо перевести все признаки, принад-
лежащие изначально минимальному набору, в разряд “результаты”. (При этом 
исходный результат прогнозирования не используется.) Далее необходимо обу-
чить сеть и провести минимизацию входных сигналов (признаков). Этот набор 
и будет являться косвенным дублем первого рода. 
После пошагового выполнения данного процесса решения задачи получа-
ем дубль (см. прил. 6 табл. 2), состоящий из 16 признаков: 4, 5, 13, 15, 21, 33, 
34, 41, 47, 48, 49, 52, 53, 56, 59, 63 (характеристику признаков см. в прил. 4). 
Так как все 16 признаков входят в набор косвенного дубля первого рода, 
то окончательный набор повышенной надежности для решения задачи прогно-
зирования исходного результата будет состоять из минимального набора плюс 
косвенный дубль первого рода. В  эту совокупность входит 27 признаков. При 
этом максимальная ошибка составляет 0,204431, а средняя ошибка вычислений 
равна 0,095828. 
 

 
76
Качество вычисления результата имеет следующее соотношение: оно ху-
же на 8% по сравнению с решением задачи по всему набору признаков и лучше 
на 2% по сравнению с вычислениями по набору прототипов. 
Проверка надежности 
Для  того  чтобы  определить  зависимость  средней  ошибки  вычислений  в 
исходном  минимальном  и  в  окончательном  наборе  признаков  воспользуемся 
одной и той же базой данных с искаженной информацией и определим значе-
ние средней ошибки (табл. 4.6). 
Таблица 4.6 
Результаты вычислений на основе выборок с искаженной информацией 
 
Значение ср. ошибки 
 
Искажение  Искажения в 
Искаже-
Изменение 
в 10% про-
50% прото-
Набор 
Исходное  ние в 18 
ср. ошибки, 
тотипов (92 
типов (459 
признаке 

искажения)
искажений) 
Минимальный  0,1266889 0,131359
0,1291419
0,1483551 
≈+7,6%
Повышенной 
надежности 
0,095828 0,1011221
0,1019633
0,1021166 
≈+6,2%
на базе КДПР 
 
Результаты  экспериментов,  отраженные  в  данной  таблице,  показывают, 
что более точными вычислениями даже после искажения информации являются 
те, которые принадлежат выборке с набором признаков повышенной надежно-
сти.  Хотя  искажения  в  случае  применения  косвенного  дубля  первого  рода  и 
влияют  на  качество  вычислений  результата  больше,  чем  при  использовании  в 
окончательном  наборе  признаков  прямого  дубля  первого  рода,  тем  не  менее, 
устойчивость к условиям искажений данных системы достигается. 
 
4.5. Прямой дубль второго рода (ПДВР) 
 
По своей сути алгоритм определения прямого дубля второго рода анало-
гичен  определению  прямого  дубля  первого  рода.  Единственным  отличием  яв-
ляется то, что при определении прямого дубля второго рода исключается не вся 
 

 
77
совокупность  признаков  минимального  набора,  а  лишь  тот  признак  (или  та 
часть признаков), дубль для которого необходимо найти (см. рис. 2.5). 
В данном случае, исходя из условия поставленной задачи, требуется най-
ти 11 прямых  дублей  второго  рода.  Вследствие  этого  и  окончательный  набор 
признаков будет состоять из минимального набора (11 признаков) плюс дубли 
для всех признаков минимального множества. 
В  следующей  серии  экспериментов  найдем  прямые  дубли  второго  рода 
для  каждого  из  прототипов,  определим  полный  прямой  дубль  второго  рода  и 
сформируем окончательный набор признаков повышенной надежности. 
В  состав  множества  повышенной  надежности  вошло 55 признаков  (см. 
прил. 6 табл. 3) и видно, что для данной выборки полный прямой дубль второго 
рода является и множеством повышенной надежности. Вероятно, что аналогич-
ный результат будет получен для большинства выборок. И очевидно, что пол-
ный прямой дубль второго рода может содержать в себе количество признаков 
меньшее, чем множество повышенной надежности, и что множество повышен-
ной надежности будет больше тогда, когда полный прямой дубль второго рода 
не содержит хотя бы один из признаков минимального набора. 
Из таблицы видно: 
•  20 признаков не вошли в состав набора повышенной надежности (8, 9, 36, 
37, 38, 39, 40, 47, 58, 60, 61, 64, 66, 67, 69, 70, 73, 75), 
•  наибольшее  количество  дублеров  имеет  прототип  под  номером 45 
“Длинные петли нижней части букв” – 22 дублера, 
•  наименьшее количество дублеров (10 штук) у прототипа под номером 50 
“Экстравагантные заглавные буквы”, 
•  за исключением признака под номером 35 “Прямое написание”, все про-
тотипы в некоторых случаях являются так же и дублерами, 
•  наиболее часто встречающимся среди дублеров является признак под но-
мером 28 “Буквы маленькие”, его появление зафиксировано в девяти дуб-
лях из одиннадцати. 
 

 
78
Данная информация несет дополнительные сведения о наборе признаков 
и их взаимосвязях. Например, на базе набора прототипов можно сформировать 
выборку с первичной информацией в данных, а на базе набора дублеров – вы-
борку  из  вторичной  информации.  Таким  образом,  получаем  своего  рода  “ин-
формационный фильтр”, который позволяет ранжировать данные в порядке их 
значимости для принятия решений. Что в свою очередь позволит руководителю 
организации сократить время на процесс отбора кадров в целом. 
Проверка надежности 
Определим  зависимость  средней  ошибки  вычислений  в  исходном  мини-
мальном и в множестве повышенной надежности с помощью баз данных с ис-
каженной информацией. То есть на этих базах последовательно обучим сеть с 
минимальным  набором  признаков  и  сеть,  построенную  на  основе  множества 
повышенной надежности S2ппн. В первой базе данных заложены искажения ин-
формации в 18 признаке по некоторым примерам, во второй – в 10% признаках, 
в третьей – в произвольно выбранном месте в 50% выборки. Определим изме-
нения среднего значения ошибки вычислений и сравним, как же искажения ин-
формации влияют на качество вычислений в случае с минимальным множест-
вом признаков и множеством повышенной надежности S2ппн (табл. 4.7). 
Таблица 4.7 
Результаты вычислений на основе выборок с искаженной информацией 
 
Значение ср. ошибки 
 
Искажение  Искажения в 
Искаже-
Изменение 
в 10% про-
50% прото-
Набор 
Исходное  ние в 18 
ср. ошибки,
тотипов (92 
типов (459 
признаке 

искажения) 
искажений) 
Минимальный  0,1266889 0,131359
0,1291419
0,1483551
≈+7,6%
Повышенной 
надежности 
0,0999919 0,1011991
0,1012838
0,1021598
≈+1,5%
на базе ПДВР 
 
Что  касается  оценки  качества  вычислений,  то  тестирование  нейронной 
сети показало: изменение значения средней ошибки вычислений по набору по-
 

 
79
вышенной надежности, основанном на прямом дубле второго рода, в случае ис-
кажения информации меньше, чем на базе набора прототипов. 
Как и для рассмотренных дублей, результаты экспериментов показывают, 
что более надежными являются множества, в состав которых входит объедине-
ние  минимального  набора  признаков  и  дубли.  Так  как  вычисление  результата 
на их основе происходит более точно. 
 
4.6. Косвенный дубль второго рода (КДВР) 
 
Для  определения  косвенного  дубля  второго  рода  для  каждого  признака 
проведем  серию  экспериментов  по  схеме,  изображенной  в  главе 2 на  рисун-
ке 2.6.  То  есть  для  каждого  признака  из  минимального  множества  выполним 
серию действий: 
1.  Переведем  признак  в  разряд  “результатов”  и  постараемся  предсказать  его 
значение с помощью вновь обученной нейронной сеть. 
2.  Найдем минимальный набор признаков для выборки такого рода, который и 
будет  являться  косвенным  дублем  второго  рода  для  этого  признака-
результата. 
3.  Повторив  последовательно  действия 1 и 2 M`  раз  найдем  дубли  для  всех 
признаков из минимального множества. 
4.  С  помощью  объединения  всех  дублей  получим  полный  косвенный  дубль 
второго рода и на его основе множество повышенной надежности S2кпн
Результаты  экспериментов  по  формированию  косвенного  дубля  второго 
рода для каждого признака минимального множества показывают, что для дан-
ной  выборки  такие  дубли  существуют  (см.  прил. 6 табл. 4).  При  этом  самое 
большое количество дублеров имеет дубль для 18-го признака “Последняя ра-
бота педагогическая” (17 дублеров), а самое маленькое – КДВР для 35-го при-
знака  “Прямое  написание” (6 дублеров).  Анализируя  эти  результаты  можно 
сказать, что количество дублеров в дубле зависит от того, какую информацию 
они в себе содержат. То есть, можно сказать, что для 35-го признака существует 
 

 
80
всего  шесть  дублеров,  способных  частично  заменить  его  отсутствие  и  “под-
страховать”  вычисление  результата  в  основной  выборке  в  случае  неумышлен-
ного искажения информации во входных данных. 
Несмотря  на  такие  отличия  в  количестве,  полный  косвенный  дубль  вто-
рого рода содержит в себе 59 признаков, что составляет 81% от общего количе-
ства  признаков.  А  окончательный  же  набор  еще  больше,  так  как  в  его  состав, 
кроме дублеров, входит и минимальный набор. Вследствие этого он состоит из 
61 признака, а это 85% от общего числа признаков. При этом 12 признаков (9, 
26, 36, 37, 38, 39, 40, 64, 66, 69, 72, 73) не участвуют в процессе дублирования. 
Возможно они являются шумовыми. 
Наибольшее  количество  раз  дублем  является  признак  под  номером  14 
“Наличие курсов повышения квалификации”, он встречается в этой роли шесть 
раз.  А  вот  прототипы  под  номером 45 “Длинные  петли  нижней  части  букв”  и 
номером 50 “Экстравагантные заглавные буквы” в роли дублеров не выступают 
ни разу. 
Данный вид дублирования позволяет создать систему данных, способных 
вычислять значения прототипов и восстанавливать информационные пробелы. 
Более того, это свойство помогает вырабатывать рекомендации для усовершен-
ствования  отношений  преподаватель-студент.  Например,  зная  информатив-
ность  дублеров  можно,  варьируя  данными,  определить  изменение  значения 
прототипов и, как следствие, изменение результата. Это в свою очередь позво-
ляет давать общие рекомендации о качествах претендента, требующих коррек-
ции и адаптации к условиям конкретной организации. 
В  заключение  этих  экспериментов  с  косвенными  дублями  второго  рода 
остается  решить  только  один  вопрос:  на  самом  ли  деле  окончательный  набор 
признаков будет обладать повышенной надежность? 
Проверка надежности 
Как  и  в  случае  с  прямым  дублем  второго  рода  определим  зависимость 
средней  ошибки  вычислений  от  искажений  информации  для  минимального 
множества M` и для полученного окончательного набора (табл. 4.8). 
 
 

 
81
Таблица 4.8 
Результаты вычислений на основе выборок с искаженной информацией 
 
Значение ср. ошибки 
 
Искажение  Искажения в 
Искаже-
Изменение 
в 10% про-
50% прото-
Набор 
Исходное  ние в 18 
ср. ошибки,
тотипов (92 
типов (459 
признаке 

искажения) 
искажений) 
Минимальный  0,1266889 0,131359
0,1291419
0,1483551
≈+7,6% 
Повышенной 
надежности 
0,1142652 0,1155792
0,1178998
0,1199973
≈+3,1% 
на базе КДВР 
 
Из таблицы видно, что сеть, созданная на основе окончательного множе-
ства признаков, решает задачу более точно и более качественно, чем нейросеть 
использующая минимальный набор признаков. Она менее зависима от искаже-
ний  информации  в  признаках  прототипах,  чем  сеть,  основанная  на  минималь-
ном множестве и предыдущих видах дублей. Поэтому можно сказать, что полу-
ченный  окончательный  набор  признаков  действительно  может  называться  на-
бором повышенной надежности S2кпн
 
4.7. Итоговые результаты анализа 
 
Анализируя  составы  всех  наборов  повышенной  надежности  (см.  прил. 6 
табл. 5),  сформированных на основе  дублей различных видов, можно увидеть, 
что ни в один из них не вошли следующие признаки: 
•  №9 – Возраст младшего ребенка, 
•  №36 – Форма букв (-1 – угловатые, 0 – бесформенные, 1 – округлые), 
•  №37 – Строчки “ползут” (-1 – вниз, 0 – прямые, 1 – вверх), 
•  №38 – Размашистость почерка (-1 – сильная, 0 – средняя, 1 – легкая), 
•  №39 – Сила нажима (-1 – сильная, 0 – средняя, 1 – легкая),  
•  №40 – Стиль написания (-1 – раздельно, 0 – смешанный, 1 – слитно), 
•  №64 – Размер глаз (-1 - большие, 0 - средние, 1 - маленькие), 
 

 
82
•  №66 – Лоб (-1 - низкий, 0 - средний, 1 - высокий), 
•  №69 – Губы (-1 - тонкие, 0 - средние, 1 - пухлые), 
•  №73 – Телосложение (-1 - худощавое, 0 - среднее, 1 - крупное). 
Можно  предположить,  что  они  являются  “шумами”  и  отрицательно  воз-
действуют на процесс решения задачи. 
Проверим  данное  предположение  с  помощью  сравнения  ошибок  вычис-
лений  сети,  обученной  решать  задачу  на  выборке,  в  состав  которой  не  входят 
данный  ряд  признаков  и  сети,  решающей  задачу  по  всему  набору  признаков 
(назовем  такой  набор  сокращенным  набором).  Результаты  тестирования  (табл. 
4.9)  этого  эксперимента  действительно  доказывают  высказанное  предположе-
ние. Результат вычислений по сокращенному  набору признаков улучшился по 
сравнению с результатом по исходному набору признаков: минимальное значе-
ние ошибки вычислений сократилось на 16%, а значение максимальной ошибки 
– на 28%. 
Таблица 4.9 
Сравнение результатов обучения нейронных сетей с разным набором признаков 
Вид ошибки 
Значение ошибки обучения нейросети 
 
по всему набору  
по сокращенному набору 
признаков 
признаков 
Средняя ошибка 0,0988127
0,08263195
Максимальная ошибка 0,189229
0,13610845
 
А  качество  вычислений  в  случае  искажений  информации  во  входных 
данных при тех же условиях проверки, что и для всех наборов повышенной на-
дежности, еще выше (табл. 4.10). 
Таблица 4.10 
Результаты вычислений на основе выборок с искаженной информацией 
 
Значение ср. ошибки 
 
Искажение  Искажения в 
Искаже-
Изменение 
в 10% про-
50% прото-
Набор 
Исходное  ние в 18 
ср. ошибки,
тотипов (92 
типов (459 
признаке 

искажения) 
искажений) 
Минимальный  0,1266889 0,131359
0,1291419
0,1483551
≈+7,6% 
Сокращенный   0,08263195 0,0829849
0,0831748
0,0833973
≈+1% 
 

 
83
Таким  образом  получаем,  что  эти  десять  признаков  несут  в  себе  инфор-
мацию, отрицательно влияющую на качество работы нейронной сети и качест-
во решения ею поставленной задачи. 
На следующем этапе работы необходимо выяснить, какой из наборов по-
вышенной надежности удовлетворит требованиям изначально поставленной за-
дачи. 
Исходя  из  условия  задачи,  можно  выделить  три  основных  критерия  для 
выбора набора признаков: 
•  вычисление результата с точностью ±0,3; 
•  уменьшение размерности вектора входных сигналов; 
•  формирование такого окончательного набора признаков, который спо-
собен  повысить  устойчивость  вычисление  основного  результата  к  не-
умышленным искажениям информации. 
Обратим внимание на наборы повышенной надежности, сформированные 
на основе различных дублей (S1ппн, S1кпн, S2ппн, S2кпн). Условиям первого критерия 
удовлетворяют все наборы, а вот по отношению к остальным критериям набо-
ры расположились следующим образом: 
1.  S1ппн   - 30 признаков в наборе, изменение ошибки ≈+1,5%; 
2.  S1кпн   - 27 признаков в наборе, изменение ошибки ≈+6,2%; 
3.  S2ппн   - 55 признаков в наборе, изменение ошибки ≈+1,5%; 
4.  S2кпн   - 62 признака в наборе, изменение ошибки   ≈+3,1%. 
Учитывая то, что минимальный набор составляет 11 признаков и измене-
ние ошибки в случае искажения информации ≈+7,6%, то остановим свой выбор 
на наборе повышенной надежности, сформированном на основе прямого дубля 
первого рода. Таким образом, получаем окончательное решение - выборку, со-
стоящую  из 30 признаков,  где  результат  вычисляется  в  среднем  с  точностью 
±0,108108 в условиях искажений информации, а иерархическая структура зави-
симости признаков построена на базе трех уровней (рис. 4.1). 
Если  задаться  целью – еще  сократить  количество  признаков  и  при  этом 
создать  набор  повышенной  надежности,  то  можно  экспериментальным  путем 
 

 
84
определить  признаки  наиболее  подверженные  искажениям  информации  и  по-
строить для них дубли второго рода.  
 
 
 
 
 
Набор  
прототипов 
(11 признаков) 
 
 
 
Прямой дубль первого  
рода (19 признаков) 
 
 
 
 
Набор признаков повыш енной  
надежности на базе ПДПР 
 (30 признаков) 
 
 
 
 
Исходный набор (73 признака) 
 
 
Рис. 4.1. Иерархическая структура признакового пространства 
 
Таким образом, дублирование информации создает не только барьер ис-
кажениям информации во входных данных, но и является неплохим средствам 
анализа  структуры  пространства  признаков  с  использованием  нейросетевых 
подходов. С его помощью можно получать дополнительные знания о решаемой 
задаче, структуре данных и вырабатывать рекомендации для конкретной реали-
зации управленческих решений. 
Решая задачи дублирования информации, была рассмотрена еще одна об-
ласть  применение  нейросетевых  подходов  к  обработке  информации – область 
управленческой  деятельности  современных  организаций – оценка  результатов 
деятельности  преподавателя.  Эта  возможность  имеет  принципиальное  значе-
ние, так как в современных условиях существования большинство организаций, 
обладая  большим  количеством  информации,  не  способны  ее  использовать  по 
назначению. В основном это связано с “отсутствием статистики” на современ-
ных  российских  предприятиях  и  с  невозможностью  обработки  информации 
 

 
85
традиционными  методами  по  причине  ее  несоответствия  предъявляемым  тре-
бованиям. 
 
Выводы к главе 4 
 
1.  Результаты  обработки  информации  из  отдела  кадров  Красноярского  госу-
дарственного  торгово-экономического  института  открывают  еще  одну  об-
ласть  применения  нейросетевых  технологий – оценка  результатов  деятель-
ности персонала в социально-экономических системах. 
2.  Применение  дублирования  при  решении  задачи  прогнозирования  результа-
тивности деятельности преподавателя со студентами показывает, что данная 
выборка  содержат  не  только  минимальный  набор  признаков,  но  и  дубли-
рующие наборы: прямой дубль первого рода, косвенный дубль первого рода, 
прямой дубль второго рода и косвенный дубль второго рода.  
3.  Эксперименты  показали,  что  в  случае  возникновения  искажений  информа-
ции во входных данных нейросетевые решения на базе наборов повышенной 
надежности более устойчивы, чем результаты вычислений с использованием 
только минимального набора признаков. 
4.  Анализ  состава  наборов  признаков  показал,  что  ряд  из  них  не  входит  ни  в 
минимальный  набор,  ни  в  набор  дублеров,  более  того  они  не  содержат  ин-
формации,  необходимой  для  решения  задачи.  А  анализ  изменения  ошибок 
вычисления доказал, что эти признаки являться зашумляющими, то есть ка-
чество решение задачи существенно ниже, если они присутствуют в выбор-
ке. 
 
 

 
86
ЗАКЛЮЧЕНИЕ  
 
Процесс  формирования  информации  требует  хорошего  набора  статисти-
ческих  данных,  аналитических  методов  и  современных  информационных  тех-
нологий. Предлагаемые различными науками традиционные методы обработки 
данных имеют свои определенные достоинства и недостатки. Каждый из таких 
методов  хорош  по-своему  в  определенной  ситуации.  Но  наиболее  соответст-
вующие  требованиям  современного  исследователя  являются  нейросетевые  ме-
тоды, созданные в процессе развития теории “искусственного интеллекта”. 
Решая  задачи  минимизации  количества  входных  сигналов  в  условиях 
возможного появления искажений информации во входных данных даже с по-
мощью  наиболее  подходящих  методов,  исследователь  сталкивается  с  риском 
понижения  качества  решения  и  полезности  их  алгоритмов.  В  этом  случае 
уменьшать  погрешность  вычислений  можно  и  целесообразно  за  счет  увеличе-
ния  пространства  признаков  путем  добавления  дублирующей  информации  из 
набора исходных данных. 
Алгоритмы  поиска  дублеров  основаны  на  минимизации  пространства 
признаков,  а  процессы  формирования  на  их  основе  наборов  повышенной  на-
дежности к искажениям такого рода достаточно просты и имеют самостоятель-
ное  значение,  не  зависимо  от  методов  минимизации  пространства  признаков. 
Кроме этого практическое применение данных алгоритмов показывает, что они 
могут войти в серию методов устанавливающих зависимости между признака-
ми,  объясняющих  структуру  пространства  признаков  и  выявляющих  иерархи-
ческую зависимость между характеристиками объектов исследования. 
Реализованные алгоритмы дублирования способны выступать в роли по-
мощников в принятии решений. Они позволяют вырабатывать информацию но-
вого содержания и создавать базу для дальнейшего анализа и обработки. С их 
помощью  можно  расставлять  приоритеты  среди  признаков,  формировать  от-
дельно  выборки,  состоящие  из  первичной  и  вторичной информации,  фильтро-
вать данные и т.п. 
 

 
87
Совокупное участие всех признаков, входящих в дубли и набор прототи-
пов показывает, что ряд признаков не входит ни в минимальный набор, ни в на-
бор дублеров. Следовательно, такого рода признаки не содержат информации, 
необходимой для решения задачи. Более того, их присутствие в выборке порой 
оказывает отрицательное влияние на качество решения задачи. Таким образом, 
реализация  алгоритмов  дублирования  позволяет  делать  предположение  о  ха-
рактере признаков,  о необходимости их участи и о наличии в  них “шумовых” 
качеств. 
Реализованные  алгоритмы  дублирования  в  процессе  отбора  кандидатов 
на вакантную должность преподавателя в Красноярском государственном тор-
гово-экономическом  институте  показали,  что  с  их  помощью  из  имеющихся 
данных  можно  отобрать  те,  которые  непосредственно  требуются  для  решения 
задачи прогнозирования отношений преподаватель-студент в условиях возник-
новения искажений информации. Кроме этого, информация, полученная после 
применения  алгоритмов,  позволила  выработать  ряд  конкретных  требований, 
предъявляемых внутренней средой данной организации, и множество рекомен-
даций  по  повышению  результативности  труда  конкретного  объекта  (испытуе-
мого). 
В случае с работой по анализу медицинских данных наиболее интересной 
оказалась  такая  возможность  дублирования,  как  построение  иерархической 
структуры зависимостей признаков. Такого рода иерархия помогает сформиро-
вать ряд приоритетных характеристик течения заболевания и их зависимость от 
других.  Это  позволило  создать  дополнительные  знания  и  информационную 
поддержку для принятия решений о проведении своевременных профилактиче-
ских мероприятий. 
Однако  предложенные  алгоритмы  дублирования  не  избавлены  от  недос-
татков.  Некоторые  из  них  являются  достаточно  трудоемкими  и  требуют  от 
пользователя  максимум  внимания.  Но  данная  проблема  может  быть  частично 
устранена при соответствующей технической и аппаратной поддержке решения 
задачи. 
 

 
88
Таким  образом,  в  процессе  проведения  диссертационных  исследований 
были достигнуты следующие основное научные результаты
1.  На основе анализа способов контроля достоверности данных показано, что в 
процессе решения задач минимизации описания в условиях появления иска-
жений  входной  информации  возникает  проблема  поиска  компромисса,  спо-
собного реализовать и цели минимизации, и цели сохранения устойчивости 
систем обработки данных к искажениям. 
2.  Проведен  анализ  различных  подходов  к  решению  задачи  поиска  набора 
входных параметров, обеспечивающих устойчивость решения к искажениям 
во входной информации. На его основе предложен метод дублирования, ос-
нованный на дополнении количества признаков минимального набора на со-
ответствующие  признаки  с  дублирующей  информацией,  и  разработаны  его 
теоретические основы. 
3.  Выделено четыре вида дублей (прямой дубль первого рода, косвенный дубль 
первого рода, прямой дубль второго рода и косвенный дубль второго рода). 
Построены  алгоритмы  их  получения  и  показаны  соотношения  между  раз-
личными видами дублей. Описанные алгоритмы могут быть применены как 
к нейронным сетям, так и к линейной и нелинейной регрессии. 
4.  На примере решения задач прогнозирования и классификации показано, что 
одновременное  использование  набора  прототипов  и  дублеров  позволяет 
формировать  набор  признаков,  обладающий  большей  устойчивостью  к  ис-
кажениям  информации  во  входных  данных.  Эксперименты  показали,  что  в 
этих условиях менее устойчивой является нейросетевая система, решающая 
задачу на выборке с минимальным набором признаков, а более устойчивой – 
система, основанная на наборах повышенной надежности.  
5.  Анализ состава различных наборов признаков для конкретных задач класси-
фикации  и  прогнозирования  проиллюстрировал,  что  ряд  признаков  не  вхо-
дит  ни  в  минимальный  набор,  ни  в  набор  дублеров.  А  анализ  изменения 
ошибок вычисления показал, что эти признаки являются зашумляющими, то 
есть решение задачи осуществляется менее качественно, если они присутст-
вуют в выборке. 
 

 
89
Основное содержание диссертации изложено в следующих работах: 
1.  Антамошкина  О.И.,  Вашко  Т.А.  Нейронные  сети  в  управлении  персона-
лом//Достижения  науки  и  техники – развитию  сибирских  регионов  (инно-
вационный  и  инвестиционный  потенциалы):  Материалы  Всероссийской 
науч.-практ.конф.  с  междунар.  участием:  В  3ч.  Ч. 3 Красноярск:  КГТУ, 
2000. - С. 49 – 51. 
2.  Вашко  Т.А.  Дублирование  информации  в  задаче  прогнозирования  резуль-
тативности  труда  преподавателя//Вестник  НИИ  СУВПТ. - Красноярск: 
НИИ СУВПТ, 2001. – Вып. 7. –  С. 165-173. 
3.  Вашко Т.А. Нейронные сети в процессе анализа управленческой информа-
ции//Социально-экономические  проблемы  развития  рынка  потребитель-
ских  товаров.  Сборник  тезисов  региональной  науч.-практич.  конференции 
студентов  и  аспирантов. – Красноярск:  КГТЭИ,  изд-во  КГПУ, 2000. – 
С. 148-149. 
4.  Вашко  Т.А.  Нейросетевые  подходы  к  обработке  информации  по  отбору 
кадров//Вопросы  менеджмента:  Сб.  науч.  статей  и  тезисов. – Красноярск: 
КГТЭИ, изд-во КГПУ, 2000. – Вып. 2. - С.61-72. 
5.  Вашко Т.А. Предпосылки возникновения идеи применения нейронных се-
тей  в  управлении  персоналом//Вопросы  менеджмента:  Сб.  науч.  статей  и 
тезисов. – Красноярск: КГТЭИ, изд-во КГПУ, 1998. – Вып. 1.- С.278–287. 
6.  Вашко Т.А. Применение метода дублирования информации в задаче клас-
сификации осложнений инфаркта миокарда/Адаптивные системы управле-
ния и моделирования. - Красноярск: НИИ СУВПТ, 2000. - С.51-60. 
7.  Вашко Т.А. Своевременная обработка информации как способ повышения 
конкурентоспособности  фирмы//Экономические  реформы  в  России.  Мате-
риалы III Международной  научно-практической  конференции. – 
СПб.:Нестор, 2000. - С.93-95. 
8.  Вашко  Т.А.  Специфика  управленческой  информации//Социально-
экономические проблемы развития рынка потребительских товаров: Сб. те-
зисов региональной науч.-практич. конференции студентов и аспирантов. – 
 

 
90
Красноярск: КГТЭИ, изд-во КГПУ, 2000. – С. 144 -145. 
9.  Горбань А.Н., Миркес Е.М., Вашко Т.А. Алгоритмы поиска дублирующих 
признаков/  ИВМ  СО  РАН - Красноярск, 2000. - 42 с. (Библиогр. 12 назв. 
Рус. – Деп. в ВИНИТИ 24.05.00 №1501-В00). 
10.  Миркес Е.М.,  Вашко Т.А. Дублирование признаков как  средство повыше-
ния  надежности  в  процессе  обработки  информации//Вопросы  менеджмен-
та/Сб. науч. статей и тезисов. – Красноярск: КГТЭИ, изд-во КГПУ, 2000. – 
Вып. 2. - С. 173-185. 
11.  Осипова Е.В., Вашко Т.А. Информационная система управления//Вопросы 
менеджмента/Сб.  науч.  статей  и  тезисов. – Красноярск:  КГТЭИ,  изд-во 
КГПУ, 2000. – Вып. 2. - С.220-223. 
 
 

 
91
 
ЛИТЕРАТУРА 
 
1. 
Айвазян  С.А.,  Бежаева  З.И.,  Староверов  О.В.  Классификация  многомер-
ных наблюдений. – М.: Статистика, 1974. – 240 с. 
2. 
Айвазян С.А., Буштабер В.М., Енюков И.С. и др. Прикладная статистика. 
Классификация  и  снижение  размерности. – М.:  Финансы  и  статистика, 
1989. – 607 с. 
3. 
Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Ос-
новы  моделирования  и  первичная  обработка  данных. – М.:  Финансы  и 
статистика, 1983. – 471 с. 
4. 
Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Ста-
тистическое  оценивание  зависимостей. – М.:  Финансы  и  статистика, 
1985. – 484 с. 
5. 
Александров В.В., Алексеев А.И., Горский Н.Д. Анализ данных на ЭВМ 
(на примере системы СИТО). – М.: Финансы и статистика, 1990. – 192 с. 
6. 
Александров  В.В.,  Шнейдеров  В.С.  Обработка  медико-биологических 
данных на ЭВМ. – М.: Медицина, 1984. – 157 с. 
7. 
Анастази А. Психологическое тестирование. – М. Педагогика, 1982 – кн.1 
– 320 с., кн.2 – 360 с. 
8. 
Андерсон Т. Введение в многомерный статистический анализ. - – М.: Фи-
нансы и статистика, 1963. – 500 с. 
9. 
Анил К. Джейн, Жианчанг Мао, К.М. Моиуддин. Введение в искусствен-
ные нейронные сети // Открытые системы. — 1997 г., №4. 
10.  Антамошкина  О.И.,  Вашко  Т.А.  Нейронные  сети  в  управлении  персона-
лом // Достижения науки и техники – развитию сибирских регионов (ин-
новационный  и  инвестиционный  потенциалы):  Материалы  Всероссий-
ской  науч.-практ.конф.  с  междунар.  участием:  В  3ч.  Ч. 3 Красноярск: 
КГТУ, 2000. – С. 49 – 51. 
11.  Барабаш  Б.А.  Минимизация  описания  в  задачах  автоматического  распо-
знавания образов // Техн. Кибернетика, 1964, №3. – С. 32-44. 
 

 
92
12.  Борисов  Ю.,  Кашкаров  В.,  Сорокин  С.  Нейросетевые  методы  обработки 
информации и средства их программно-аппаратной поддержки // Откры-
тые системы. — 1997 г., №4. 
13.  Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпириче-
ских данных. – М.: Наука. Гл.ред.физ.-мат.лит., 1983. – 464 с. 
14.  Вайнцваг  М.Н.  Алгоритмы  обучения  распознаванию  образов  “Кора” // 
Алгоритмы обучения распознаванию образов. – М.: Сов. радио, 1973. 
15.  Вапник  В.Н.,  Червоненкис  А.Ф.  Теория  распознавания  образов. – М.: 
Наука, 1988. 
16.  Васильев  В.И.  Распознающие  системы.  Справочник. – Киев:  Наукова 
думка, 1983. – 422 с. 
17.  Вашко  Т.А.,  Горбань  А.Н.,  Миркес  Е.М.  Алгоритмы  поиска  дублирую-
щих признаков/ ИВМ СО РАН - Красноярск, 2000. - 42 с. (Библиогр. 12 
назв. Рус. – Деп. в ВИНИТИ 24.05.00 №1501-В00). 
18.  Вашко  Т.А.,  Миркес  Е.М.  Дублирование  признаков  как  средство  повы-
шения  надежности  в  процессе  обработки  информации // Вопросы  ме-
неджмента/  Сборник  научных  статей  и  тезисов. – Красноярск:  КГТЭИ, 
изд-во КГПУ, 2000. - С. 173-184. 
19.  Введение  в  информационный  бизнес:  Учебное  пособие / Под  ред. 
В.П.Тихомирова, А.В.Хорошилова. – М.: Финансы и статистика, 1996. 
20.  Галушкин  А.  Современные  направления  развития  нейрокомпьютерных 
технологий в России // Открытые системы. — 1997 г., №4. 
21.  Гилев С.Е. Сравнение методов обучения нейронных сетей // Тез.докл. III 
Всероссийского  семинара  “Нейроинформатика  и  ее  приложения”. – 
Красноярск: изд. КГТУ, 1995. – С. 80 – 81. 
22.  Гилев  С.Е.,  Горбань  А.Н.,  Миркес  Е.М.  и  др.  Определение  значимости 
обучающих параметров для принятия нейронной сетью решения об отве-
те. // Нейроинформатика и нейрокомпьютеры: Тезисы докладов рабочего 
семинара, 8-11 октября 1993 г. – Красноярск:  Институт  биофизики  СО 
РАН, 1993. – С.8. 
 

 
93
23.  Гилев С.Е., Коченов Д.А., Миркес Е.М., Россиев Д.А. Контрастирование, 
оценка значимости параметров, оптимизация их значений и их интерпре-
тация в нейронных сетях // Тезисы докладов III всероссийского семинара 
“Нейроинформатика и ее приложения”. – Красноярск: изд. КГТУ, 1995 – 
С.66-78. 
24.  Гилев  С.Е.,  Миркес  Е.М.  Обучение  нейронных  сетей // Эволюционное 
моделирование и кинематика. – Новосибирск: Наука. Сиб.отд-ие, 1992. - 
С. 9 – 23. 
25.  Горбань А.Н.  Обучение нейронных сетей. – М. СП ПараГраф – 1990. 
26.  Горбань А.Н. Алгоритмы и программы быстрого обучения нейронных се-
тей // Эволюционное моделирование и кинематика. – Новосибирск: Нау-
ка. Сиб.отд-ие, 1992. - С. 36 – 39. 
27.  Горбань  А.Н.  Нейрокомпьютер  или  аналоговый  ренессанс // МИР  ПК, 
1994, № 10. 
28.  Горбань  А.Н.  Обучение  нейронных  сетей.-  М.:  изд. USSR-USA JV 
“ParaGraph”, 1990.- 160 с. (англ.  Перевод – Gorban A.N. Traning Neural 
Networks // AMSE Transaction, Scientific Siberian, A, 1993, V. 6. 
Neurocomputing, pp.1-134). 
29.  Горбань А.Н. Этот новый компьютерный мир. Заметки о нейрокомпьюте-
рах  и  новой  технической  революции // Математическое  обеспечение  и 
архитектура  ЭВМ:  Материалы  науч.-техн.конф. “Проблемы  техники  и 
технологий XXI века”, 22 – 25 марта 1994 г. – Красноярск:  изд.  КГТУ, 
1994. – С. 6 – 9. 
30.  Горбань  А.Н.,  Миркес  Е.М.  Кодирование  качественных  признаков  для 
нейросетей // Тезисы  докладов II всероссийского  семинара  “Нейроин-
форматика и ее приложения”. – Красноярск: изд. КГТУ, 1994 – С.29. 
31.  Горбань А.Н., Миркес Е.М. Контрастирование нейронных сетей. // Тези-
сы докладов III всероссийского семинара “Нейроинформатика и ее при-
ложения”. – Красноярск: изд. КГТУ, 1995 – С.78-79. 
32.  Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьюте-
ре. Новосибирск: Наука, 1996. - 276 с. 
 

 
94
33.  Горбань А.Н., Фриденберг В.И. Новая игрушка человечества // МИР ПК, 
1993, № 9.  
34.  Горелик А.Л. Гуревич И.Б., Скрипкин В.А. Современное состояние про-
блемы распознавания: Некоторые аспекты. – М.: Радио и связь, 1985. 
35.  Грановская Р.М., Березная И.Я. Интуиция и искусственный интеллект. – 
Л.: ЛГУ, 1991. – 272с. 
36.  Гублер Е.В. Информатика в патологии, клинической медицине и педиат-
рии. – Л.: Медицина, 1990. – 176 с. 
37.  Дейвисон М. Многомерное шкалирование: Методы наглядного представ-
ления данных. – М.: Финансы и статистика, 1988. 
38.  Демиденко Е.З. Линейная и нелинейная регрессия. – М.: Финансы и ста-
тистика, 1981. – 302 с. 
39.  Диго  С.М.  Проектирование  баз  данных. – М.:  Финансы  и  статистика. 
1988. 
40.  Дрейпер Н., Смит Г. Прикладной регрессионный анализ. – М.: Статисти-
ка, 1973. – 392 с. 
41.  Дуда Р., Харт П. Распознавание образов и анализ сцен. – М.: Мир, 1976.- 
512 с. 
42.  Дюк  В.А.  Компьютерная  психодиагностика. – Санкт-Петербург:  Братст-
во, 1994. 
43.  Елисеева  И.И.,  Рукавишников  В.О.  Группировка,  корреляция,  распозна-
вание образов (Статистические методы классификации и измерения свя-
зей). – М.: Статистика, 1977. 
44.  Енюков И.С. Методы, алгоритмы, программы многомерного статистиче-
ского анализа: Пакет ППСА. – М.: Финансы и статистика, 1986. 
45.  Журавлев Ю.И. Непараметрические задачи распознавания образов // Ки-
бернетика - №6 – 1976 – С.93-103. 
46.  Журавлев  Ю.И.  Об  алгебраическом  подходе  к  решению  задач  распозна-
вания  или  классификации. // Проблемы  кибернетики.  М.:  Наука, - 1978, 
вып. 33. 
 

 
95
47.  Журавлев Ю.И., Гуревич И.Б. Распознавание образов и анализ изображе-
ний // Искусственный  интеллект. – В 3-х  кн.  Кн.2. – М.:  Радио  и  связь, 
1990 – С. 304. 
48.  Загоруйко Н.Г. Методы распознавания и их применение. – М.: Сов.радио, 
1972. – 206 с. 
49.  Загоруйко Н.Г., Елкина В.Н., Лбов Г.С. Алгоритмы обнаружения эмпири-
ческих закономерностей. – Новосибирск: Наука, 1985 – 110с. 
50.  Зеличко  А.И.  Интеллектуальные  системы  и  психологическое  знание // в 
кн.: Компьютеры и познание. – М.: Наука, 1990. – С. 69-86. 
51.  Иберла К. Факторный анализ. – М.: Статистика, 1980. – 308 с. 
52.  Ивахненко А.Г. Персептроны. – Киев: Наукова думка, 1974. 
53.  Ивахненко А.Г. Самообучающиеся системы распознавания и автоматиче-
ского регулирования. – Киев: Техника, 1969. – 392 с. 
54.  Ивахненко А.Г., Лапа В.Г. Кибернетические предсказывающие устройст-
ва. Киев, - Наукова думка, - 1965. 
55.  Информатика: Учебник / Под ред. Проф. Н.В.Макаровой. – М.: Финансы 
и статистика, 1997. – 768 с.: ил. 
56.  Информационные  системы  в  экономике. – М.:  Финансы  и  статистика, 
1996.  
57.  Искусственный интеллект: В 3-х кн. Кн. 2. Модели и методы: Справочник 
/ под ред. Д.А. Поспелова.- М.: Радио и связь, 1990.- 304 с. 
58.  Кабанов М.М., Личко А.И., Смирнов В.М. Методы  психологической ди-
агностики и коррекции в клинике. М. Медицина – 1983 
59.  Колмогоров  А.Н.  Три  подхода  к  определению  понятия  “количество  ин-
формации” // Проблемы  передачи  информации / под.ред.  Яглома П.С., 
1965, т.1, вып.1. 
60.  Кузнецов А.С. Методы поиска оптимальных групп признаков при стати-
стическом  распознавании  образов. – Л.:  ВИКИ  им.  А.Ф.Можайского, 
1982. – С. 14-23. 
61.  Кулагин Б.В., Сергеев С.Т. Типологический подход к исследованию про-
блемы профотбора // Психологический журнал, 1989, т.10, №1 
 

 
96
62.  Лбов  Г.С.  Выбор  эффективной  системы  зависимых  признаков / Труды 
Сиб.отд.  АН  СССР:  Вычислительные  системы. – Новосибирск, 1965, 
вып. 19. – С. 87 – 101. 
63.  Лбов Г.С. Логические функции в задачах эмпирического предсказания // 
Эмпирическое  предсказание  и  распознавание  образов:  Вычислительные 
системы. – Новосибирск, 1978, вып. 76. – С. 34 – 64. 
64.  Лбов Г.С. Методы обработки разнотипных экспериментальных данных. – 
Новосибирск: Наука, 1981. – 157 с. 
65.  Лоули  Д.,  Максвелл  А.  Факторный  анализ  как  статистический  метод. – 
М.: Мир, 1967. – С. 10-17. 
66.  Мак-Карти, Шеннон (ред.). Автоматы – ИЛ – 1956. 
67.  Максимов  М.М.  Модульные  интегрированные  системы  управления  объ-
ектами информационного производства. – М.: Информприбор, 1989. 
68.  Масалович  А.  Нейронная  сеть – оружие  финансиста. – PC WEEK, - 
24.04.1995. 
69.  Матвеев Л.А. Информационные системы: поддержка принятия решений: 
Учебное пособие. – СПб.: Изд-во СПбУЭФ, 1996. 
70.  Мельников  В.М.,  Ямпольский  Л.Т.  Введение  в  экспериментальную  пси-
хологию личности. – М.: Просвещение, 1985. – 319 с. 
71.  Минский М., Пайперт С. Персептроны. – М.: Мир, 1971. 
72.  Миркин Б.Г. Анализ качественных признаков и структур. – М.: Финансы 
и статистика, 1980. – 319 с. 
73.  Мостеллер Ф., Тьюки Дж. Анализ данных и регрессия. – М.: Финансы и 
статистика, 1982.- 239 с. 
74.  Налимов В.В. Теория эксперимента. – М: Наука, 1971. 
75.  Нейронные  сети  на  персональном  компьютере / А.Н.Горбань, 
Д.А.Россиев. – Новосибирск:  Наука.  Сибирская  издательская  фирма 
РАН, 1996. – 276 с. 
76.  Нейропрограммы / сборник  статей  под  ред.  А.Н.  Горбаня //Красноярск, 
КГТУ, 1994. 
 

 
97
77.  Нейропрограммы.  Учебное  пособие:  В  двух  частях / Под.  Ред. 
А.Н.Горбаня.  Красноярск:  изд.  КГТУ, 1994. Часть 1.- 137 с.  Часть 2.- 
123 с. 
78.  Никифоров  А.М.,  Фазылов  Ш.Х.  Методы  и  алгоритмы  преобразования 
типов признаков в задачах анализа данных. – Ташкент: Фан, 1988. – 132с. 
79.  Нильсон  Н.  Принципы  искусственного  интеллекта. – М.:  Радио  и  связь, 
1985. 
80.  Общая  теория  статистики:  Учебник/А.Я.Боярский,  Л.Л.Викторова, 
А.М.Гольдберг  и  др.;  Под  ред.  А.М.Гольдберга,  В.С.Козлова. – М.:  Фи-
нансы и статистика, 1985. – 367 с. ил. 
81.  Патрик Э. Основы теории распознавания образов. – М.: Сов.радио, 1970. 
– 408 с. 
82.  Поспелов Д.А. Данные и знания. Представление знаний // Искусственный 
интеллект.  Кн.2:  Модели  и  методы:  Справочник – М.:  Радио  и  связь. – 
С.7-13. 
83.  Поспелов Д.А. Искусственный интеллект: фантазия или наука? – М.: Ра-
дио и связь, 1986. 
84.  Ракитов А.И. Философия компьютерной революции. – М.: Политическая 
литература, 1990. 
85.  Распознавание  образов  и  медицинская  диагностика / под.ред.  Неймарка 
Ю.М. – М.: Наука, 1972. – 328 с. 
86.  Решетников М.М. Профессиональный отбор в системе образования, про-
мышленности и армии США // Психолог.журн., т. 8, № 3, 1987. – С. 81 – 
119. 
87.  Розенблатт Ф. Принципы нейродинамики. Перцептрон и теория механиз-
мов мозга. – М.: Мир, 1965. – 480 с. 
88.  Россиев Д.А. Нейросетевые самообучающиеся экспертные системы в ме-
дицине // Молодые ученые – практическому здравоохранению. – Красно-
ярск, 1994. – С. 17. 
89.  Россиев Д.А., Головенкин С.Е., Назаров Б.В. и др. Определение информа-
тивности медицинских параметров с помощью нейронной сети // Диагно-
 

 
98
стика, информатика и метрология – 94: Тезисы науч.-техн. конференции, 
Санкт-Петербург, 28-30 июня 1994 г. – С-Пб., 1994. – С.348. 
90.  Справочник по искусственному интеллекту в 3-х тт./Под ред. Попова Э.В. 
и Поспелова Д.А. – М.: Радио и связь, 1990. 
91.  Справочник по прикладной статистике. В 2-х т. / Под.ред. Ллойда Э., Ле-
дермана  У.,  Айвазяна  С.А.,  Тюрина  Ю.Н. – М.:  Финансы  и  статистика, 
1990. 
92.  Терехина А.Ю. Анализ данных методами многомерного шкалирования. – 
М.: Наука, 1986. – 168 с. 
93.  Уинстон П. Искусственный интеллект. – М.: Мир, 1980. 
94.  Уоссермен Ф. Нейрокомпьютерная техника. – М.: Мир, 1992 – 126 с. 
95.  Федеральный закон “Об информации, информатизации  и защите  инфор-
мации”. Принят Государственной Думой 25 января 1995 г. 
96.  Фогель Л., Оуэнс А., Уолш М. Искусственный интеллект и эволюционное 
моделирование. – М.: Мир, 1969. – 230 с. 
97.  Фор  А.  Восприятие  и  распознавание  образов. – М.:  Машиностроение, 
1989.- 272 с. 
98.  Фу. К. Структурные методы в распознавании образов. – М. Мир, 1977. 
99.  Харман Г. Современный факторный анализ. – М.: Статистика, 1972.  
100.  Хетагуров В.А. Синтез алгоритмов дискриминации в условиях статисти-
ческой неопределенности данных для автоматизированной медицинской 
диагностики. – Автореф.дисс. на соиск.уч.ст.канд.техн.наук. – М., 1985. – 
19 с. 
101.  Цыпкин  Я.З.  Адаптация  и  обучение  в  автоматических  системах. – М.: 
Наука, 1968. – 400 с. 
102.  Шеметов  Д.В.,  Осипов  Ю.М.  Определение  показателя  “значимость  тех-
нического  решения”  аппаратом  нейронных  сетей./  Нейроинформатика  и 
ее приложения: Тезисы доклада VI Всероссийского семинара, 2-5 октяб-
ря 1998г. Красноярск, 1998. – С. 190-191. 
103.  Asary K.V., Eswaran C.A. Self-organizing Neural Network for Multidimen-
sional Mapping and Classification of Multiple Valued Data // Proceedings of 
 

 
99
1993 International Joint Conference on Neural Networks, Nagoya, Japan, Oc-
tober 25-29, 1993. – Nagoya, 1993. – v.2. – p.2488-2491. 
104.  Becraft W.R. Diagnostic applications of artificial neural networks // Proceed-
ings of 1993 International Joint Conference on Neural Networks, Nagoya, Ja-
pan, October 25-29, 1993. – Nagoya, 1993. – v.2. – p.2807-2810. 
105.  Cover T., Hart P. Nearest neighbour pattern classification // IEEE Trans. In-
form. Theory, v. IT – 13, 1967. – p. 21 – 27. 
106.  Fix E., Hodges J.L. Discriminatory analysis, nonparametric discrimination 
USA School of Medicine, - Texas: Rendolph Field, 1951 – 1952. 
107.  Forrest D.V., Flory M.J., Anderson S. Neural network programming // 
N.Y.State J. Med. – 1991. – v.91, №12. – p.553. 
108.  Fu H.C., Shann J.J. A fuzzy neural network for knowledge learning // Int. J. 
Neural Syst. – 1994. – v.5, №1. – p.13-22. 
109.  Galushkin A.I., Sudarikov V.A., Shabanov E.V. Neuromathematic: the meth-
ods of solving problems on neurocomputers // The RNNS-IEEE Symposium 
on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 – 
v.2. – pp 1179-1188. 
110.  Sitting D.F., Orr J.A. A parallel implementation of the backward error propa-
gation neural network training algorithm: experiments in event identification // 
Comput. Biomed Res. – 1992. – v.25, №6. – p.547-561. 
 
 

 
100
ПРИЛОЖЕНИЕ 1. 
Набор признаков для прогнозирования летального 
исхода в случае инфаркта миокарда 
 
1. 
Фамилия Имя Отчество (FIO). 
2. 
Возраст (AGE). 
3. 
Пол (SEX): 
a)  0 – женский, 
b)  1 – мужской. 
4. 
Количество инфарктов миокарда в анамнезе (INF_ANAM): 
a)  0 – нет, 
b)  1 – один, 
c)  2 – два, 
d)  3 – три и. т.д. 
5. 
Стенокардия напряжения в анамнезе (STENOK_AN): 
a)  0 – нет, 
b)  1 – менее 1 года, 
c)  2 – один год, 
d)  3 – два года, 
e)  4 – три года, 
f)  5 – 4-5 лет, 
g)  6 – более 5 лет. 
6. 
Функциональный класс стенокардии в последний год (FK_STENOK): 
a)  0 – нет стенокардии, 
b)  1 – I ф.к., 
c)  2 – II ф.к., 
d)  3 – III ф.к., 
e)  4 – IV ф.к. 
7. 
Характер  ИБС  в  последние  недели,  дни  перед  поступлением  в  больницу 
(IBS_POST): 
a)  0 – нет ИБС, 
b)  1 – стенокардия напряжения, 
c)  2 – нестабильная стенокардия. 
9.  Наличие гипертонической болезни (GB): 
a)  0 – нет Г.Б., 
b)  1 – I стадия Г.Б., 
c)  2 – II стадия Г.Б., 
 

 
101
d)  3 – III стадия Г.Б. 
10.  Симптоматическая гипертония (SIM_GIPERT): 
a)  0 – нет, 
b)  1 – да. 
11.  Длительность течения арт. Гипертензии (DLIT_AG): 
a)  0 – нет А.Г., 
b)  1 – год, 
c)  2 – два года, 
d)  3 – три года, 
e)  4 – четыре года, 
f)  5 – пять лет, 
g)  6 – 5-10 лет, 
h)  7 – более 10 лет. 
12.  Наличие  хронической  сердечной  недостаточности  (СН)  в  анамнезе 
(ZSN_A): 
a)  0 – нет, 
b)  1 – I стадии, 
c)  2 – IIА стадия (застой по большому кругу), 
d)  3 – IIА стадия (застой по малому кругу), 
e)  4 – IIБ стадия, 
f)  5 – III стадия. 
13.  Нарушения ритма в анамнезе, не уточнено какие именно (nr11): 
a)  0 – нет, 
b)  1 – да. 
14.  Предсердная экстрасистолия в анамнезе (nr01): 
a)  0 – нет, 
b)  1 – да. 
15.  Желудочковая экстрасистолия в анамнезе (nr02): 
a)  0 – нет, 
b)  1 – да. 
16.  Пароксизмы фибрилляции/трепетании предсердий в анамнезе (nr03): 
a)  0 – нет, 
b)  1 – да. 
17.  Постоянная форма фибрилляции предсердий в анамнезе (nr04): 
a)  0 – нет, 
b)  1 – да. 
18.  Желудочковая пароксизмальная тахикардия в анамнезе (nr05): 
 

 
102
a)  0 – нет, 
b)  1 – да. 
19.  Фибрилляция желудочков в анамнезе (nr07): 
a)  0 – нет, 
b)  1 – да. 
20.  А-в блокада I степени в анамнезе (np01): 
a)  0 – нет, 
b)  1 – да. 
21.  А-в блокада III степени в анамнезе (np04): 
a)  0 – нет, 
b)  1 – да. 
22.  Блокада передней ветви левой ножки пучка Гиса в анамнезе (np05): 
a)  0 – нет, 
b)  1 – да. 
23.  Неполная блокада левой ножки пучка Гиса в анамнезе (np07): 
a)  0 – нет, 
b)  1 – да. 
24.  Полная блокада левой ножки пучка Гиса в анамнезе (np08): 
a)  0 – нет, 
b)  1 – да. 
25.  Неполная блокада правой ножки пучка Гиса в анамнезе (np09): 
a)  0 – нет, 
b)  1 – да. 
26.  Полная блокада правой ножки пучка Гиса в анамнезе (np10): 
a)  0 – нет, 
b)  1 – да. 
27.  Сахарный диабет в анамнезе (endocr_01): 
a)  0 – нет, 
b)  1 – да. 
28.  Ожирение в анамнезе (endocr_02): 
a)  0 – нет, 
b)  1 – да. 
29.  Тиреотоксикоз в анамнезе (endocr_03): 
a)  0 – нет, 
b)  1 – да. 
 

 
103
30.  Хронический бронхит в анамнезе (zab_leg_01): 
a)  0 – нет, 
b)  1 – да. 
31.  Обструктивный хронический бронхит в анамнезе (zab_leg_02): 
a)  0 – нет, 
b)  1 – да. 
32.  Бронхиальная астма в анамнезе (zab_leg_03): 
a)  0 – нет, 
b)  1 – да. 
33.  Хроническая пневмония в анамнезе (zab_leg_04): 
a)  0 – нет, 
b)  1 – да. 
34.  Туберкулез легкого (легких) в анамнезе (zab_leg_06): 
a)  0 – нет, 
b)  1 – да. 
37.  Систолическое. АД по данным ОриИТ (S_AD_ORIT). 
38.  Диастолическое. АД по данным ОриИТ (D_AD_ORIT). 
39.  Отек легких в момент поступления в ОриИТ: (O_L_POST): 
a)  0 – нет, 
b)  1 – да. 
40.  Кардиогенный шок в момент поступления в ОриИТ (K_SH_POST): 
a)  0 – нет, 
b)  1 – да. 
41.  Пароксизм фибрилляции предсердий (ТП) в момент поступления в ОриИТ, 
(или на догоспитальном этапе) (MP_TP_POST): 
a)  0 – нет, 
b)  1 – да. 
42.  Пароксизм  суправентрикулярной  тахикардии  в  момент  поступления  в 
ОриИТ, (или на догоспитальном этапе) (SVT_POST): 
a)  0 – нет. 
b)  1 – да. 
43.  Пароксизм  желудочковой  тахикардии  в  момент  поступления  в  ОриИТ, 
(или на догоспитальном этапе) (GT_POST): 
a)  0 – нет, 
 

 
104
b)  1 – да. 
44.  Фибрилляция желудочков в момент поступления в ОриИТ, (или на догос-
питальном этапе) (FIB_G_POST): 
a)  0 – нет, 
b)  1 – да. 
45.  Наличие инфаркта передней стенки левого желудочка (изменения на ЭКГ в 
отведениях V2 – V4) (ant_im): 
a)  0 – нет, 
b)  1 – форма комплекса QRS не изменена, 
c)  2 – форма QRS комплекса QR, 
d)  3 – форма QRS комплекса Qr, 
e)  4 – форма QRS комплекса QS. 
46.  Наличие инфаркта боковой стенки левого желудочка (изменения на ЭКГ в 
отведениях V5 – V6, I, AVL (lat_im): 
a)  0 – нет, 
b)  1 – форма комплекса QRS не изменена, 
c)  2 – форма QRS комплекса QR, 
d)  3 – форма QRS комплекса Qr, 
e)  4 – форма QRS комплекса QS. 
47.  Наличие инфаркта нижней стенки левого желудочка (изменения на ЭКГ в 
отведениях III, AVF, II) (inf_im): 
a)  0 – нет, 
b)  1 – форма комплекса QRS не изменена, 
c)  2 – форма QRS комплекса QR, 
d)  3 – форма QRS комплекса Qr, 
e)  4 – форма QRS комплекса QS. 
48.  Наличие  инфаркта  задней  стенки  левого  желудочка  (изменения  на  ЭКГ  в 
отведениях V7-V9, реципрокные изменения в отведениях V1-V3) (post_im): 
a)  0 – нет, 
b)  1 – форма комплекса QRS не изменена, 
c)  2 – форма QRS комплекса QR, 
d)  3 – форма QRS комплекса Qr, 
e)  4 – форма QRS комплекса QS. 
49.  Наличие ИМ правого желудочка (IM_PG_P): 
a)  0 – нет, 
b)  1 – да. 
 

 
105
50.  Ритм  по  ЭКГ  при  поступлении – синусовый  (с  чсс 60-90 в  мин.) 
(ritm_ecg_p_01): 
a)  0 – нет, 
b)  1 – да. 
51.  Ритм по ЭКГ при поступлении – фибрилляция предсердий (ritm_ecg_p_02): 
a)  0 – нет, 
b)  1 – да. 
52.   Ритм по ЭКГ при поступлении – предсердный (ritm_ecg_p_04): 
a)  0 – нет, 
b)  1 – да. 
53.  Ритм по ЭКГ при поступлении – идиовентрикулярный (ritm_ecg_p_06): 
a)  0 – нет, 
b)  1 – да. 
54.  Ритм по ЭКГ при поступлении – синусовый с ЧСС более 90 в мин. (сину-
совая тахикардия) (ritm_ecg_p_07): 
a)  0 – нет, 
b)  1 – да. 
55.  Ритм по ЭКГ при поступлении – синусовый с ЧСС менее 60 в мин. (сину-
совая брадикардия) (ritm_ecg_p_08): 
a)  0 – нет, 
b)  1 – да. 
56.  Предсердная экстросистолия на ЭКГ при поступлении (n_r_ecg_p_01): 
a)  0 – нет, 
b)  1 – да. 
57.  Частая  предсердная  экстросистолия  на  ЭКГ  при  поступлении 
(n_r_ecg_p_02): 
a)  0 – нет, 
b)  1 – да. 
58.  Желудочковая экстросистолия на ЭКГ при поступлении (n_r_ecg_p_03): 
a)  0 – нет, 
b)  1 – да. 
59.  Частая  желудочковая  экстросистолия  на  ЭКГ  при  поступлении 
(n_r_ecg_p_04): 
a)  0 – нет, 
 

 
106
b)  1 – да. 
60.  Пароксизмы  фибрилляции  предсердий  на  ЭКГ  при  поступлении 
(n_r_ecg_p_05): 
a)  0 – нет, 
b)  1 – да. 
61.  Постоянная  форма  фибрилляции  предсердий  на  ЭКГ  при  поступлении 
(n_r_ecg_p_06): 
a)  0 – нет, 
b)  1 – да. 
62.  Суправентрикулярная  пароксизмальная  тахикардия  на  ЭКГ  при  поступле-
нии (n_r_ecg_p_08): 
a)  0 – нет, 
b)  1 – да. 
63.  Желудочковая  пароксизмальная  тахикардия  на  ЭКГ  при  поступлении 
(n_r_ecg_p_09): 
a)  0 – нет, 
b)  1 – да. 
64.  Фибрилляция желудочков на ЭКГ при поступлении (n_r_ecg_p_10): 
a)  0 – нет, 
b)  1 – да. 
65.  Синоатриальная блокада на ЭКГ при поступлении (n_p_ecg_p_01): 
a)  0 – нет, 
b)  1 – да. 
66.  А-В блокада I степени на ЭКГ при поступлении (n_p_ecg_p_03): 
a)  0 – нет, 
b)  1 – да. 
67.  А-В блокада II степени I типа на ЭКГ при поступлении (n_p_ecg_p_04): 
a)  0 – нет, 
b)  1 – да. 
68.  А-В блокада II степени II типа на ЭКГ при поступлении (n_p_ecg_p_05): 
a)  0 – нет, 
b)  1 – да. 
69.  А-В блокада III степени на ЭКГ при поступлении (n_p_ecg_p_06): 
a)  0 – нет, 
 

 
107
b)  1 – да. 
70.  Блокада передней ветви левой ножки пучка Гиса на ЭКГ при поступлении 
(n_p_ecg_p_07): 
a)  0 – нет, 
b)  1 – да. 
71.  Блокада  задней  ветви  левой  ножки  пучка  на  ЭКГ  при  поступлении 
(n_p_ecg_p_08): 
a)  0 – нет, 
b)  1 – да. 
72.  Неполная  блокада  левой  ножки  пучка  Гиса  на  ЭКГ  при  поступлении 
(n_p_ecg_p_09): 
a)  0 – нет, 
b)  1 – да. 
73.  Полная  блокада  левой  ножки  пучка  Гиса  на  ЭКГ  при  поступлении 
(n_p_ecg_p_10): 
a)  0 – нет, 
b)  1 – да. 
74.  Неполная  блокада  правой  ножки  пучка  Гиса  на  ЭКГ  при  поступлении 
(n_p_ecg_p_11): 
a)  0 – нет, 
b)  1 – да. 
75.  Полная  блокада  правой  ножки  пучка  Гиса  на  ЭКГ  при  поступлении 
(n_p_ecg_p_12): 
a)  0 – нет, 
b)  1 – да. 
76.  Проведение  фибринолитической  терапии  целиазой 750 тыс.  ЕД 
(fibr_ter_01): 
a)  0 – нет, 
b)  1 – да. 
77.  Проведение фибринолитической терапии целиазой 1 млн. ЕД (fibr_ter_02): 
a)  0 – нет, 
b)  1 – да. 
 

 
108
78.  Проведение  фибринолитической  терапии  стрептодеказой 3 млн.  ЕД 
(fibr_ter_03): 
a)  0 – нет, 
b)  1 – да. 
79.  Проведение фибринолитической терапии стрептазой (fibr_ter_05): 
a)  0 – нет, 
b)  1 – да. 
80.  Проведение  фибринолитической  терапии  целиазой 500 тыс.  ЕД 
(fibr_ter_06): 
a)  0 – нет, 
b)  1 – да. 
81.  Проведение  фибринолитической  терапии  целиазой 250 тыс.  ЕД 
(fibr_ter_07): 
a)  0 – нет, 
b)  1 – да. 
82.  Проведение  фибринолитической  терапии  стрептодеказой 1,5 млн.  ЕД 
(fibr_ter_08): 
a)  0 – нет, 
b)  1 – да. 
83.  Гипокалиемия ( < 4 ммоль/л ) (GIPO_K): 
a)  0 – нет, 
b)  1 – да. 
84.  Содержание К+ в сыворотке крови (K_BLOOD). 
85.  Увеличение Na в сыворотке крови (более 150 ммоль/л) (GIPER_Na): 
a)  0 – нет, 
b)  1 – да. 
86.  Содержание Na в сыворотке крови (Na_BLOOD). 
87.  Содержание АлАТ в крови (ALT_BLOOD). 
88.  Содержание АсАТ в крови (AST_BLOOD). 
90.  Содержание лейкоцитов в крови (×109 /л ) (L_BLOOD). 
91.  СОЭ (скорость оседания эритроцитов) (ROE). 
92.  Время, прошедшее от начала ангинозного приступа до поступления в ста-
ционар (TIME_B_S): 
 

 
109
a)  1 – менее 2 часов, 
b)  2 – 2-4 часа, 
c)  3 – 4-6 часов, 
d)  4 – 6-8 часов, 
e)  5 – 8-12 часов, 
f)  6 – 12-24 часов, 
g)  7 – более 1 суток, 
h)  8 – более 2 суток, 
i)  9 – более 3 суток. 
93.  Повышение температуры в первые сутки (TEMPER_1_N): 
a)  0 – нет, 
b)  1 – 37-37,5°, 
c)  2 – 37,5-38°, 
d)  3 – 38-38,5°, 
e)  4 – 38,5-39°, 
f)  5 – 39-39,5°, 
g)  6 - >39,5°. 
94.  Повышение температуры во вторые сутки (TEMPER_2_N): 
a)  0 – нет, 
b)  1 – 37-37,5°, 
c)  2 – 37,5-38°, 
d)  3 – 38-38,5°, 
e)  4 – 38,5-39°, 
f)  5 – 39-39,5°, 
g)  6 - >39,5°. 
95.  Повышение температуры в третьи сутки (TEMPER_3_N): 
a)  0 – нет, 
b)  1 – 37-37,5°, 
c)  2 – 37,5-38°, 
d)  3 – 38-38,5°, 
e)  4 – 38,5-39°, 
f)  5 – 39-39,5°, 
g)  6 - >39,5°. 
96.  Рецидивирование  ангинозных  болей  в 1-е  сутки  стац. Лечения 
(R_AB_1_N): 
a)  0 – не рецидивировали, 
b)  1 – однократно, 
c)  2 – 2 раза, 
d)  3 – 3 раза и т.д. 
 

 
110
97.  Рецидивирование  ангинозных  болей  во 2-е  сутки  стац. Лечения 
(R_AB_2_N): 
a)  0 – не рецидивировали, 
b)  1 – однократно, 
c)  2 – более 1-го раза. 
98.  Рецидивирование  ангинозных  болей  в 3-и  сутки  стац. Лечения 
(R_AB_3_N): 
a)  0 – не рецидивировали, 
b)  1 – однократно, 
c)  2 – более 1-го раза. 
102.  Применение жидких нитратов в ОриИТ (NITR_S): 
a)  0 – нет, 
b)  1 – да. 
103.  Применение  наркотических  анальгетиков  в  ОриИТ  в 1 сутки 
(NA_R_1_N): 
a)  0 – не вводились, 
b)  1 – вводились однократно, 
c)  2 – вводились двукратно, 
d)  3 – вводились 3-х кратно, 
e)  4 – вводились 4-х кратно. 
104.  Применение  наркотических  анальгетиков  в  ОриИТ  во 2 сутки 
(NA_R_2_N): 
a)  0 – не вводились, 
b)  1 – вводились однократно, 
c)  2 – вводились более 1 раза. 
105.  Применение  наркотических  анальгетиков  в  ОриИТ  в 3 сутки 
(NA_R_3_N): 
a)  0 – не вводились, 
b)  1 – вводились однократно, 
c)  2 – вводились более 1 раза. 
106.  Применение  ненаркотических  анальгетиков  в  ОриИТ  в 1 сутки 
(NOT_NA_1_N): 
a)  0 – не вводились, 
b)  1 – вводились однократно, 
c)  2 – вводились двукратно, 
d)  3 – вводились 3-х кратно, 
 

 
111
e)  4 – вводились 4-х кратно и т.д. 
107.  Применение  ненаркотических  анальгетиков  в  ОриИТ  во 2 сутки 
(NOT_NA_2_N): 
a)  0 – не вводились, 
b)  1 – вводились однократно, 
c)  2 – вводились более 1 раза. 
108.  Применение  ненаркотических  анальгетиков  в  ОриИТ  в 3 сутки 
(NOT_NA_3_N): 
a)  0 – не вводились, 
b)  1 – вводились однократно, 
c)  2 – вводились более 1 раза. 
109.  Введение лидокаина в ОриИТ (LID_S_N): 
a)  0 – нет, 
b)  1 – да. 
110.  Прием блокаторов в ОриИТ (B_BLOK_S_N): 
a)  0 – нет, 
b)  1 – да. 
111.  Прием антагонистов Са в ОриИТ (ANT_Ca_S_N): 
a)  0 – нет, 
b)  1 – да. 
112.  Введение антикоагулянтов (гепарин) (GEPAR_S_N): 
a)  0 – нет, 
b)  1 – да. 
113.  Прием аспирина (ASP_S_N): 
a)  0 – нет, 
b)  1 – да. 
114.  Прием тиклида (TIKL_S_N): 
a)  0 – нет, 
b)  1 – да. 
115.  Прием трентала (TRENT_S_N): 
a)  0 – нет, 
b)  1 – да. 
116.  Фибрилляция/трепетание предсердий (FIBR_PREDS): 
a)  0 – нет, 
b)  1 – да. 
 

 
112
117.  Суправентрикулярная тахикардия (PREDS_TAH): 
a)  0 – нет, 
b)  1 – да. 
118.  Желудочковая тахикардия (JELUD_TAH): 
a)  0 – нет, 
b)  1 – да. 
119.  Фибрилляция желудочков (FIBR_JELUD): 
a)  0 – нет, 
b)  1 – да. 
120.  Полная а-в блокада (A_V_BLOK): 
a)  0 – нет, 
b)  1 – да. 
121.  Отек легких (OTEK_LANC): 
a)  0 – нет, 
b)  1 – да. 
122.  Разрыв сердца (RAZRIV): 
a)  0 – нет, 
b)  1 – да. 
123.  Синдром Дресслера (DRESSLER): 
a)  0 – нет, 
b)  1 – да. 
124.  Хроническая сердечная недостаточность (ZSN): 
a)  0 – нет, 
b)  1 – да. 
125.  Рецидив инфаркта миокарда (REC_IM): 
a)  0 – нет, 
b)  1 – да. 
126.  Постинфарктная стенокардия (P_IM_STEN): 
a)  0 – нет, 
b)  1 – да. 
 

 
113
ПРИЛОЖЕНИЕ 2. 
Характеристика классов осложнений инфаркта 
миокарда – летальный исход (LET_IS) 
 
 
 
Класс 
Значение 
Характеристика 
Класс 1 

Нет 
Класс 2 

Кардиогенный шок 
Класс 3 

Отек легких 
Класс 4 

Разрыв миокарда 
Прогрессирование  застойной  сердечной  недоста-
Класс 5 

точности 
Класс 6 

Тромбоэмболия 
Класс 7 

Асистолия 
Класс 8 

Фибрилляция желудочков 
 
 

 
114
ПРИЛОЖЕНИЕ 3. 
Результаты экспериментов по реализации  
алгоритмов дублирования при решении задачи  
прогнозирования осложнений инфаркта миокарда 
 
 
Таблица 1 
Наборы признаков на базе реализации алгоритма поиска ПДПР 
Порядковый номер при-
Вид набора признаков 
знака (описание см. в 
Набор повышенной 
прил. 1) 
Набор прототипов 
Набор дублеров 
надежности 
1 2 3 4 

 
 
 
 

 
*  * 

 
 * * 

 
 
 
 

 
 
 
 

 
 * * 

 
 
 
 

 
 
 
 
10 
 
 
 
 
11 
 
 
 
 
12 
 
*  * 
13 
 
 
 
 
14 
 
 
 
 
15 
 
*  * 
16 
 
 * * 
17 
 
 * * 
18 
 
 
 
 
19 
 
 * * 
20 
 
 
 
 
21 
 
*  * 
22 
 
*  * 
23 
 
 
 
 
24 
 
*  * 
25 
 
 
 
 
26 
 
 
 
 
27 
 
 
 
 
28 
 
*  * 
29 
 
 * * 
30 
 
*  * 
31 
 
*  * 
32 
 
 
 
 
33 
 
*  * 
34 
 
*  * 
35 
 
 
 
 
36 
 
 
 
 
 
 

 
115
Продолжение таблицы 1 
1 2 3 4 
37 
 
 
 
 
38 
 
 
 
 
39 
 
*  * 
40 
 
*  * 
41 
 
*  * 
42 
 
 
 
 
43 
 
*  * 
44 
 
*  * 
45 
 
 * * 
46 
 
 
 
 
47 
 
 * * 
48 
 
 * * 
49 
 
*  * 
50 
 
 * * 
51 
 
*  * 
52 
 
*  * 
53 
 
 
 
 
54 
 
 * * 
55 
 
 * * 
56 
 
 
 
 
57 
 
*  * 
58 
 
 
 
 
59 
 
 
 
 
60 
 
*  * 
61 
 
*  * 
62 
 
 
 
 
63 
 
 
 
 
64 
 
 
 
 
65 
 
 
 
 
66 
 
*  * 
67 
 
 
 
 
68 
 
 
 
 
69 
 
*  * 
70 
 
*  * 
71 
 
*  * 
72 
 
 
 
 
73 
 
*  * 
74 
 
 
 
 
75 
 
*  * 
76 
 
*  * 
77 
 
*  * 
78 
 
 * * 
79 
 
 
 
 
80 
 
 
 
 
81 
 
 
 
 
82 
 
 
 
 
83 
 
*  * 
 
 
 

 
116
Продолжение таблицы 1 
1 2 3 4 
84 
 
 
 
 
85 
 
*  * 
86 
 
 
 
 
87 
 
 * * 
88 
 
*  * 
89 
 
 
 
 
90 
 
 
 
 
91 
 
*  * 
92 
 
 * * 
93 
 
 
 
 
94 
 
 
 
 
95 
 
 
 
 
96 
 
*  * 
97 
 
 * * 
98 
 
*  * 
99 
 
 
 
 
100 
 
 
 
 
101 
 
 
 
 
102 
 
*  * 
103 
 
*  * 
104 
 
 * * 
105 
 
*  * 
106 
 
 * * 
107 
 
 * * 
108 
 
 * * 
109 
 
*  * 
110 
 
 
 
 
111 
 
*  * 
112 
 
*  * 
113 
 
 
 
 
114 
 
*  * 
115 
 
 * * 
116 
 
 * * 
117 
 
 
 
 
118 
 
 * * 
119 
 
*  * 
120 
 
 * * 
121 
 
*  * 
122 
 
*  * 
123 
 
*  * 
124 
 
*  * 
125 
 
*  * 
126 
 
*  * 
Количество  признаков 
50 24 74 
в наборе 
 
* - признак входит в состав набора 
 

 
117
 
Таблица 2 
Результаты тестирования нейронной сети на выборке М-М’  в процессе реали-
зации алгоритма построения  КДПР 
Порядковый но-
Тестируемый параметр 
мер признака-
прототипа 
Правильно 
Неуверенно 
Неправильно 
1 2 3 4 

38 (7,0 %) 
303 (57,0%) 
188 (36,0%) 
12 
215 (41,0%) 
257 (48,0 %) 
57 (11,0%) 
15 
523 (98,5%) 
0 (0%) 
6 (1,5%) 
21 
528 (99,8%) 
0 (0%) 
1 (0,2%) 
22 
518 (98,0%) 
9 (1,7%) 
2 (0,3%) 
24 
528 (99,8%) 
0 (0%) 
1 (0,2%) 
28 
515 (97,5%) 
3 (0,5%) 
11 (2,0%) 
30 
119 (22,5%) 
374 (70,7%) 
36 (6,8%) 
31 
205 (38,8%) 
293 (55,4%) 
31 (5,8%) 
33 
527 (99,6%) 
1 (0,2%) 
1 (0,2%) 
34 
524 (99,1%) 
0 (0%) 
5 (0,9%) 
39 
255 (48,2%) 
238 (45,0%) 
36 (6,8%) 
40 
528 (99,8%) 
0 (0%) 
1 (0,2%) 
41 
499 (94,3%) 
21 (4,0%) 
9 (1,7%) 
43 
528 (99,8%) 
0 (0%) 
1 (0,2%) 
44 
492 (93,0%) 
33 (6,2%) 
4 (0,8%) 
49 
412 (77,9%) 
102 (19,3%) 
15 (2,8%) 
51 
507 (95,8%) 
16 (3,1%) 
6 (1,1%) 
52 
505 (95,5%) 
19 (3,6%) 
5 (0,9%) 
57 
528 (99,8%) 
0 (0%) 
1 (0,2%) 
60 
462 (87,5%) 
51 (9,6%) 
16 (3,1%) 
61 
517 (97,7%) 
8 (1,5%) 
4 (0,8%) 
66 
488 (92,3%) 
34 (6,4%) 
7 (1,3%) 
69 
487 (92,1%) 
36 (6,8%) 
6 (1,1%) 
70 
463 (87,5%) 
43 (8,1%) 
23 (4,4%) 
71 
507 (95,8%) 
18 (3,4%) 
4 (0,8%) 
73 
483 (91,3%) 
40 (7,6%) 
6 (1,1%) 
75 
311 (58,8%) 
192 (36,3%) 
26 (4,9%) 
76 
528 (99,8%) 
0 (0%) 
1 (0,2%) 
77 
478 (90,4%) 
43 (8,1%) 
8 (1,5%) 
83 
0 (0%) 
301 (56,9%) 
228 (43,1%) 
85 
510 (96,4%) 
7 (1,3%) 
12 (2,2%) 
88 
60 (11,3%) 
422 (79,8%) 
47 (8,9%) 
 
 

 
118
Продолжение таблицы 2 
1 2 3 4 
91 
381 (72,1%) 
0(0%) 
148 (27,9%) 
96 
14 (2,6%) 
392 (74,1%) 
123 (23,3%) 
98 
295 (55,8%) 
206 (38,9%) 
28 (5,3%) 
102 
191 (36,1%) 
278 (52,6%) 
60 (11,3%) 
103 
0 (0%) 
355 (67,1%) 
174 (32,9%) 
105 
373 (70,5%) 
134 (25,3%) 
22 (4,2%) 
109 
1 (0,2%) 
359 (67,9%) 
169 (31,9%) 
111 
1 (0,2%) 
389 (73,5%) 
139 (26,3%) 
112 
0 (0%) 
426 (80,5%) 
103 (19,5%) 
114 
451 (85,3%) 
65 (12,3%) 
13 (2,4%) 
119 
389 (73,5%) 
120 (22,7%) 
20 (3,8%) 
121 
251 (47,5%) 
227 (42,9%) 
51 (9,6%) 
122 
393 (74,3%) 
118 (22,3%) 
18 (3,4%) 
123 
109 (20,6%) 
387 (73,2%) 
33 (6,2%) 
124 
75 (14,2%) 
300 (56,7%) 
154 (29,1%) 
125 
144 (27,2%) 
340 (64,3%) 
45 (8,5%) 
126 
58 (10,9%) 
430 (81,3%) 
41 (7,8%) 
 
 

 
125
 
Таблица 5 
Анализ степени участия признаков в различных видах наборов 
Вид набора 
Наличие 
Порядковый 
признака в 
номер при-
Прямой 
Прямой 
Косвенный 
наборах, 
знака 
Минимальный 
дубль 
дубль 
дубль вто-
(“+”-есть, 
набор 
первого 
второго 
рого рода 
 “-” - нет) 
рода 
рода 
1 2 




2
 
 
 
 
 
 
 
 
-
3
*  



4
  




5
  
 



6
  
 
  


7
  




9
  
 



10
  
 



11
  
 



12
*  



13
  
 



14
  
 



15
*  



16
  




17
  




18
  
 
  
  

19
  




20
  
 
  
  

21
*  



22
*  



23
  
 
  
  

24
*  



25
  
 
  
  

26
  
 
  
  

27
  
 



28
*  



29
  




30
*  



31
*  



32
  
 



33
*  



34
*  



37
  
 
  
  

38
  
 
  
  

39
*  



40
*  



 
 

 
126
Продолжение таблицы 5 
1 2 




41
*  



42
  
 
  
  

43
*  



44
*  



45
  




46
  
 



47
  




48
  




49
*  



50
  




51
*  



52
*  



53
  
 
  
  

54
  




55
  




56
  
 



57
*  



58
  
 



59
  
 



60
*  



61
*  



62
  
 
  
  

63
  
 
  
  

64
  
 
  
  

65
  
 
  
  

66
*  



67
  
 
  
  

68
  
 
  
  

69
*  



70
*  



71
*  



72
  
 
  
  

73
*  



74
  
 



75
*  



76
*  



77
*  



78
  




79
  
 



80
  
 



81
  
 



82
  
 
  
  

83
*  



84
  
 
  


 
 
 

 
127
Продолжение таблицы 5 
1 2 




85
*  



86
  
 
  


87
  




88
*  



90
  
 



91
*  



92
  




93
  
 



94
  
 



95
  
 



96
*  



97
  




98
*  



102
*  



103
*  



104
  




105
*  



106
  




107
  




108
  




109
*  



110
  
 



111
*  



112
*  



113
  
 



114
*  



115
  




116
  




117
  
 



118
  




119
*  



120
  




121
*  



122
*  



123
*  



124
*  



125
*  



126
*  



Кол-во при-
знаков в на-
50 24 
97 
100 
100 
боре 
 
* - признак входит в состав набора. 
 

 
128
ПРИЛОЖЕНИЕ 4. 
Набор признаков для решения задачи прогнозирования 
результативности труда преподавателя 
 
3. 
Возраст 20-25 лет (0 - нет, 1 – да). 
4. 
Возраст 26-35 лет (0 - нет, 1 – да). 
5. 
Возраст 36-60 лет (0 - нет, 1 – да). 
6. 
Пол (1 – мужской, -1 – женский). 
7. 
Семейное положение (0 - неженат/не замужем, 1 - женат/за мужем). 
8. 
Количество детей. 
9. 
Возраст младшего ребенка. 
10.  Проживает рядом с работой (0 - нет, 1 – да). 
11.  Образование педагогическое (0 - нет, 1 – да). 
12.  Работа по специальности (0 - нет, 1 – да). 
13.  Смежные специальности (0 - нет, 1 – есть). 
14.  Наличие курсов повышения квалификации (0 - нет, 1 – есть). 
15.  Перерывы в процессе обучения в Вузе (0 - нет, 1 – есть). 
16.  Окончание какого Вуза (0 – другой вуз, 1 – институт). 
17.  Знание иностранных языков (-1 – знания отсутствуют, 0 – знания удовле-
творительные, 1 – знания хорошие). 
18.  Последняя работа педагогическая (0 - нет, 1 – да). 
19.  Кол-во смененных организаций за последние 5 лет. 
20.  Наличие повышений по службе (0 - нет, 1 – да). 
21.  Наличие ученой степени (0 - нет, 1 – да). 
22.  Обучение в аспирантуре/докторантуре (0 - нет, 1 – да). 
23.  Ученое звание доцент (0 - нет, 1 – да). 
24.  Ученое звание доктор (0 - нет, 1 – да). 
25.  Военнообязанный(ая) (0 - нет, 1 – да). 
26.  Количество публикаций. 
27.  Буквы очень маленькие (0 - нет, 1 – да). 
28.  Буквы маленькие (0 - нет, 1 – да). 
 

 
129
29.  Буквы средние (0 - нет, 1 – да). 
30.  Буквы крупные (0 - нет, 1 – да). 
31.  Наклон букв левый (0 - нет, 1 – да). 
32.  Наклон букв легкий левый (0 - нет, 1 – да). 
33.  Наклон букв правый (0 - нет, 1 – да). 
34.  Наклон букв резкий правый (0 - нет, 1 – да). 
35.  Прямое написание (0 - нет, 1 – да). 
36.  Форма букв (-1 – угловатые, 0 – бесформенные, 1 – округлые). 
37.  Строчки "ползут" (-1 – вниз, 0 – прямые, 1 – вверх). 
38.  Размашистость почерка (-1 – сильная, 0 – средняя, 1 – легкая). 
39.  Сила нажима (-1 – сильная, 0 – средняя, 1 – легкая). 
40.  Стиль написания (-1 – раздельно, 0 – смешанный, 1 – слитно). 
41.  Почерк индивидуальный (0 - нет, 1 – да). 
42.  Почерк старательный (0 - нет, 1 – да). 
43.  Почерк неровный (0 - нет, 1 – да). 
44.  Почерк небрежный (0 - нет, 1 – да). 
45.  Длинные петли нижней части букв (0 - нет, 1 – да). 
46.  Разные по размеру буквы (0 - нет, 1 – да). 
47.  Большие заглавные буквы (0 - нет, 1 – да). 
48.  Витиеватость заглавных букв (0 - нет, 1 – да). 
49.  Угловатые заглавные буквы (0 - нет, 1 – да). 
50.  Экстравагантные заглавные буквы (0 - нет, 1 – да). 
51.  Незаконченные петли нижней части букв (0 - нет, 1 – да). 
52.  Простота написания заглавных букв (0 - нет, 1 – да). 
53.  Непомерно крупный почерк (0 - нет, 1 – да). 
54.  Плавный поток ровных букв (0 - нет, 1 – да). 
55.  Открытые верхние части букв (0 - нет, 1 – да). 
56.  Лицо овальное (0 - нет, 1 – да). 
57.  Лицо круглое (0 - нет, 1 – да). 
58.  Лицо квадратное (0 - нет, 1 – да). 
59.  Лицо прямоугольное (0 - нет, 1 – да). 
 

 
130
60.  Лицо треугольное (0 - нет, 1 – да). 
61.  Брови (-1 – густые, 0 - средние 1 - тонкие). 
62.  Брови сходятся на переносице (0 - нет, 1 – да). 
63.  Форма глаз (-1 - круглые, 0 – бесформенные, 1 - миндалевидные). 
64.  Размер глаз (-1 - большие, 0 - средние, 1 - маленькие). 
65.  Глаза далеко отстающие друг от друга (0 - нет, 1 – да). 
66.  Лоб (-1 - низкий, 0 - средний, 1 - высокий). 
67.  Нос (-1 - острый, 0 – обыкновенный, 1 - курносый). 
68.  Нос имеет большие "крылья" (0 - нет, 1 – да). 
69.  Губы (-1 - тонкие, 0 - средние, 1 - пухлые). 
70.  Подбородок массивный (0 - нет, 1 – да). 
71.  Подбородок обычный (0 - нет, 1 – да). 
72.  Подбородок острый (0 - нет, 1 – да). 
73.  Телосложение (-1 - худощавое, 0 - среднее, 1 - крупное). 
74.  Вид аккуратный(0 - нет, 1 – да). 
75.  Стиль торжественный(0 - нет, 1 – да). 
 













































 
131
ПРИЛОЖЕНИЕ 5. 
Анкета “Преподаватель глазами студента” 
 
 
Средний 
№ 
Качество преподавателя 
балл 
1.    Излагает материал ясно, доступно 
 
2.    Разъясняет сложные и выделяет главные мета 
 
3.    Использует новейшую информацию в данной области 
 
4.    Соблюдает логическую последовательность в изложении 
 
5.    Обеспечивает  занятие  методическими  материалами,  посо-  
биями, иллюстрирующими содержание изучаемой темы 
6.    Умеет  использовать  элементы  дискуссии  и  поддержать  об-  
ратную связь со студентами 
7.    Демонстрирует культуру речи 
 
8.    Умеет выбрать оптимальный темп изложения 
 
9.    Умеет снять напряжение и усталость аудитории 
 
10.  Ориентирует на использование изучаемого материала  в  бу-  
дущей профессиональной деятельности 
11.  Доброжелательность и такт по отношению к студентам 
 
12.  Требовательность к студентам при оценке знаний 
 
13.  Объективность в оценке знаний студентов 
 
14.  Располагает к себе: 
 
14.1. Высокой эрудицией 
14.2. Манерой поведения 
14.3. Внешним видом 
 
ИТОГО 
 
 

 
132
ПРИЛОЖЕНИЕ 6. 
Результаты экспериментов по реализации алгоритмов 
дублирования при решении задачи прогнозирования 
результативности труда преподавателя 
 
Таблица 1 
Наборы признаков на базе реализации ПДПР 
Порядковый но-
Вид набора признаков 
мер признака 
(описание см. в 
Набор повышенной 
Набор прототипов 
Набор дублеров 
прил. 4) 
надежности 
1 2  3  4 
3   
 
 
 
4   
 * * 
5   
 
 
 
6   
 * * 
7   
 
 
 
8   
 
 
 
9   
 
 
 
10   
*  * 
11   
 
 
 
12   
 * * 
13   
 
 
 
14   
 * * 
15   
 
 
 
16   
 
 
 
17   
 
 
 
18   
*  * 
19   
 * * 
20   
 * * 
21   
 
 
 
22   
*  * 
23   
 
 
 
24   
 
 
 
25   
 * * 
26   
 
 
 
27   
 
 
 
28   
 * * 
29   
*  * 
30   
*  * 
31   
 
 
 
32   
 
 
 
33   
 
 
 
34   
 * * 
 
 
 

 
133
Продолжение таблицы 1 
1 2  3  4 
35   
*  * 
36   
 
 
 
37   
 
 
 
38   
 
 
 
39   
 
 
 
40   
 * * 
41   
 
 
 
42   
 
 
 
43   
 * * 
44   
*  * 
45   
 
 
 
46   
 
 
 
47   
 
 
 
48   
 * * 
49   
*  * 
50   
*  * 
51   
 
 
 
52   
 
 
 
53   
*  * 
54   
 * * 
55   
 * * 
56   
*  * 
57   
 * * 
58   
 * * 
59   
 
 
 
60   
 
 
 
61   
 
 
 
62   
 
 
 
63   
 
 
 
64   
 * * 
65   
 
 
 
66   
 
 
 
67   
 * * 
68   
 
 
 
69   
 * * 
70   
 
 
 
71   
 
 
 
72   
 
 
 
73   
 
 
 
74   
 
 
 
75   
 
 
 
Количество при-
11 19 30 
знаков в наборе 
 
* - признак входит в состав набора. 
 

 
134
 
Таблица 2 
Наборы признаков на базе реализации КДПР 
Порядковый но-
Вид набора признаков 
мер признака 
(описание см. в 
Набор повышенной 
Набор прототипов 
Набор дублеров 
прил. 4) 
надежности 
1 2  3  4 
3   
 
 
 
4   
 * * 
5   
 * * 
6   
 
 
 
7   
 
 
 
8   
 
 
 
9   
 
 
 
10   
*  * 
11   
 
 
 
12   
 
 
 
13   
 * * 
14   
 
 
 
15   
 * * 
16   
 
 
 
17   
 
 
 
18   
*  * 
19   
 
 
 
20   
 
 
 
21   
 * * 
22   
*  * 
23   
 
 
 
24   
 
 
 
25   
 
 
 
26   
 
 
 
27   
 
 
 
28   
 
 
 
29   
*  * 
30   
*  * 
31   
 
 
 
32   
 
 
 
33   
 * * 
34   
 * * 
35   
*  * 
36   
 
 
 
37   
 
 
 
38   
 
 
 
39   
 
 
 
40   
 
 
 
41   
 * * 
42   
 
 
 
 
 

 
135
Продолжение таблицы 2 
1 2  3  4 
43   
 
 
 
44   
 
 
 
45   
*  * 
46   
 
 
 
47   
 * * 
48   
 * * 
49   
*  * 
50   
*  * 
51   
 * * 
52   
 * * 
53   
*  * 
54   
 
 
 
55   
 * * 
56   
*  * 
57   
 
 
 
58   
 * * 
59   
 
 
 
60   
 
 
 
61   
 
 
 
62   
 * * 
63   
 
 
 
64   
 
 
 
65   
 
 
 
66   
 
 
 
67   
 
 
 
68   
 
 
 
69   
 
 
 
70   
 
 
 
71   
 
 
 
72   
 
 
 
73   
 
 
 
74   
 
 
 
75   
 
 
 
Количество  при-
11 16 27 
знаков в наборе 
 
* - признак входит в состав набора. 
 
 
 

 
136
 
Таблица 3 
Набор повышенной надежности на базе ПДВР 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
набора
 
признак
 
Вид
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
го
го
го
го
го
го
го
го
го
го
го
 
дублером
 
прототипов
 
раз
 10-
 18-
 22-
 29-
 30-
 35-
 45-
 50-
 51-
 54-
 57-
 
повышенной
надежности
 
признака
Набор
Сколько
является
Набор

 
 
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль

2 3 4 5 6 7 8 9 10 11 12 13 14  15 
3
 
 
 
 
 
 
 

 
 
 
 


4
    *  *       2  * 
5
 
 
 
 
 
 
 
 
 

 
 


6
 *  *  *  * * * * *  8  * 
7
 
 
 
 
 
 
 
 
 
 

 


8
 
 
 
 
 
 
 
 
 
 
 
 

 
9
 
 
 
 
 
 
 
 
 
 
 
 

 
10 * 
  * * * * * *    *      7  * 
11
 *   *   *      3  * 
12
 * * *    * *  * *   7  * 
13
 *    * *     * 4  * 
14
 * *    *       3  * 
15
     *    *    2  * 
16
 *  *  *        *   4  * 
17
 *      *      2  * 
18 *      * *  * *  * *  6  * 
19
         * *   2  * 
20
         *    1  * 
21
     * *  * *    4  * 
22 *       *      * 2  * 
23
 * * *  * * *    *   7  * 
24
        * * *   3  * 
25
  *       *    2  * 
26
 *       *     2  * 
27
  *           1  * 
28
    * * * * *    * * * *  9  * 
29 * *  *    *    * 3  * 
30 *    * * *   * *      5  * 
31
 *   *         2  * 
32
      * *  *    3  * 
33
    * *  *      3  * 
34
 * *     *      3  * 
35 *       
 
 
 
 
 


 
 

 
137
Продолжение таблицы 3 

2 3 4 5 6 7 8 9 10 11 12 13 14  15 
36
             0   
37
             0   
38
             0   
39
             0   
40
             0   
41
    *     *    2  * 
42
 * * *  *  *         5  * 
43
         *    1  * 
44
   *      *           2  * 
45 *      *         * 2  * 
46
      *    *   2  * 
47
             0   
48
  *        *   2  * 
49
        * * * * *        5  * 
50 * * *    *  *      4  * 
51 * *  *      *       3  * 
52
 *      *  *    3  * 
53
     *    *           2  * 
54 *      *   *  *  3  * 
55
       *  *    2  * 
56
           *  *  * *  4  * 
57 *        *    1  * 
58
             0   
59
   *      * *   3  * 
60
             0   
61
             0   
62
  *  *       * 3  * 
63
     *    *    * * *  5  * 
64
             0   
65
      * * *     3  * 
66
             0   
67
             0   
68
 * * *      *  *     5  * 
69
             0   
70
             0   
71
     *      * 2  * 
72
          * * 2  * 
73
             0   
74
       *      1  * 
75
             0   
Кол-во 11 17 15 14 12 15 18 22 10 20 15 13   
55 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
   - признак исключен из набора;  
*  - признак входит в набор. 
 

 
138
 
Таблица 4 
Набор повышенной надежности на базе КДВР 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
набора
 
набор
 
признак
 
Вид
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
 
признака
го
го
го
го
го
го
го
го
го
го
го
 
раз
 
дублером
 10-
 18-
 22-
 29-
 30-
 35-
 45-
 50-
 51-
 54-
 57-
 
повышенной
надежности
 
признака
Сколько
является
Набор

 
Минимальный
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль
Дубль

2 3 4 5 6 7 8 9 10 11 12 13  14  15 
3   
  
  
  
  
  
  
  
  
  

  


4   
  
  
  
  
  
  
  
  
  

  


5   
  

  
  
  
  

  

  



6   

  
  
  

  
  
  
  
  



7   
  
  

  
  
  
  
  
  
  
  


8   
  
  
  

  
  
  
  
  
  
  


9   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
10 * 
  
  
  
  
  


  
  
  
  


11   
  
  
  
  
  
  
  
  

  
  


12   
  

  
  

  

  
  

  


13   
  

  

  
  
  
  

  



14   



  
  
  




  


15   
  
  
  


  
  
  
  
  
  


16   
  

  
  
  
  


  




17   
  
  

  
  
  
  
  
  
  
  


18 *  
    

  
  
  
  
  
  
  
  


19   
  
  
  
  
  
  
  
  
  

  


20   
  

  
  
  
  

  
  
  
  


21   

  

  
  

  


  
  


22 *  
 *   
  
  
  
  
  
  
  
  


23   
  


  
  
  
  
  
  
  
  


24   
  

  
  
  
  

  

  
  


25   
  
  
  
  
  
  

  

  
  


26   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
27   
  
  
  
  
  
  
  

  
  
  


28   
  
  
  


  
  
  
  
  



29 * 
  
  
  
  

  
  

  
  
  


30 * 
  

  

  
  
  
  
  

  


31   
  
  
  
  
  
  
  
  
  




32   

  
  
  
  
  
  
  
  
  
  


33   
  
  
  
  
  

  

  
  
  


34   


  
  
  
  
  
  
  
  
  


35 * 
  
  
  
  
  
  
  
  
  
  
  
 0 

 
 

 
139
Продолжение таблицы 4 

2 3 4 5 6 7 8 9 10 11 12 13  14  15 
36   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
37   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
38   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
39   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
40   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
41   

  
  
  
  
  
  

  

  


42   


  
  

  
  

  
  
  


43   
  


  
  
  
  

  

  


44   
  

  
  

  
  
  

  
  


45 * 
  
  
  
  
  
  
  
  
  
  
  
 0 

46   
  

  
  
  
  
  
  
  
  
  


47   
  
  
  
  
  
  
  
  
  
  



48   

  

  
  
  
  

  
  
  


49   
  
  
  

  
  
  

  

  


50 * 
  
  
  
  
  
  
  
  
  
  
  
 0 

51 * 
  
  
  
  

  
  
  
  
  
  


52   
  
  
  
  
  
  



  
  


53   
  
  
  
  
  
  
  

  
  
  


54 * 
  
  
  
  
  
  

  

  
  


55   
  
  
  
  
  
  

  





56   

  
  
  

  
  
  
  
  



57 * 
  
  
  
  
  
  

  

  
  


58   
  
  
  
  
  
  
  
  
  

  


59   

  
  
  
  

  
  
  




60   
  
  
  
  
  
  
  
  
  
  



61   
  
  
  
  
  
  
  
  

  
  


62   

  
  
  
  
  
  

  
  
  


63   


  
  
  
  

  
  

  


64   
  
  
  
  
  
  
  
  
  
  
  

 
65   

  
  

  
  
  
  
  

  


66   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
67   
  

  
  
  
  
  
  
  
  
  


68   

  
  
  
  
  
  
  

  
  


69   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
70   

  
  
  
  

  
  
  
  
  


71   
  
  
  
  
  
  
  

  
  
  


72   
  
  
  
  
  
  
  
  
  
  
  

 
73   
  
  
  
  
  
  
  
  
  
  
  
 0 
 
74   
  
  
  
  
  

  
  
  
  
  


75   

  
  
  
  
  
  
  
  
  
  


Кол-во 11 16 17  8  7  9  6  13 15 14 16 11 
 
61 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
   - признак переведен в результаты; 
* - признак входит в набор. 
 
 

 
140
 
Таблица 5 
Анализ степени участия признаков в различных видах наборов 
Вид набора 
Наличие 
Поряд-
признака в 
ковый 
Косвен-
Косвен-
наборах, 
номер 
Мини-
Прямой 
Прямой 
ный дубль 
ный дубль  (“+”-есть,
признака 
мальный 
дубль пер-
дубль вто-
первого 
второго 
набор 
вого рода 
рого рода 
 “-” - нет) 
рода 
рода 
1 2 3 4 5 6 7 

   * * 


  * * * * + 

  * * * 


 *  * * + 

   * * 


    * 


 
 
 
 
 

10 
*    * * + 
11 
   * * 

12 
 *  * * + 
13 
  * * * 

14 
 *  * * + 
15 
  * * * 

16 
   * * 

17 
   * * 

18 
*    * * + 
19 
 *  * * + 
20 
 *  * * + 
21 
  * * * 

22 
*    * * + 
23 
   * * 

24 
   * * 

25 
 *  * * + 
26 
   *  + 
27 
   * * 

28 
 *  * * + 
29 
*    * * + 
30 
*    * * + 
31 
   * * 

32 
   * * 

33 
  * * * 

34 
  * * * * + 
35 
*      * + 
36 
 
 
 
 
 

37 
 
 
 
 
 

38 
 
 
 
 
 

39 
 
 
 
 
 

40 
 
 
 
 
 

 
 

 
141
Продолжение таблицы 5 
1 2 3 4 5 6 7 
41 
  * * * * + 
42 
   * * 

43 
   * * 

44 
 *  * * + 
45 
*    * * + 
46 
   * * 

47 
   *  * + 
48 
  * * * 

49 
 *  * * + 
50 
*    * * + 
51 
*  * * * + 
52 
  * * * 

53 
   * * 

54 
*    * * + 
55 
  * * * * + 
56 
 *  * * + 
57 
*    * * + 
58 
 * *  * + 
59 
   * * 

60 
    * 

61 
    * 

62 
  * * * 

63 
   * * 

64 
 
 
 
 
 

65 
 *  * * + 
66 
 
 
 
 
 

67 
    * 

68 
 *  * * + 
69 
 
 
 
 
 

70 
 *    * + 
71 
   * * 

72 
   *  + 
73 
 
 
 
 
 

74 
   * * 

75 
    * 

Кол-во 
призна-
11 19 16 55 61 10 
ков  в  на-
боре 
* - признак входит в состав набора. 
 
 

Document Outline

  • 
  • 
      • 5B>4K
        • 5B>4K
        • 5B>4K
        • 5B>4K
    • K2>4K
    • 
        • !B@C:BC@0
          • ;0AA8D8:0F8O
      • K2>4K
        • @O<>9
          • >A25==K9
          • @O<>9
          • >A25==K9
      • K2>4K
        • @>25@:0
        • @>25@:0
        • @>25@:0
        • @>25@:0
      • K2>4K
    • " "# 


 

А также другие работы, которые могут Вас заинтересовать

23238. Аристотель, Стагірит 216 KB
  Зі сказаного очевидно що з того де йде мова про предмет необхідно говорити про предмет і ім'я й поняття; так наприклад людина говорить про предмет про окрему людину і про неї звичайно говорить ім'я [людини]: адже окремою людиною називають живу істоту й визначення людини буде визначати окрему людину адже окрема людина є й людина і жива істота. Так біле перебуваючи в тілі як у підметі говорить про предмет адже тіло називається білим але поняття білого ніколи не може означати тіло. Її предмет – мислення як цілісне утворення...
23239. Ільєнков, Евальд Васильович 146.5 KB
  І ось учорашній оптиміст стає похмурим нитиком – песимістом якого вже ніщо не радує і ніщо не веселить не дивлячись на його паспортну молодість здоровий шлунок і міцні зуби. Якщо ми недвозначно беремо висвітлену таким чином наукову присутність у своє володіння то маємо сказати: Те на що спрямоване наше світовідношення є саме суще – і більше ніщо. Те чим керується вся наша установка є саме суще – і крім нього ніщо. Те з чим працює дослідження що втручається у світ є саме суще – і ніщо понад того.
23240. Сковорода, Григорій Савич 152.5 KB
  Навпаки саме при падінні аристократичних оцінок людської совісті поступово нав'язується весь цей контраст €œегоїстичного€ і €œнеегоїстичного€ – цей по моїй термінології стадний інстинкт котрий дістав тоді розповсюдження. Поняття €œдобро€ він вважає по суті рівним поняттю €œкорисний€ €œдоцільний€ так що в думках €œдобро€ і €œзло€ людство ніби то підсумовує і санкціонує саме незабуті і незабутні пізнання про корисне – доцільне і шкідливе – недоцільне. Добро згідно цієї теорії – те що споконвіку виявилося корисним тому воно...
23241. Кримський, Сергій Борисович. ФІЛОСОФІЯ - АВАНТЮРА ДУХУ ЧИ ЛІТУРГІЯ СМИСЛУ 192.5 KB
  Кримський розробляє принципи трансформації знання прийоми інтерпретації принципи узагальненої раціональності та розуміння принципи духовності розвиває неоплатонічну концепцію вилучення архетипових структур буття розуму та культури; виділяє архетипи української культури. ФІЛОСОФІЯ АВАНТЮРА ДУХУ ЧИ ЛІТУРГІЯ СМИСЛУ Видатний мислитель пізньоантичної епохи Плотін стверджуючи прилученність мудрості до центральних зон смислотворчості буття та людини проголошував що філософія є найголовнішим у житті. Вона є єдиним засобом поставити людину...
23242. Фоєрбах, Людвіг. РАГМЕНТИ ДО ХАРАКТЕРИСТИКИ МОЄЇ ФІЛОСОФСЬКОЇ БІОГРАФІЇ 85.5 KB
  Головним завданням своєї філософії Фоєрбах вважав відповідь на питання – якою є справжня природа людини як визначити її шлях до щастя Для розкриття природи людини застосовує поняття любові. Подальший прогрес людства Фоєрбах вбачав в утвердженні нової філософії – релігії що культивуватиме любов людини до людини як до Бога. Але чи не слід би саму релігію зрозуміти у більш загальному смислі А порозуміння з філософією чи не повинно полягати лише у визнанні та виправданні певних вчень Чи немає якогось іншого виду порозуміння ________ Яке ж...