86117

Нейронные сети в управлении технологическими процессами

Дипломная

Информатика, кибернетика и программирование

Цель исследования –- получение автоматизированной системы управления процессом получения цвета лаков и красок с помощью нейронных сетей Для достижения поставленной цели выдвинуты следующие задачи: провести теоретический анализ нейронных сетей и методов их обучения выбрать структуру нейронной сети...

Русский

2015-04-03

297 KB

6 чел.

Введение

 Производство лаков и красок относится к гибким производственным системам, в которых в зависимости от условий в данном наборе аппаратов возможно получение одного или нескольких продуктов одновременно. Для лакокрасочного производства характерны непрерывно-дискретный характер производства, нестационарность процессов, субъективность восприятия характеристик продукции (цвет, блеск), сложность построения математических моделей, имеющих физический смысл, вызванная большим количеством протекающих процессов и большим количеством параметров состояния, что обуславливает целесообразность применения аппарата нейронных сетей.

Одной из основных проблем при производстве красок является правильная дозировка пигментов, подбор требуемого соотношения пигментов.

Актуальность данной темы обусловлена тем, что существуют множество проблем при определении состава пигментов. При равных массах пигментов в разных производственных циклах цвет готовой краски может отличаться. Цвет готовой краски определяется экспертом, что, в свою очередь, вносит субъективность в оценках. Создание новой рецептуры краски определенного цвета при переходе от лабораторных исследований к производству сопровождается большим количеством брака при постановке цвета. Необходимо прогнозировать цвет краски по исходной рецептуре до проведения технологического процесса. Для протекающего технологического процесса необходимо управлять дозировкой пигментов.

Объектом исследования является технологический процесс производства лаков и красок.

Предмет исследования – нейронные сети в управлении в управлении технологическими процессами

Цель исследования – получение автоматизированной системы управления процессом получения цвета лаков и красок с помощью нейронных сетей

Для достижения поставленной цели выдвинуты следующие задачи:

- провести теоретический анализ нейронных сетей и методов их обучения

- выбрать структуру нейронной  сети

- выбрать метод обучения нейронной сети

- написать программу, решающую поставленную задачу

В разделе 1 рассмотрено место проходнения практики – Предприятие Информационных Технологий «Протон».  Описана организационная структура предприятия,  технологические процессы проходящие на предприятии и задачи требующие компьютеризации.

В разделе 2 показаны нейронные сети в управлении технологическими процессами, проведено общее ознакомление с нейронными сетями. Рассмотрены основные структуры  нейронных сетей, основные алгоритмы обучения и непосредственно задача управления цветом.

В разделе 3 выполнено построение нейронной сети для задачи управления цветом ,  выбран наилучший метод обучения сети для данной задачи. Проведен анализ результата исследования.

Раздел 1.  Предприятие Информационных Технологий «ПРОТОН».

Предприятие занимается продажей компьютерной и бытовой техники, прокладки компьютерных сетей, установке компьютерных классов или офисные решения «под ключ», установка и продажа охранных и противопожарных сигнализаций, систем видеонаблюдения,  сплит – систем , кондиционеров, так же оно имеет сеть информационных центров, в которые люди могут придти поработать на компьютере, воспользоваться компьютерными и офисными услугами, сетью Internet и тд.

ООО ПИТ «ПРОТОН» собирает компьютеры разных модификаций, от самых простых до самых современных со всеми периферийными устройствами.

1.1 Структура предприятия

Следующий важный элемент, без которого не может существовать ни одна организация, - её структура. Под структурой организации понимается её архитектоника, наличие отдельных частей и соотношения между ними, степень жесткости/гибкости организационной конфигурации, типы взаимодействий между внутренними элементами.

ООО ПИТ «ПРОТОН» состоит из следующих отделов:

       Аппарат управления АУП, в него входят- директор, бухгалтера, дилерский отдел.

       Сервисный центр занимается продажей и ремонтом вычислительной техники, периферийного оборудование и офисного, модернизацией, обслуживанием и сборкой вычислительной техники, прокладкой компьютерных сетей.

Магазин занимается продажей вычислительной техники, периферийного оборудование.

Сеть информационных  центров предоставляет рабочие станции на которых люди могут поработать на компьютере, воспользоваться компьютерными и офисными услугами, сетью Internet и тд.

Структурная схема предприятия

  1.  Технологические процессы

Предприятие занимается продажей компьютерной и бытовой техники, прокладки компьютерных сетей, установке компьютерных классов или офисные решения «под ключ», установка и продажа охранных и противопожарных сигнализаций, систем видеонаблюдения,  сплит – систем , кондиционеров, так же оно имеет сеть информационных центров, в которые люди могут придти поработать на компьютере, воспользоваться компьютерными и офисными услугами, сетью Internet и тд.

ООО ПИТ «ПРОТОН» собирает компьютеры разных модификаций, от самых простых до самых современных со всеми периферийными устройствами.

 Занимается разработкой програмного обеспечения по заказам предприятий ремонта.  

1.3 Задачи требующие компьютеризации

На предприятии все рабочие места оснащены компьютерами. Каждое рабочее место, оснащено компьютерами последних конфигураций с доступом в Интернет. Локальная сеть связывает каждый компьютер на фирме между собой и с сервером. Это обеспечивает слаженную, быструю и продуктивную работу каждого из сотрудников. Так же налажена прямая связь инфоцентров с фирмой и между собой, что удобно для быстрого обмена информацией  и  координации их работы. Автоматизированное рабочее место (АРМ), или, в зарубежной терминологии, «рабочая станция» (workstation), представляет собой место пользователя-специалиста той или иной профессии, оборудованное средствами, необходимыми для автоматизации выполнения им определенных функций. Такими средствами, как правило, является ПК, дополняемый по мере необходимости другими вспомогательными электронными устройствами, а именно дисковыми накопителями, печатающими устройствами, оптическими читающими устройствами или считывателями штрихового кода, устройствами графики, средствами сопряжения с другими АРМ и с локальными вычислительными сетями и т. д.

Наибольшее распространение в мире получили АРМ на базе, профессиональных ПК с архитектурой IBM PC ATX.

АРМ в основном ориентированы на пользователя, не имеющего специальной профессиональной подготовки по использованию вычислительной техники, - так называемого «непрограммирующего профессионала», или, как иногда говорят, «профессионала-непрограммиста». При этом основным назначением АРМ можно считать децентрализованную автоматизированную обработку информации на рабочих местах, использование соответствующих «своих» баз данных при одновременной возможности вхождения в локальные сети АРМ и ПК, а иногда и в глобальные вычислительные сети, включающие мощные ЭВМ.

На производственных предприятиях АРМ являются важной структурной составляющей АСУ как персональное средство планирования, управления, обработки данных и принятия решений, также АРМ используются в сервисных центрах для диагностики оборудования находящегося в ремонте. АРМ - это всегда специализированная система, набор технических средств и программного обеспечения, ориентированного на конкретного специалиста администратора, экономиста, инженера, конструктора, проектанта, архитектора, дизайнера, врача, организатора, исследователя, библиотекаря, музейного работника и множество других.

В то же время к АРМ любой «профессии» можно предъявить и ряд общих требований, которые должны обеспечиваться при его создании, а именно:

непосредственное наличие средств обработки информации;

возможность работы в диалоговом (интерактивном) режиме;

выполнение основных требований эргономики: рациональное распределение функций между оператором, элементами комплекса АРМ и окружающей средой, создание комфортных условий работы, удобство конструкций АРМ, учет психологических факторов человека-оператора, привлекательность форм и цвета элементов АРМ и др.;

достаточно высокая производительность и надежность ПК, работающего в системе АРМ;

адекватное характеру решаемых задач программное обеспечение;

максимальная степень автоматизации рутинных процессов;

оптимальные условия для самообслуживания специалистов как операторов АРМ;

другие факторы, обеспечивающие максимальную комфортность и удовлетворенность специалиста использованием АРМ как рабочего инструмента.

Несколько слов о структуре АРМ, включающей совокупность подсистем - технической, информационной, программной и организационной.

О технической подсистеме уже было сказано в начале настоящего раздела. Добавим только, что к указанному ранее набору технических средств, непосредственно образующему АРМ, надо еще присовокупить средства связи с другими АРМ, работающими в общей сети объекта, а также другие средства связи (телефон, телефакс). В период прохождения практики я имел дело с такими устройствами компьютерной периферии, как:

а) принтер (печатающее устройство); предназначен для вывода информации на бумагу. Обычно принтеры могут выводить не только текстовую информацию, но даже рисунки и графики. Одни принтеры позволяют печатать только в одном цвете (черном), другие могут выводить также и цветные изображения:

струйные принтеры – изображение формируется микрокаплями специальных чернил, выбрасываемых на бумагу через сопла в печатающей головке. Как и в матричных принтерах, печатающая головка струйного принтера движется по горизонтали, а по окончании печати каждой горизонтальной полосы изображения бумага продвигается по вертикали;

лазерные принтеры – используется принцип ксерографии: изображение переносится на бумагу со специального барабана, к которому электрически притягиваются частички краски (тонера). Отличие от обычного копировального аппарата состоит в том, что печатающий барабан электризуется с помощью лазера по командам из компьютера.

б) модем и факс-модем; для всех пользователей, желающих использовать глобальные электронные сети типа Internet, работать с электронной почтой, получать извне офиса доступ к локальной сети своей фирмы, посылать факсы с помощью компьютера и т.д., необходим модем или факс-модем. Модем – устройство для обмена информацией с другими компьютерами через телефонную сеть. Факс-модем – это устройство, сочетающее возможности модема и средства для обмена факсимильными изображениями с другими факс-модемами и обычными телефаксными аппаратами. Некоторые модемы обладают голосовыми возможностями и могут, например, использоваться в качестве автоответчика.

в) источник бесперебойного питания; лучшим решением проблем, возникающих в цепях питания, является установка UPS (Uniterruptible Power Supply), или источника бесперебойного питания, который одновременно выполняет функции фильтра-стабилизатора и источника аварийного питания. UPS работают постоянно и напряжение на компьютер поступает только от них. В UPS постоянное напряжение 12 В от аккумуляторной батареи преобразуется в переменное напряжение. Даже если напряжение в сети пропадает, емкости батарей ИБП хватает, как минимум, на десять минут, так, что пользователь может завершить все имеющиеся работы, чтобы при выключении компьютера не произошло потери информации.

На предприятии я проходил практику в роли администратора инфоцентра. Мое рабочее место состояло из:

  1.  Сервера;
  2.  ПК подключенного к серверу с помощью локальной сети;
  3.  Сканера
  4.  Лазерного принтера.

Характеристика объекта автоматизации или модернизации сетей и систем

       На практике находилось 3 ряда компьютеров, 103 клиентских компьютера 2 админских и один сервер, они все находятся в сети. Компьютеры были соединены витой парой. Витая пара выгодно отличается от других видов кабелей своей ценой и пропускной способностью, этот вид кабеля очень выгоден для  сетей расположенных в одном помещении (максимальный размер сегмента равен 100м). Состав аппаратной части

В инфоцентре установлен  сервер на базе процессоров Intel Pentium Xeon 2.6 GHz, 1 Gb оперативной памяти, и 2 – мя жесткими дисками на 450 Gb, каждый.

Обычные ПК имеют такие характеристики:

Motherboard Asus 865;

Processor Celeron 2.0 Ghz;

RAM 256 Mb;

Video ATI Radeon 9200 128 Mb;

Net Realtek.

Для связи всех компьютеров во внутренней сети используется активное сетевое оборудование Swith Surecom, для направленя трафика используется Router на базе Celeron 900 Mhz.

Программное обеспечение объекта

       Для работы в сети необходимо стандартное программное обеспеченье. Необходимо настроить протоколы и службы.

Протокол РРР  - набор стандартных протоколов, обеспечивающих поставщиков. При помощи подключения с поддержкой РРР можно производить подключения к удаленным сетям через любой сервер РРР, поддерживающий этот промышленный стандарт. РРР также позволяет компьютеру, на котором функционирует служба удаленного доступа Windows, принимать запросы и обеспечивать доступ к сети клиентам с программным обеспечением удаленного доступа третьих фирм, соответствующим стандартам РРР.

Стандарты РРР также открывают дополнительные возможности, недоступные при более старых стандартах, например SLIP, PPP поддерживает несколько методов аутентификации, сжатие и шифрование данных. Большинство реализаций РРР позволяет полностью автоматизировать последовательность входа в систему.

РРР также поддерживается несколько сетевых протоколов, в качестве которых могут выступать ТСР/IР, IPX  или NetBeuI.

В сетях на базе TCP/IP, необходимо выделять IP –адреса клиента. Клиентам также может потребоваться наличие службы имен или другого метода разрешения имен (файлы HOSTS, LMHOSTS). В Windows каждому удаленному компьютеру, подключающемуся к серверу удаленного доступа, который использует протоколы, выделяется IP – адрес. IP – адрес автоматически предоставляется службой DHCP или выбирается из статического диапазона, назначенного серверу удаленного доступа.     

В малых сетях, где IP  - адреса не изменяются, подключения к сети и подключения удаленного доступа к сети  могут использовать файлы HOSTS или LMHOSTS для разрешения имен.    Поскольку эти размещены на локальном диске, не требуется передавать запрос на разрешение имен серверу WINS или серверу DNS и ждать ответ на ответ на этот запрос через телефонное подключение.

Протокол FR является весьма простым по сравнению с HDLC и включает в себя небольшой свод правил и процедур организации информационного обмена. Основная процедура состоит в том, что если кадр получен без искажений, он должен быть направлен далее по соответствующему маршруту. При возникновении проблем, связанных с перегрузкой сети FR, ее узлы могут отказываться от каких-либо кадров.

Узлам сети FR разрешено уничтожать искаженные кадры, не уведомляя об этом пользователя. Искаженным считается кадр, которому присущ какой-либо из следующих признаков:

  •  нет корректного ограничения флагами;
  •  имеется менее пяти октетов между флагами;
  •  нет целого числа октетов после удаления бит обеспечения прозрачности; наличествует ошибка в FCS;
  •  искажено поле адреса (для случая, когда проверка не выявила ошибки в FCS);
  •  содержится несуществующий DLCI;
  •  превышен допустимый максимальный размер (в некоторых вариантах реализации стандартов FR возможна принудительная обработка кадров, превышающих допустимый максимальный размер).

Для FR характерно:

  •  заполнение канала связи комбинацией "флаг" при отсутствии данных для передачи;
  •  резервирование одного DLCI для интерфейса локального управления и сигнализации;
  •  содержание поля данных пользователя в любом кадре не должно подвергаться какой-либо обработке со стороны АКД (могут обрабатываться лишь данные в локальном канале управления).

FR является бит-ориентированным синхронным протоколом и использует "кадр" в качестве основного информационного элемента - в этом смысле он очень похож на протокол HDLC (High Level Data Link Control). Однако FR обеспечивает не все функции протокола HDLC; многие из элементов кадра HDLC исключены из основного формата кадра FR (в последнем адресное поле и поле управления HDLC совмещены в единое адресное поле).

Одним из основных отличий протокола FR от HDLC является то, что он не предусматривает передачу управляющих сообщений (нет командных или супервизорных кадров, как в HDLC). Для передачи служебной информации используется специально выделенный канал сигнализации. Другое важное отличие - отсутствие нумерации последовательно передаваемых (принимаемых) кадров. Дело в том, что протокол FR не имеет никаких механизмов для подтверждения правильно принятых кадров.

Адреса DLCI в кадре FR служат лишь для идентификации логических каналов между пользователями и сетью; другими словами, они имеют только локальное значение и не обеспечивают внутрисетевой адресации.

Все информационные кадры, передаваемые через конкретный логический канал в любом направлении (от абонента или к абоненту), содержат одинаковый DLCI.

В связи с тем, что DLCI носит локальный характер, АКД обязана обладать способностью определения принадлежности проходящего кадра конкретному PVC. Внутри сети FR могут использоваться различные сетевые адреса. Для разных интерфейсов одно и то же значение DLCI может применяться многократно.

Стандарты FR (ANSI, ITU-T) распределяют двухоктетные адреса DLCI между пользователями и сетью следующим образом:

  •  0 - используется для канала локального управления (LMI);
  •  13/415 - зарезервированы для дальнейшего применения; 1
  •  63/4991 - используются абонентами для нумерации PVC и SVC;
  •  9923/41007 - используется сетевой транспортной службой для внутрисетевых соединений;
  •  10083/41022 - зарезервированы для дальнейшего применения;
  •  1023 - используются для управления канальным уровнем (в кадрах, которые "переносят" сквозные сообщения управления интерфейсом, связывающим протоколы более высоких уровней).

Таким образом, в любом интерфейсе FR для оконечных устройств пользователя отводится только 976 адресов DLCI.

На сервере SP установленна OC Windows 2000 Server. Для поддержки 1С Бухгалтерии и 1С Предприятия, это сделанно для того чтобы с любого компьютера в сети можно было просмотреть надичие и стоймотсь товара, наличие оборудования в ремонте и т.д.

На сервере WWW у становленна ОС FreeBSD 4.53, веб-сервер Apache, также на нем установленны PHP, Perl, MySQL, IPTables, это сделанно для поддержания сайта и форума фирмы, где люди могут ознакомиться с новостями фирмы, просмотреть прайсы, обсудить возникающие вопросы.

На на всех остальных ПК установленны ОС Windows XP Proffesional, что позволяет максимально облегчить работу в сети, а также поддерживать безопасность в сети. Проктически на всех ПК установленны 1С Бухгалтерия и 1С Предприятие, на не которых ПК установленны программы для работы с графикой за этими ПК работают люди отвечающие за создание и размещение рекламы предприятия.

На компьютере администратора установленна программа Friendly pinger которая позволяет следить за работой сети и с помощью нее администратор может быстро устранить не поладки в работе сети.

Раздел 2. Нейронные сети в управлении технологическими процессами

2.1 Структура нейросетей

 Нейронные сети представляют собой новую и весьма перспективную вычислительную технологию, дающую  новые подходы к исследованию  динамических задач в финансовой области, в управлении технологическими процессами и многих других задачах. Первоначально  нейронные сети открыли новые возможности в области распознавания образов, затем к этому прибавились  статистические и  основанные на методах искусственного интеллекта    средства поддержки принятия решений и решения задач в сфере финансов.

 Способность к моделированию нелинейных процессов, работе с зашумленными данными и адаптивность  дают возможности применять нейронные сети   для  решения широкого класса  финансовых задач. В последние  несколько лет на основе нейронные сетей было разработано  много программных  систем для применения в таких вопросах, как операции на товарном рынке, оценка вероятности банкротства банка, оценка кредитоспособности, контроль за инвестициями, размещение займов.

Приложения  нейронные сетей охватывают  самые разнообразные  области интересов: распознавание  образов, обработка зашумленные данных, дополнение образов, ассоциативный  поиск, классификация,  оптимизация, прогноз, диагностика, обработка сигналов, абстрагирование, управление процессами,  сегментация данных, сжатие информации, сложные отображения, моделирование сложных процессов, машинное зрение, распознавание речи.

Смысл использования нейронные сетей в технологических процессах заключается вовсе не в том, чтобы вытеснить традиционные методы или изобретать  велосипед. Это просто еще одно  возможное средство для решения задач.

На заре развития  электронно-вычислительной  техники  в середине ХХ века   среди  ученых и конструкторов еще не существовало  единого мнения ок том, как должна  быть реализована и по какому принципу работать   типовая электронно-вычислительная машина. Это сейчас  мы с Вами  изучаем   в курсах Основ информатики  архитектуру  машины фон Неймана, по которой  построены практически все существующие сегодня компьютеры. При  этом в тех же учебниках ни слова не говорится о том, что  в те же годы были предложены принципиально иные   архитектуры и принципы действия  компьютеров.  Одна из таких схем  получила название нейросетевого компьютера, или просто нейросети.

Первый интерес к  нейросетям был обусловлен пионерской работой МакКаллока и Питса, изданной в 1943 году, где предлагалась схема компьютера, основанного на аналогии с работой человеческого мозга.  Они создали упрощенную модель нервной клетки – нейрон.  Мозг человека состоит из  белого  и серого веществ: белое – это тела нейронов, а серое – это соединительная ткань между  нейронами, или аксоны и дендриты.  Мозг состоит  примерно из 1011 нейронов, связанных между собой.  Каждый нейрон  получает информацию через свои дендриты, а передает ее дальше  только через единственных аксон, разветвляющийся на конце на тысячи    

Простейший нейрон может   иметь до 10000 дендритов, принимающих сигналы от других клеток.   Таким образом,   мозг  содержит примерно 1015  взаимосвязей. Если учесть,  что любой  нейрофизиологический процесс  активизирует   сразу множество нейронов, то можно   представить себе то количество информации или сигналов, которое возникает в  мозгу.

Нейроны  взаимодействуют посредством   серий импульсов, длящихся  несколько миллисекунд, каждый импульс представляет собой   частотный сигнал с частотой  от нескольких единиц до сотен герц.  Это  невообразимо  медленно по сравнению  с современными   компьютерами, но в тоже время  человеческий мозг гораздо быстрее  машины может обрабатывать аналоговую информацию, как-то: узнавать изображения, чувствовать вкус, узнавать звуки,  читать чужой почерк, оперировать качественными параметрами.  Все это реализуется посредством сети нейронов, соединенных между собой  синапсами.  Другими словами,  мозг -–это система  из параллельных процессоров, работающая гораздо эффективнее, чем  популярные сейчас  последовательные вычисления.

 Кстати говоря, недавно в одном из журналов я читал, что технология последовательных вычислений подошла к пределу своих технических возможностей, и  в настоящее время остро стоит проблема  развития методов параллельного программирования и  создания параллельных компьютеров.  Так что,  может быть, нейросети являются только очередным шагом в этом направлении.

Устройство нейронных сетей. Искусственным нейроном называется простой элемент, сначала вычисляющий взвешенную сумму V входных  величин xi :

.

Здесь N – размерность  пространства входных сигналов.

Затем полученная сумма сравнивается с пороговой величиной W0, вслед за чем  вступает в действие нелинейная функция активации f.  Коэффициенты  Wi  во взвешенной сумме  обычно называют  синаптическими  коэффициентами или весами. Саму же взвешенную сумму V  мы будем называть  потенциалом нейрона  i. Выходной сигнал тогда имеет вид f(V).

Величину порогового  барьера можно рассматривать   как еще один весовой коэффициент  при постоянном  входном сигнале. В этом случае мы говорим  о расширенном входном пространстве: нейрон с N-мерным  входом имеет N+1 весовой  коэффициент.  Если ввести в уравнение пороговую величину W0,  то  оно перепишется так:

.

 В зависимости от  способа  преобразования сигнала и характера активации возникают  различные виды нейронных  структур.   Существуют   детерминированные нейроны, когда  активизирующая функция однозначно  вычисляет  выход по входу, и  вероятностные нейроны, состояние которых  в момент  t есть случайная функция потенциала и состояния в момент t-1. Я знаком только с детерминированными нейронами,  поэтому  далее я буду говорить только о них.  

Функции активации. В искусственных нейронах могут быть различные функции активации,  но и в используемых мной программах, и в известной литературе  указаны только следующие виды функций:

  •  Линейная: выходной сигнал нейрона равен его потенциалу,
  •  пороговая: нейрон выбирает решение из двух вариантов: активен / неактивен,
  •  Многопороговая: выходной сигнал может принимать одно из q  значений,  определяемых (q-1)  порогом внутри предельных значений.
  •  Сигмоидная: рассматриваются два вида сигмоидных функций:

с выходными значениями в промежутке [0,1] и

с выходными значениями  в промежутке [-1,1].

Коэффициент b определяет крутизну сигмоида.  Поскольку сигмоидная функция является  гладким отображением (-,) на (-1,1), то  крутизну можно учесть через величины  весов и порогов, и без ограничения общности можно полагать ее равной единице.  

Из точек на плоскости и соединений между ними можно построить множество  графических фигур, называемых графами.  Если  каждую точку представить себе как один нейрон, а соединения  между точками – как  дендриты и  синапсы, то мы получим нейронную сеть.

Но не всякое соединение нейронов будет работоспособно или вообще целесообразно.  Поэтому на сегодняшний день  существует только несколько работающих и реализованных программно архитектур нейросетей. Я  только вкратце опишу  их устройство и  классы решаемых ими задач.

По архитектуре  связей нейросети могут быть сгруппированы в два  класса: сети прямого распространения, ( см. рис. 1),  и сети  рекуррентного типа, (см. рис. 2)

Рис. 1 Сеть прямого распространения

Рис. 2 Рекуррентная сеть

Сети прямого распространения  подразделяются на однослойные перцептроны (сети) и многослойные перцептроны (сети).  Название перцептрона  для нейросетей придумал американский нейрофизиолог Ф. Розенблатт , придумавший в 1957 году  первый нейропроцессорный элемент (НПЭ) , то есть нейросеть.  Он же доказал сходимость области решений для  перцептрона  при его обучении. Сразу после этого началось бурное исследование в этой области и был создан самый первый нейрокомпьютер Mark I. Многослойные   сети отличаются тем, что между  входными и выходными данными располагаются несколько так называемых скрытых слоев нейронов, добавляющих  больше нелинейных связей в модель.

 

Рассмотрим  устройство простейшей  многослойной нейросети.  Любая нейронная сеть состоит из  входного слоя и выходного слоя.  Соответственно подаются независимые и зависимые  переменные.  Входные данные преобразуются  нейронами сети и сравниваются  с выходом. Если отклонение  больше заданного, то  специальным образом изменяются веса связей нейронов между собой  и пороговые значения нейронов. Снова происходит  процесс вычислений выходного значения и его сравнение с эталоном.  Если отклонения меньше заданной погрешности, то процесс обучения прекращается.  

Помимо входного и выходного слоев  в многослойной сети существуют так называемые  скрытые слои.  Они представляют собой   нейроны, которые не имеют непосредственных входов исходных данных, а связаны  только с выходами  входного слоя и с входом выходного слоя. Таким образом, скрытые слои  дополнительно преобразуют информацию и добавляют    нелинейности  в модели.    

Если однослойная нейросеть  очень хорошо справляется с  задачами классификации, так как  выходной слой нейронов  сравнивает полученные  от предыдущего слоя значения с порогом  и  выдает  значение либо ноль, то есть  меньше порогового значения, либо единицу -   больше порогового (для случая пороговой внутренней функции  нейрона), и не способен решать большинство практических задач( что было доказано Минским и Пейпертом),  то многослойный перцептрон  с сигмоидными решающими функциями способен аппроксимировать  любую функциональную зависимость  (это было доказано в виде теоремы). Но при этом не известно ни  нужное число слоев, ни нужное количество скрытых нейронов,  ни  необходимое для обучения сети время. Эти проблемы до сих пор стоят перед исследователями и разработчиками нейросетей. Лично мне кажется, что весь энтузиазм в применении нейросетей строится именно на  доказательстве этой теоремы.  Впоследствии я сам покажу, как нейроны могут моделировать различные классы функций, но я не претендую на полноту доказательства.

Класс рекуррентных нейросетей гораздо  обширнее, да и сами сети сложнее по своему устройству.

 Поведение рекуррентных сетей описывается  дифференциальными или разностными уравнениями, как  правило, первого порядка. Это гораздо расширяет области применения нейросетей и способы их обучения.  Сеть организована так, что  каждый нейрон  получает входную информацию  от других нейронов, возможно, и от самого себя, и от  окружающей среды.  Этот тип сетей  имеет важное значение, так как с их помощью  можно моделировать нелинейные динамические системы.

Среди рекуррентных сетей можно выделить  сети Хопфилда и сети Кохонена.

С помощью сетей Хопфилда можно обрабатывать неупорядоченные (рукописные буквы), упорядоченные во времени (временные ряды) или пространстве  (графики)  образцы.  Рекуррентная нейросеть простейшего вида  была введена  Хопфилдом и построена она из N  нейронов, связанных каждый с каждым кроме самого себя, причем все нейроны являются выходными.  Нейросеть Хопфилда можно использовать  в качестве ассоциативной памяти.

Сеть Кохонена  еще называют "самоорганизующейся картой признаков". Сеть такого типа рассчитана на  самостоятельное обучение во время обучения сообщать ей правильные ответы необязательно. В процессе обучения  на вход сети подаются различные образцы. Сеть улавливает особенности  их структуры и разделяет образцы на кластеры, а уже обученная сеть относит  каждый вновь поступающий пример к одному из кластеров,   руководствуясь некоторым  критерием "близости".  Сеть состоит из одного входного и одного выходного слоя. Количество элементов  в выходном слое непосредственно  определяет, сколько  различных кластеров сеть сможет распознать. Каждый из выходных элементов получает  на  вход весь входной вектор. Как и во всякой   нейронной сети, каждой  связи приписан некоторый синаптический вес. В большинстве  случаев каждый  выходной элемент соединен также со своими соседями.  Эти внутрислойные связи играют важную роль  в процессе обучения, так как корректировка весов  происходит  только в окрестности того элемента, который наилучшим образом  откликается на очередной вход. Выходные элементы соревнуются между собой за право  вступить в действи и "получить урок". Выигрывает тот из них, чей вектор весов окажется ближе всех к входному вектору.

2.2 Алгоритмы обучения

Главное  отличие и преимущество нейросетей перед  классическими средствами прогнозирования и классификации заключается в их способности к обучению.  Так что же такое обучение нейросетей?

На этапе обучения происходит  вычисление  синаптических коэффициентов   в процессе решения нейронной сетью задач, в которых нужный ответ определяется не по правилам, а с помощью  примеров, сгруппированных в обучающие множества. Так что  нейросеть на этапе обучения сама выполняет роль эксперта  в  процессе подготовки данных для   построения экспертной системы.   Предполагается, что  правила   находятся  в структуре обучающих данных.

Для обучения нейронной сети требуются обучающие данные. Они должны отвечать свойствам представительности и случайности или последовательности. Все зависит от класса решаемой задачи.  Такие данные представляют собой ряды примеров с указанием для каждого из них значением выходного параметра, которое было бы желательно получить.  Действия,  которые при этом происходят, можно назвать контролируемым обучением:  "учитель"   подаем  на вход сети вектор исходных данных, а на выходной узел сообщает желаемое значение результата вычислений.  Контролируемое обучение нейросети можно рассматривать как решение оптимизационной задачи. Ее целью является минимизация функции ошибок Е на данном множестве примеров путем выбора   значений  весов W.  Достижение минимума называется сходимостью процесса обучения.  Именно  возможность этого и доказал Розенблатт.  Поскольку ошибка зависит от весов нелинейно,  получить  решение в аналитической форме  невозможно, и поиск  глобального минимума осуществляется посредством итерационного процесса-   так называемого обучающего алгоритма. Разработано  уже более сотни разных  обучающих алгоритмов, отличающихся друг от друга стратегией оптимизации и критерием ошибок.  Обычно в  качестве меры погрешности берется средняя квадратичная ошибка (СКО):

,

где М – число примеров в обучающем множестве.

Минимизация величины Е   осуществляется с помощью градиентных методов. Изменение весов происходит в направлении, обратном к направлению наибольшей крутизны для функции:

.

Здесь - определяемый пользователем параметр,  который называется   коэффициентом обучения.

 Одним из самых распространенных алгоритмов обучения нейросетей  прямого распространения является  алгоритм  обратного распространения ошибки (BackPropagation, BP).  Этот алгоритм был  переоткрыт и популяризован   в 1986 г. Румельхартом и МакКлелландом из группы по изучению  параллельных распределенных  процессов в Массачусетском технологическом институте.  Здесь я хочу подробно   изложить  математическую суть алгоритма, так как очень часто в   литературе  ссылаются на какой-то факт или теорему, но никто не приводит его доказательства или источника.  Честно говоря, то же самое относится к Теореме об отображении нейросетью любой  функциональной зависимости, на которой  основываются все попытки  применить нейросети к моделированию реальных процессов. Я бы хотел посмотреть на ее доказательство, но еще нигде его не смог найти. Вот, чтобы у Вас не возникало такого чувства неудовлетворенности в полноте понимания  работы нейросети, я решил привести этот алгоритм полностью, хотя честно сознаюсь, что не совсем  понимаю его логику.

Итак,  это алгоритм градиентного спуска, минимизирующий  суммарную квадратичную ошибку:

.

Здесь индекс i  пробегает все выходы многослойной сети.

Основная идея ВР состоит в том, чтобы вычислять  чувствительность ошибки сети к изменениям весов. Для этого нужно вычислить  частные производные от ошибки по весам. Пусть обучающее множество состоит из Р образцов, и входы k-го образца   обозначены через {xi k}. Вычисление частных  производных осуществляется по правилу цепи:  вес входа i-го нейрона, идущего от j-го нейрона, пересчитывается по формуле:

где   -  длина шага в направлении, обратном к градиенту.

Если рассмотреть отдельно k-тый образец, то соответствующиее изменение весов равно:

Множитель ik  вычисляется  через аналогичные множители из последующего слоя, и ошибка, таким образом, передается в обратном направлении.

Для  выходных  элементов получим:

Для скрытых элементов множитель ik определяется так:

где индекс h   пробегает номера всех нейронов, на которые воздействует i-ый нейрон.

Чтобы наглядно представить себе  алгоритм  обратного распространения ошибки, можно посмотреть следующий рисунок :

Способы  обеспечения и ускорения сходимости

  1.  Выбор начальных весов

 Перед тем, как начинать  процесс обучения  нейронной сети, необходимо  присвоить весам  начальные значения. Цель  состоит в том, чтобы найти как можно более хорошее начальное приближение  к решению   и таким образом сэкономить  время обучения и улучшить сходимость. Классический  подход к этой проблеме состоит в том, чтобы  случайным образом  выбрать малые значения   для всех весов, чтобы быть уверенным, что  ни один из сигмоидных элементов не перенасыщен.  Однако это не дает полной гарантии, что  такое приближение приведет к глобальному минимуму или уменьшит время сходимости.

  1.  Упорядочение данных

 Чтобы   обучение не двигалось в ложном направлении при   обработке  задачи классификации или распознавания, но не задачи  аппроксимирования временных рядов, данные нужно перемешивать случайным образом. Иначе нейросеть "выучит"  последовательность случайно оказавшихся рядом значений как  истинное правило, и потом будет делать ошибку.

  1.  Импульс

 Иногда при   изменении весов связей нейронов  кроме текущего изменения  веса к нему прибавляют  вектор смещения  с предыдущего шага, взятый с некоторым коэффициентом.  В этом случае говорят, что учитывается предыдущий импульс движения.  Формула изменения  веса   связи будет выглядеть следующим образом:

где - число в интервале (0,1), которое задается пользователем.

  1.  Управление величиной шага

 Ранее я уже говорил, что - величина шага сети. По сути   это -  мера  точности обучения сети. Чем он больше, тем более грубым будет следующее  уменьшение  суммарной ошибки сети. Чем он меньше, тем больше времени сеть будет тратить на обучение и тем более возможно  ее попадание в окрестность локального минимума ошибки. Поэтому управление шагом имеет важное значение для улучшения сходимости  нейронной сети.   В современных нейросетевых пакетах пользователь может  сам определять, как  будет изменяться величина шага.  Очень часто по умолчанию берется линейная или экспоненциальная зависимость величины шага от количества итераций сети.

  1.  Оптимизация архитектуры сети

 Одной из самых больших  проблем при   использовании нейросетей является   невозможность   предварительного определения  оптимального количества скрытых слоев и нейронов в них.  Если нейронов будет слишком мало, то это равносильно потере  каких-то нелинейных связей в модели, если нейронов будет много, то это может привести к "переобучению" сети, то есть она просто "выучит" данные, а не распознает их структуру.  Поэтому применяется два основных подхода:

  •  деструктивный подход:  берется сеть заведомо большего размера, чем нужно, и в процессе обучения из нее удаляются связи и даже сами нейроны;
  •  конструктивный подход: первоначально берется маленькая сеть, и к ней, в соответствии со структурой и сложностью задачи, добавляются новые элементы.

  1.  Масштабирование данных

 При рассмотрении  решающих функций  внутри нейронов я  сказал, что диапазон выходных значений нейрона лежит в интервале (0,1) либо (-1,1). Поэтому для лучшей работы сети следует предварительно масштабировать данные обучающей выборки к интервалу от 0 до 1. Это даст меньшие ошибки при обучении и работе нейросети.   

Организация  процесса обучения

Из теоремы об отображении практически любой функции с  помощью многослойной  нейросети следует, что   обучаемая нами нейронная сет   в принципе способна  сама подстроиться под любые данные с целью минимизации суммарной квадратичной ошибки. Чтобы этого не происходило при обучении нейросетей используют следующий   способ проверки сети.   Для этого  обучающую выборку   еще перед началом обучения разбивают  случайным образом на две  подвыборки:  обучающую и тестовую.  Обучающую выборку используют собственно для процесса обучения, при этом изменяются  веса  нейронов. А тестовую используют  в  процессе обучения  для проверки  на ней суммарной квадратичной ошибки, но при этом не  происходит изменение  весов. Если   нейросеть показывает  улучшение аппроксимации и на обучающей, и на тестовой выборках, то обучение  сети происходит в правильном направлении. Иначе может снижаться ошибка на обучающей выборке, но происходить ее увеличение на тестовой. Последнее означает,  что сеть "переобучилась" и уже не может быть использована для  прогнозирования или классификации. В этом случае немного изменяются веса нейронов, чтобы вывести сеть  из   окрестности локального минимума ошибки.

2.3 Задача управления цветом

Производство лаков и красок относится к гибким производственным системам, в которых в зависимости от условий в данном наборе аппаратов возможно получение одного или нескольких продуктов одновременно. Для лакокрасочного производства характерны непрерывно-дискретный характер производства, нестационарность процессов, субъективность восприятия характеристик продукции (цвет, блеск), сложность построения математических моделей, имеющих физический смысл, вызванная большим количеством протекающих процессов и большим количеством параметров состояния, что обуславливает целесообразность применения аппарата нейронных сетей.

Одной из основных проблем при производстве красок является правильная дозировка пигментов, подбор требуемого соотношения пигментов.

Существуют следующие проблемы при определении состава пигментов. При равных массах пигментов в разных производственных циклах цвет готовой краски может отличаться. Цвет готовой краски определяется экспертом, что, в свою очередь, вносит субъективность в оценках. Создание новой рецептуры краски определенного цвета при переходе от лабораторных исследований к производству сопровождается большим количеством брака при постановке цвета. Необходимо прогнозировать цвет краски по исходной рецептуре до проведения технологического процесса (прямая задача). Для протекающего технологического процесса необходимо управлять дозировкой пигментов (обратная задача). Прямая задача формулируется в виде  где  - вектор, характеризующий концентрации пигментов в краске; с - вектор параметров, характеризующих цвет краски. Обратная задача имеет вид. Так как процессы, связанные с цветопередачей, сложны и требуют знания эксперта (человек с правильным цветовосприятием), функции F и F-1 представлены в виде нейронных сетей.

Раздел 3. Управление цветом с помощью нейронных сетей

3.1 Нейросеть для управления цветом краски

Постановка задачи: Необходимо прогнозировать цвет краски по исходной рецептуре до проведения технологического процесса (прямая задача). Для протекающего технологического процесса необходимо управлять дозировкой пигментов (обратная задача).

Прямая задача формулируется в виде  где  - вектор, характеризующий концентрации пигментов в краске; с - вектор параметров, характеризующих цвет краски. Обратная задача имеет вид. Так как процессы, связанные с цветопередачей, сложны и требуют знания эксперта (человек с правильным цветовосприятием), функции F и F-1 представлены в виде нейронных сетей.

Для этих целей использовались нейронные сети с алгоритмом обучения обратного распространения ошибки, каждый нейрон которой имеет вид:

     

где - входы формального нейрона i= , w - весовой коэффициент i-го входа к-го нейрона в слое k=, где ( - количество слоев нейронной сети); - функция активации нейрона;   - выход j-го нейрона, k-го слоя; В качестве функции активации используется функция .

Для решения поставленных задач не нужны очень сложные сети. Достаточно иметь сеть, состоящую из 2-х уровней. В первом слое должно быть 3 нейрона, в который бы вводились нормированные значения объемных концентраций Х*с = ХС/V , где Хсобъем компонента С, мл; V - полный объем замеса, мл; X* - приведенная концентрация. Числовые характеристики цвета получаюся с помощью светочувствительного сканирования. В качестве цветовой модели удобно применить аддитивную RGB модель с 24-разрядами представления цвета. Цвет разлагается на 3 составляющих Red, Green и Blue. Для обучения и использования, составляющие лучше представить в нормированном виде: С*ii/N где С* - нормативный уровень i

цветовой составляющей; Сi - представление цветовой составляющей в виде одного из 256 возможных уровней; N=255 -максимально возможное числовое значение уровня цветового представления.

Структура сети для прямой задачи (прогнозирование цвета краски по исходной рецептуре) представляет собой:

Структура сети для обратной задачи (управление дозировкой пигмента для протекающего технологического процесса ):

3.2 Алгоритм обучения сети методом обратного распространения

Разработка алгоритма обратного распространения сыграла важную роль в возрождении интереса к искусственным нейронным сетям. Обратное распространение – это систематический метод для обучения многослойных искусственных нейронных сетей. Он имеет солидное математическое обоснование. Несмотря на некоторые ограничения, процедура обратного распространения сильно расширила область проблем, в которых могут быть использованы искусственные нейронные сети, и убедительно продемонстрировала свою мощь.

Среди различных структур нейронных сетей (НС) одной из наиболее известных является многослойная структура, в которой каждый нейрон произвольного слоя связан со всеми аксонами нейронов предыдущего слоя или, в случае первого слоя, со всеми входами НС. Такие НС называются полносвязными. Когда в сети только один слой, алгоритм ее обучения с учителем довольно очевиден, так как правильные выходные состояния нейронов единственного слоя заведомо известны, и подстройка синаптических связей идет в направлении, минимизирующем ошибку на выходе сети. По этому принципу строится, например, алгоритм обучения однослойного перцептрона. В многослойных же сетях оптимальные выходные значения нейронов всех слоев, кроме последнего, как правило, не известны, и двух или более слойный перцептрон уже невозможно обучить, руководствуясь только величинами ошибок на выходах НС. Один из вариантов решения этой проблемы – разработка наборов выходных сигналов, соответствующих входным, для каждого слоя НС, что, конечно, является очень трудоемкой операцией и не всегда осуществимо. Второй вариант – динамическая подстройка весовых коэффициентов синапсов, в ходе которой выбираются, как правило, наиболее слабые связи и изменяются на малую величину в ту или иную сторону, а сохраняются только те изменения, которые повлекли уменьшение ошибки на выходе всей сети. Очевидно, что данный метод "тыка", несмотря на свою кажущуюся простоту, требует громоздких рутинных вычислений. И, наконец, третий, более приемлемый вариант – распространение сигналов ошибки от выходов НС к ее входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Этот алгоритм обучения НС получил название процедуры обратного распространения. Рассмотрим его подробней.

Согласно методу наименьших квадратов, минимизируемой целевой функцией ошибки НС является величина:

 (1)

где  – реальное выходное состояние нейрона j выходного слоя N нейронной сети при подаче на ее входы p-го образа; djp – идеальное (желаемое) выходное состояние этого нейрона.

Суммирование ведется по всем нейронам выходного слоя и по всем обрабатываемым сетью образам. Минимизация ведется методом градиентного спуска, что означает подстройку весовых коэффициентов следующим образом:

 (2)

Здесь wij – весовой коэффициент синаптической связи, соединяющей i-ый нейрон слоя n-1 с j-ым нейроном слоя n, – коэффициент скорости обучения, 0<<1.

(3)

Здесь под yj, как и раньше, подразумевается выход нейрона j, а под sj – взвешенная сумма его входных сигналов, то есть аргумент активационной функции. Так как множитель dyj/dsj является производной этой функции по ее аргументу, из этого следует, что производная активационной функция должна быть определена на всей оси абсцисс. В связи с этим функция единичного скачка и прочие активационные функции с неоднородностями не подходят для рассматриваемых НС. В них применяются такие гладкие функции, как гиперболический тангенс или классический сигмоид с экспонентой. В случае гиперболического тангенса

 (4)

Третий множитель sj/wij, очевидно, равен выходу нейрона предыдущего слоя yi(n-1).

Что касается первого множителя в (3), он легко раскладывается следующим образом:

(5)

Здесь суммирование по k выполняется среди нейронов слоя n+1.

Введя новую переменную

(6)

мы получим рекурсивную формулу для расчетов величин j(n) слоя n из величин k(n+1) более старшего слоя n+1.

(7)

Для выходного же слоя

(8)

Теперь мы можем записать (2) в раскрытом виде:

(9)

Иногда для придания процессу коррекции весов некоторой инерционности, сглаживающей резкие скачки при перемещении по поверхности целевой функции, (9) дополняется значением изменения веса на предыдущей итерации

(10)

где – коэффициент инерционности, t – номер текущей итерации.

Таким образом, полный алгоритм обучения НС с помощью процедуры обратного распространения строится так:

1. Подать на входы сети один из возможных образов и в режиме обычного функционирования НС, когда сигналы распространяются от входов к выходам, рассчитать значения последних. Напомним, что

(11)

где M – число нейронов в слое n-1 с учетом нейрона с постоянным выходным состоянием +1, задающего смещение; yi(n-1)=xij(n) – i-ый вход нейрона j слоя n.

yj(n) = f(sj(n)), где f() – сигмоид  (12)

yq(0)=Iq, (13)

где Iq – q-ая компонента вектора входного образа.

2. Рассчитать (N) для выходного слоя по формуле (8).

Рассчитать по формуле (9) или (10) изменения весов w(N) слоя N.

3. Рассчитать по формулам (7) и (9) (или (7) и (10)) соответственно (n) и w(n) для всех остальных слоев, n=N-1,...1.

4. Скорректировать все веса в НС

(14)

5. Если ошибка сети существенна, перейти на шаг 1. В противном случае – конец.

Сети на шаге 1 попеременно в случайном порядке предъявляются все тренировочные образы, чтобы сеть, образно говоря, не забывала одни по мере запоминания других.

Из выражения (9) следует, что когда выходное значение yi(n-1) стремится к нулю, эффективность обучения заметно снижается. При двоичных входных векторах в среднем половина весовых коэффициентов не будет корректироваться[3], поэтому область возможных значений выходов нейронов [0,1] желательно сдвинуть в пределы [-0.5,+0.5], что достигается простыми модификациями логистических функций. Например, сигмоид с экспонентой преобразуется к виду

(15)

Теперь коснемся вопроса емкости НС, то есть числа образов, предъявляемых на ее входы, которые она способна научиться распознавать. Для сетей с числом слоев больше двух, он остается открытым. Для НС с двумя слоями, то есть выходным и одним скрытым слоем, детерминистская емкость сети Cd оценивается так:

Nw/Ny<Cd<Nw/Nylog(Nw/Ny)  (16)

где Nw – число подстраиваемых весов, Ny – число нейронов в выходном слое.

Следует отметить, что данное выражение получено с учетом некоторых ограничений. Во-первых, число входов Nx и нейронов в скрытом слое Nh должно удовлетворять неравенству Nx+Nh>Ny. Во-вторых, Nw/Ny>1000. Однако вышеприведенная оценка выполнялась для сетей с активационными функциями нейронов в виде порога, а емкость сетей с гладкими активационными функциями, например – (15), обычно больше[4]. Кроме того, фигурирующее в названии емкости прилагательное "детерминистский" означает, что полученная оценка емкости подходит абсолютно для всех возможных входных образов, которые могут быть представлены Nx входами. В действительности распределение входных образов, как правило, обладает некоторой регулярностью, что позволяет НС проводить обобщение и, таким образом, увеличивать реальную емкость. Так как распределение образов, в общем случае, заранее не известно, мы можем говорить о такой емкости только предположительно, но обычно она раза в два превышает емкость детерминистскую.

В продолжение разговора о емкости НС логично затронуть вопрос о требуемой мощности выходного слоя сети, выполняющего окончательную классификацию образов. Дело в том, что для разделения множества входных образов, например, по двум классам достаточно всего одного выхода. При этом каждый логический уровень – "1" и "0" – будет обозначать отдельный класс. На двух выходах можно закодировать уже 4 класса и так далее. Однако результаты работы сети, организованной таким образом, можно сказать – "под завязку", – не очень надежны. Для повышения достоверности классификации желательно ввести избыточность путем выделения каждому классу одного нейрона в выходном слое или, что еще лучше, нескольких, каждый из которых обучается определять принадлежность образа к классу со своей степенью достоверности, например: высокой, средней и низкой. Такие НС позволяют проводить классификацию входных образов, объединенных в нечеткие (размытые или пересекающиеся) множества. Это свойство приближает подобные НС к условиям реальной жизни.

Рассматриваемая НС имеет несколько "узких мест". Во-первых, в процессе обучения может возникнуть ситуация, когда большие положительные или отрицательные значения весовых коэффициентов сместят рабочую точку на сигмоидах многих нейронов в область насыщения. Малые величины производной от логистической функции приведут в соответствие с (7) и (8) к остановке обучения, что парализует НС. Во-вторых, применение метода градиентного спуска не гарантирует, что будет найден глобальный, а не локальный минимум целевой функции. Эта проблема связана еще с одной, а именно – с выбором величины скорости обучения. Доказательство сходимости обучения в процессе обратного распространения основано на производных, то есть приращения весов и, следовательно, скорость обучения должны быть бесконечно малыми, однако в этом случае обучение будет происходить неприемлемо медленно. С другой стороны, слишком большие коррекции весов могут привести к постоянной неустойчивости процесса обучения. Поэтому в качестве обычно выбирается число меньше 1, но не очень маленькое, например, 0.1, и оно, вообще говоря, может постепенно уменьшаться в процессе обучения. Кроме того, для исключения случайных попаданий в локальные минимумы иногда, после того как значения весовых коэффициентов застабилизируются, кратковременно сильно увеличивают, чтобы начать градиентный спуск из новой точки. Если повторение этой процедуры несколько раз приведет алгоритм в одно и то же состояние НС, можно более или менее уверенно сказать, что найден глобальный максимум, а не какой-то другой.

3.3 Анализ результата

В результате проведенной исследовательской работы были  получены структуры сетей для решения прямой и обратной задач, это многослойные сети, состоящие из двух уровней. Выбран метод обучения оратного распространения ошибки и определена RGB-модель представления цветов для поставленной задачи.

Таким образом, лабораторные эксперименты по подбору пигментного состава можно проводить с невысокой точностью и неквалифицированному сотруднику. Затем по результатам экспериментов обучается нейронная сеть для обратной задачи. На вход сети подается вектор цветовой составляющей требуемого цвета и рассчитывается требуемый состав. Обученная сеть в дальнейшем применима для дозировки пигментов в производстве. Для каждой новой рецептуры будет использоваться новая нейронная сеть.

Заключение

В результате проведенной работы были, исследованы вопросы управления техническими процессами с помощью нейронных сетей, исследованые основные алгоритмы обучения , структуры нейронных сетей. В результате сделанного анализа, для прямой  и обратной задач управления цветом были разработаны структуры нейронных сетей, выбран алгоритм обучения.

Усложнение объектов управления в сочетании с ужесточенными требованиями к точности и качеству управления привели к необходимости отказаться от традиционных подходов к построению систем автоматического управления(САУ). Реальне объекты никогда не бывают чисто детерминированными или чисто случайными и, естественно, требуется использование САУ комбинированного или смешанного типа. Формирование законов управления с помощью типових регуляторов имеет серьезные ограничения по точности, быстродействию и устойчивости для реальних объектов, которые обачно имеет переменные параметры и обладают нелинейностями. Указанные проблемы осложняются тем, что современные САУ функционируют во взаимодействии с другими системами, которые могут оказывать влияние на их поведение. Решением этих проблемм может послужить САУ  на основе искуственных нейронных сетей. Сравнивая быстродействие САУ на основе «классических» методов теории автоматического управления и САУ на основе ИНС можно заметить увеличение быстродействия в 18 раз.

Таким образом, с помощью ИНС можно создавать САУ, обладающие универсальной системой синтеза и обеспечивающие работоспособность при произвольных изменениях управляющих воздействий, параметров объекта управления и среды функционирования.

 

Список использованной литературы

  1.  С.Короткий, Нейронные сети: основные положения.
  2.  Ф.Уоссермен, Нейрокомпьютерная техника, М., Мир, 1992.
  3.  Alain Petrowski, Gerard Dreyfus, Claude Girault, Performance Analysis of a Pipelined Backpropagation Parallel Algorithm //IEEE Transactions on Neural Networks, Vol.4, N6, 1993, pp.970-981 перевод Зинченко С.М., Перецепин В.А.
  4.  Жданов А.А.  Накопление  и использование информации при управлении в условиях  неопределенности// Сб.науч.тp. Инфоpмационная технология и численные методы анализа распределенных систем. - М.: ИФТП. 1992. С. 112-133
  5.  Жданов А.А. О подходе к моделированию управляемых объектов. Препринт ВЦ АН СССР. Сообщения по прикладной математике. Москва, 1991. 44 с
  6.  McCulloch W.W., Pitts W. 1943. A logical calculus of the ideas imminent in nervous activiti. Bulletinn of Mathematical biophysics 5: 115-33. (Русский перевод: Маккалок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной деятельности. Автоматы. – М: ИЛ. – 1956.)
  7.  Розенблат Ф. Принципы нейродинамики. - М.: Мир, 1965.
  8.  Чечкин А.В. Математическая   информатика.   - М.: Наука. 1991.
  9.  Michael I. Jordan, Cristopher M. Bishop. Neural Networks. Massachusets Institute of Technology. AI Memo No. 1562.
  10.  В.А.Евстигнеев и др. Теория графов. Алгоритмы обработки деревьев. ВО "Наука",Новосибирск:1994. 360 с.


 

А также другие работы, которые могут Вас заинтересовать

63504. Гносеология и эпистемология. Проблема истины и ее критериев. Познание и практика 99 KB
  Раздел философии в котором изучаются познавательные возможности человека называется гносеологией. В знаниях научных больше всего объективного: независимого от человека и человечества. Глаз человека видит хуже глаза орла зато видит больше.
63505. Философские аспекты понимания общества. Специфика социального познания 78 KB
  Философские аспекты понимания общества. Социальное строение жизни общества изучает прежде всего социология вопросы управления общественной жизнью политология хозяйственную деятельность в материальном производстве экономическая теория и т.
63506. Формационная и цивилизационная концепции общественного развития 76.5 KB
  Да и времени не оставили нам уже не только людьми созданные но и природой уготованные 21 веку глобальные проблемы вокруг решения которых надо скорее всему человечеству объединиться несмотря на все цивилизационные различия и групповые эгоистичные мечты амбициозных правителей.
63507. Онтология. Единство мира. Монистические и плюралистические концепции бытия 64.5 KB
  Монистические и плюралистические концепции бытия. Уже автор термина бытие Парменид в тезисе о тождестве бытия и мышления утверждал познаваемость мира человеческим мышлением. Вопрос о единстве мира всего бытия или изначальной множественности значит и невозможности...
63508. Проблемы происхождения, эволюции и сохранения жизни во Вселенной 75 KB
  Например и в мозге человека есть но особенно для навигации птицы и пчелы удачно используют магнетит залетающий на Землю с Марса. Материальное это понятие обозначающее объективное бытие телесных вещей их свойств и отношений а идеальное это субъективная реальность высшая форма опережающего отражения бытия вменяемого...
63509. Структура научного познания, его формы. Фундаментальные и прикладные знания 107.5 KB
  Деление условно рамки отдельной науки часто мешают решению проблем это надо учитывать при структурировании научной работы. По сферам использования науки делятся на фундаментальные и прикладные отраслевые: нефтепереработки геологоразведки авиастроения...
63511. Теория урока теоретического обучения 73 KB
  При коллективном обучении то что знает один то должны знать все и то что знают все должен знать один Функции коллективной формы обучения: Наличие у всех участников общей цели. а уроки производственного обучения.