21692

Нейронный контроллер

Лекция

Информатика, кибернетика и программирование

Сегодня мы посмотрим что внутри у нейроконтроллера а также займёмся повышением эффективности оперативного управления. Нейронный контроллер Предположим что объект управления описываемый уравнением является обратимым. Если выход близок к выходу при соответствующих входах то многослойная нейросеть может рассматриваться как контроллер в прямой цепи управления.

Русский

2013-08-03

225 KB

6 чел.

етоды искусственного интеллекта

Лекция № 9

МЕТОДЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ЛЕКЦИЯ № 9

На прошлой лекции мы рассмотрели общие схемы нейросетевого управления, которые предлагает г-н Омату, поставили задачу и посмотрели, что там внутри у нейроэмулятора.

Сегодня мы посмотрим, что внутри у нейроконтроллера, а также займёмся повышением эффективности оперативного управления.

Нейронный контроллер

Предположим, что объект управления, описываемый уравнением,  является обратимым. То есть существует функция , такая, что

.

Рассмотрим многослойную нейронную сеть с -мерным вектором входов , одним входом  и соотношением между входом и выходом, кратко описываемым следующим образом:

,

где

— отображение вход/выход многослойной нейросети.

Если выход  близок к выходу  при соответствующих входах, то многослойная нейросеть может рассматриваться как контроллер в прямой цепи управления. В момент времени  значение входа объекта управления можно получить с помощью выражения , подставив в него:

.

Обратите внимание, что здесь вместо неизвестной величины  использовано значение опорного сигнала . Если ошибка выхода  поддерживается на достаточно низком уровне после окончания процесса обучения, можно использовать значения опорного сигнала вместо у:

.

Отсюда видно, что нейроконтроллер не имеет обратных связей, как в последовательной схеме нейронного управления.

Эффективное оперативное управление

Медленная сходимость обучения — основной недостаток многослойных нейросетей, серьёзно ограничивающий практическое применение нейронного управления. Существует несколько подходов для ускорения сходимости в нейронном управлении. Перечислим некоторые из них.

  1.  Разработка эффективных алгоритмов обратного распространения.
  2.  Встраивание знаний о структуре объекта управления в структуру многослойных нейросетей.
  3.  Применение гибридных сетей, в которых искусственные нейросети связываются со структурами управления, полученными на основе других, отличных от нейронных, технологий.
  4.  Предварительное обучение и эффективные процедуры инициализации.

Далее мы рассмотрим новые алгоритмы оперативного обучения, направленные на сокращение времени обучения нейроконтроллеров. Эти алгоритмы основаны на разделении понятий частоты дискретизации и частоты выполнения обучающих итераций (частоты обучения). В системах управления с дискретным временем период дискретизации Т обычно выбирается по следующему эмпирическому правилу: величина  должна значительно превышать максимальную частоту, имеющуюся в системе с непрерывным временем. Обычно повышение частоты дискретизации улучшает характеристики системы, однако это улучшение быстро прекращается (график изменения характеристик достигает плато). В обычных адаптивных системах управления адаптивные элементы, как правило, корректируются один раз за каждый период дискретизации; таким образом, частоту дискретизации и частоту обучения можно не различать. Если пренебречь ограничениями на время обработки, то может показаться, что фактическое время обучения можно сократить, повысив частоту дискретизации.

Однако во многих практических случаях превышение некоторого предела частоты дискретизации недопустимо или нежелательно. Например, в обычных промышленных химических установках, как правило, интерес представляют процессы, связанные с большими величинами временных констант. При этом не имеет смысла использовать высокие частоты дискретизации: это может привести к избыточности информации. Использование очень высоких частот дискретизации может привести к полной перестройке системы управления и усложнить её. Может потребоваться учитывать частные процессы и переходные явления, которые при меньших частотах дискретизации можно было бы игнорировать.

Другой пример систем, в которых нельзя использовать произвольно высокую частоту дискретизации — распределённые системы управления, в которых интервалы передачи информации на устройство управления и приёма информации с него не зависят от самого устройства управления.

Хотя период дискретизации Т задаёт базовый темп работы системы управления, в системах с итерационным обучением частота обучающих операций может рассматриваться как ещё одна основа для отсчёта времени. На практике период дискретизации Т обычно значительно превышает время , затрачиваемое на одну обучающую итерацию, то есть на корректировку всех весов сети. По мере появления многослойных сетей с более высоким быстродействием (за счёт улучшения их программной или аппаратной реализации) отношение  повышается.

Таким образом, если имеется соответствующая информация о входе и выходе объекта управления, и интерес представляет только время, то за период дискретизации может выполняться несколько обучающих итераций. Обычный (и самый простой) подход состоит в выполнении одной корректировки за период дискретизации, и он связан с непроизводительными затратами времени обработки. Проблема состоит в том, каким образом выбрать и использовать обучающие данные, и как использовать имеющееся время для рационального обучения нейросетей, т.е. для обучения, которое должно повысить эффективность управления.

Г-н Омату предлагает три метода обучения, в которых за каждый период дискретизации выполняется несколько обучающих итераций.

1. Обучение эмулятора

Предположим, что в момент времени  в памяти хранится текущее значение выхода ,  значений того же процесса в предшествующие моменты времени и  значений входного процесса  в предшествующие моменты времени. В этом случае в качестве образцов для обучения эмулятора в момент времени  могут использоваться  пар , . Для случая  требуется минимизировать следующую функцию ошибки:

,

где

— невозрастающая положительная последовательность, предназначенная для определённого „забывания“ образцов, полученных ранее.

Пример. Пусть только что получена величина  (т.е. величина  ещё не известна), , , . Предположим также, что величины , , …  и , …  имеются в памяти. В этом случае выходные векторы эмулятора можно представить в виде:

Эти выходные векторы и величины  образуют обучающие образцы для обучения в момент времени . Эту процедуру можно представить в виде рисунка.

{рисунок 4.4.1-а, с. 127}

Здесь через  обозначено состояние эмулятора во время -го интервала дискретизации, после -й обучающей итерации, . Аналогично  обозначает отображение вход/выход, выполняемое эмулятором в состоянии . Очевидно, что .

2. Обучение контроллера: подход на основе ошибки инверсно-прямого управления

Вспомним инверсно-прямую конфигурацию управления (рис. 4.3.10, с. 112). Предположим то же самое: что в момент времени t+1 в памяти хранится текущее значение выхода ,  предыдущих значений выходного и  значений входного процессов. В этом случае в качестве образцов для обучения нейроконтроллера в момент времени t+1 могут использоваться n пар

, i=0…n-1,

при этом

.

При , и функция ошибки

.

И соответствующий -член для -го образца записывается следующим образом:

.

Следует отметить, что функция ошибки  не включает в себя непосредственно координату ошибки объекта управления. В связи с этим обучение объекта управления непосредственно не повышает эффективность управления. Однако такой способ обучения позволяет достичь хорошего обобщения в пространстве параметров управления. На практике обучение нейроконтроллеров, основанное только на инверсно-прямом подходе, даёт плохие результаты: выход нейроконтроллера устанавливается на некоторой постоянной величине, в результате чего ошибка обучения оказывается нулевой, однако характеристики управления оказываются явно плохими. Этот недостаток присущ всем методам обучения, основанным на минимизации ошибки инверсного управления. Его можно устранить, используя сочетание таких методов управления с другими, непосредственно минимизирующими ошибку системы регулирования.

И вот пример, который это иллюстрирует.

Пусть р=3, q=2 и только что получена величина у(9). Предположим также, что в памяти имеются аналогичные величины, что и в предыдущем примере: , , …  и , … .

Обозначим через  текущее отображение, выполняемое нейроконтроллером. Равенство  означает, что обучения ещё нет. Входной сигнал для объекта управления  можно вычислить из соотношения , где .

Для обучения в соответствии с подходом на основе ошибки инверсно-прямого управления можно использовать следующие векторы:

Эти векторы и входные величины ,  и  образуют три обучающих образца (входной вектор и желаемый выход) для обучения нейроконтроллера в момент времени . Однако такой метод обучения непосредственно не минимизирует ошибку управления, поэтому на практике необходимо его сочетание с другими методами.

На рисунке этот подход будет выглядеть так:

{рис. 4.4.1-б, с. 127}

На рисунке показано сочетание множественного обучения на основе инверсно-прямого управления и простого обучения на основе обучающей конфигурации. В результате выполняется 4 обучающих итерации за один период дискретизации. Вектор хс(8) задаётся составляющими . Через  обозначено состояние нейроконтроллера во время -го интервала дискретизации, после -й обучающей итерации. В результате достигается точное обучение нейроэмулятора за счёт усложнения процесса обучения.

PAGE  4

Томский политехнический университет,

Дмитрий Афонин, апрель 2006 г.


 

А также другие работы, которые могут Вас заинтересовать

77700. Управление дисками и томами в Windows 2000/XP 609.5 KB
  Оснастка Управление дисками заменившая служебную программу Администратор дисков которая использовалась в Windows NT 4. При помощи оснастки Управление дисками можно управлять удаленными компьютерами на которых запущена операционная система Windows 2000 или Windows XP на которых вы являетесь участником группы Администраторы. Типы разделов и запоминающих устройств В Windows 2000 и Windows XP Professionl используются два типа запоминающих устройств: базовый диск и динамический диск.
77701. Компакт-диск как носитель информации. CD-ROM 1.56 MB
  Таким образом в процессе такой штамповки осуществляется запись данных на диск. Поперечное сечение стандартного компакт-диска Структура данных на компакт-дисках В отличие от магнитных носителей гибких и жестких дисков компакт-диски разбиваются на концентрические дорожки и секторы. Представление о EFMмодуляции Процесс преобразования декодирования сигналов получаемых при прохождении чередующихся углублений и плато над считывающей головкой заключается в следующем: При записи данных на компактдиск используется EFMмодуляция...
77702. Конструкции дисководов CD-ROM 5.39 MB
  В этом заключается принципиальное отличие дисководов компактдисков от накопителей на жестких и гибких дисков в которых носители вращаются с постоянной угловой скоростью. Необходимость поддержания постоянной линейной скорости обусловлена исключительно тем что при воспроизведении звуковых компактдисков данные должны поступать в декодирующее устройство в постоянном и строго определенном темпе независимо от того с какого витка рожки они считываются. Механическая часть дисководов CDROM Конструкция дисководов компактдисков приведена на рис.
77703. Устройства записи информации со сменными дисками 2.29 MB
  Однако в ближайшее время их скорее всего заменят пишущие DVDнакопители которые работают быстрее позволяют записывать прожигать 47Гбайт DVDносители что значительно удобнее 700Мбайт CDдисков и кроме того обеспечивают обратную совместимость с CDносителями поскольку могут работать как обычные накопители CDRW. Так МОнакопитель Fujitsu работает медленнее накопителей CDRW и DVDRW а по цене сильно проигрывает первым и сравним со вторыми. В том случае когда требуется иметь постоянно под рукой пятьдесять сменных...
77705. Флэш-память. От ROM к Flash 572.5 KB
  Внимание которое уделяется флэш-памяти вполне объяснимо –ведь это самый быстрорастущий сегмент полупроводникового рынка. Ежегодно рынок флэш-памяти растет более чем на 15 что превышает суммарный рост всей остальной полупроводниковой индустрии.
77706. Технологии развития современной памяти 115 KB
  Всего за несколько десятилетий в области технологий хранения данных произошли разительные перемены а появление флешпамяти без преувеличения можно назвать революцией. Сегодня принцип хранения информации в электронных устройствах конечно отличается от условных расчётов Фейнмана но размер единичного элемента хранения известен – около 40 нм в коммерческих устройствах на основе флешпамяти. Технологии устройств памяти следующего поколения будут использовать новые материалы обладать временем доступа в единицы наносекунд и хранить информацию...
77707. Трёхмерная графитовая память 35.5 KB
  На сделанных сканирующим электронным микроскопом снимках видны графитовая полоска неизменённой ячейки памяти вверху и содержащей бит данных Выход нашли исследователи из Университета Райса Rice University в Хьюстоне которые показали что родственник графена – графит – может быть адаптирован для создания быстрых высокоёмких устройств хранения обладающих преимуществами по сравнению с флэшпамятью которой комплектуется сегодня множество мобильных устройств. Ячейки памяти могут быть расположены в виде вертикальных массивов что в...