42220

Комитетные методы обучения нейронных сетей

Лабораторная работа

Информатика, кибернетика и программирование

Применение комитетных методов теоретически не хуже применения одного классификатора. Это правило часто наблюдается и на практике однако бывают случаи когда комитетная классификация работает несколько хуже одного классификатора. обучение mго классификатора зависит от результата обучения предыдущих m1 классификаторов. При этом во время обучения mго классификатора больше внимания уделяется примерам на которых чаще ошибаются предыдущие классификаторы.

Русский

2013-10-27

109.5 KB

8 чел.

Федеральное государственное бюджетное образовательное учреждение

Высшего профессионального образования

«Национальный исследовательских Томский политехнический университет»

Институт кибернетики

Кафедра вычислительной техники

Цой Ю.Р.

Методические указания

к выполнению лабораторной работы

«Комитетные методы обучения нейронных сетей»

по курсу «Методы вычислительного интеллекта»

Томск, 2012 г.


Цель работы
: Ознакомиться с основами комитетных методов обучения искусственных нейронных сетей для решения задач классификации. Сравнить результаты работы алгоритмов бэггинга и бустинга.

Комитетные методы классификации

К классу комитетных методов классификации относятся методы, в которых при принятии решения о том, к какому классу относится предъявленное описание объекта, участвует несколько классификаторов.

Имеется много аналогий между комитетными методами и коллективным принятием решения, поэтому часто решение о классе принимается по результатам «голосования» классификаторов, когда подсчитывается число классификаторов, проголосовавших за каждый класс, и определяется большинство. Еще одним распространенным вариантом является усреднение выходных сигналов классификаторов и принятие решения на основе полученного результата. Естественно, имеются и более сложные схемы комитетной классификации, например, взвешенная свертка решений отдельных классификаторов, или многоуровневое голосование. Тем не менее, оптимальной схемы комитетной классификации нет.

Отметим, что нейронная сеть также может изначально считаться комитетным методом, если считать, что каждый нейрон – это отдельный классификатор, который умеет распознавать два класса. Тогда вся сеть, это многоуровневая композиция таких бинарных классификаторов. Однако, в данной лабораторной работе будем рассматривать ИНС как классификатор «целиком».

В одном комитете могут быть классификаторы разного типа, например, нейронные сети, решающие деревья и машины опорных векторов. Применение комитетных методов теоретически не хуже применения одного классификатора. Это правило часто наблюдается и на практике, однако бывают случаи, когда комитетная классификация работает несколько хуже одного классификатора. Поэтому полезность комитетной классификации для решения конкретной задачи, как правило, определяется экспериментально.

Далее приводится описание двух распространенных методов комитетной классификации: бэггинг и бустинг.

Бэггинг (Bagging)

Представляет один из базовых алгоритмов, когда комитетное решение принимается усреднением решений отдельных классификаторов.

Для обучения классификаторов применяется бутстреп (bootstrap), когда обучающая выборка разделяется на M равных непересекающихся частей, по количеству используемых классификаторов, и каждый классификатор обучается без одной части данных. Т.е. первый классификатор может быть обучен без первой части, второй – без второй и т.д. Таким образом, каждый классификатор будет обучен на различающихся множествах данных.

Бустинг (Boosting)

В алгоритме бустинга классификаторы обучаются последовательно, т.е. обучение m-го классификатора зависит от результата обучения предыдущих (m-1) классификаторов. При этом во время обучения m-го классификатора больше внимания уделяется примерам, на которых чаще ошибаются предыдущие классификаторы. После обучения комитета классификация производится путем взвешенного голосования, при этом вес каждого классификатора определяется в зависимости от результатов обучения. Изначально данный подход разрабатывался для решения задач бинарной классификации, с двумя классами, но позднее была предложена модификация алгоритма для произвольного числа классов.

Далее будет рассмотрен вариант для бинарной классификации с произвольным числом классификаторов.

Для реализации последовательного обучения каждому обучающему примеру присваивается вес, а в качестве функции ошибки применяется функция вида:

,            (1)

где  – вес i-го обучающего примера;  и  – соответственно фактический и требуемый сигнал на выходе ИНС;  – индикаторная функция:

Веса примеров обновляются по результатам обучения каждого классификатора, т.е. при обучении различных классификаторов веса примеров в общем случае будут отличаться. Зададим величину:

,

которая отражает нормализованную ошибку m-го классификатора, не зависящую от масштаба весов. Вес («качество») m-го классификатора вычисляется как:

.         (2)

Таким образом, чем меньше нормализованная ошибка, тем больше вес классификатора. На основании величины веса m-го классификатора производится обновление весов примеров для обучения m+1 классификатора:

.               (3)

Для тех примеров, которые правильно распознаются m-м классификатором, вес не изменяется. Для неправильно распознанных примеров изменение веса зависит от нормализованной ошибки классификатора. При , т.е. если качество классификатора низкое, вес , и вес неправильно распознанного примера будет уменьшаться. При  вес , и вес неправильно распознанного примера будет увеличиваться.

В алгоритме бустинга как правило используются так называемые «слабые» алгоритмы классификации, для которых достаточно точности классификации лишь немногим лучше случайной классификации. Учитывая, что выше описан вариант алгоритма для задачи бинарной классификации, для слабого классификатора достаточно точности распознавания больше 50%. Т.е.  теоретически должно быть меньше 0.5, и у сложных для распознавания примеров вес должен увеличиваться.

В целом, алгоритм бустинга выглядит следующим образом:

  1.  Инициализация весов обучающих примеров: , N – количество обучающих примеров.
  2.  Для каждого из M обучаемых классификаторов:
    1.  Обучение классификатора с использованием целевой функции (1)
    2.  Вычисление веса классификатора по формуле (2).
    3.  Обновление весов обучающих примеров (3).
  3.  Принятие решения с использованием выражения

где  – выходной сигнал m-го классификатора для входного вектора .

Применение бустинга для обучения комитета нейронных сетей

Поскольку (1) существенно отличается от среднеквадратичной функции ошибки, часто используемой при обучении ИНС, то для применения бустинга для обучения комитета ИНС необходимо сделать одно из двух:

  1.  Внести изменения в формулы для обратного распространения ошибки, т.к. эти формулы напрямую зависят от вида целевой функции.
  2.  Адаптировать алгоритм бустинга.

Здесь мы рассмотрим второй вариант, он менее очевиден. Первый можно оставить в качестве упражнения.

Изменениям подвергнутся целевая функция и формирование обучающей выборки для m-го классификатора.

В качестве целевой функции можно использовать стандартную суммарную квадратичную ошибку выходного сигнала:

,            (4)

таким образом известные формулы для обратного распространения изменять нет необходимости.

В выражении (4) не учитываются веса обучающих примеров, что не согласуется с идеей бустинга: обучение последующих классификаторов с упором на примеры, сложные для предыдущих классификаторов. Для исправления этого недостатка можно сделать следующее.

Для каждого классификатора формируется своя обучающая выборка на основании обновленных весов примеров. При этом, размер выборки равен размеру исходной обучающей выборки, N, а вероятность попадания i-го примера в формируемую выборку равна1:

.

Поскольку в начальный момент времени все веса примеров равны, то для самого первого классификатора обучающая выборка будет такая же как и исходная. Для всех последующих классификаторов более сложные для распознавания обучающие примеры будут встречаться в выборке несколько раз, а простые примеры могут в выборке отсутствовать. За счет этого обеспечивается «повышенное внимание» к сложным обучающим примерам.

Ход работы

  1.  Определите свой вариант в соответствии с номером в журнале, ознакомьтесь с задачей.
  2.  Реализуйте и отладьте алгоритмы бэггинга и бустинга.
  3.  Выберите несколько значений количества классификаторов к комитете для экспериментов. Например, , , , . Постарайтесь, чтобы были как малые, так и сравнительно большие комитеты.
  4.  Проведите эксперименты по тестированию точности классификации для алгоритмов бэггинга и бустинга для комитетов различного размера

Заполните таблицу:

Размер комитета

Бэггинг

Бустинг

значениями вида , где  – средняя точность классификации не тестовом множестве,  – среднеквадратичное отклонение, полученные по результатам не менее 10 запусков.

  1.  Сформируйте выводы о влиянии размера комитета и выбора алгоритма комитетной классификации на точность классификации.
  2.  Сделайте общие выводы по результатам работы.

Варианты

  1.  cancer1.
  2.  card1.
  3.  diabetes1.
  4.  heart1.
  5.  cancer2.
  6.  card2.
  7.  diabetes2.
  8.  heart2.
  9.  cancer3.
  10.  card3.
  11.  diabetes3.
  12.  heart3.

Дополнительные баллы

  1.  (+5 баллов) Реализация алгоритма обратного распространения ошибки, работающего с целевой функцией (1) и применение этого алгоритма для обучения комитета нейронных сетей по алгоритму бустинга.
  2.  (+2 балла) Отчет в формате LaTeX.

Литература

  1.  Bishop C. Pattern recognition and machine learning. – Springer, 2006.
  2.  Воронцов К.В. Лекции по алгоритмическим композициям. 2010. www.MachineLearning.ru
  3.  Хайкин С. Нейронные сети: полный курс, 2-е изд., испр. : Пер. с англ. – М. : 000 "И.Д. Вильяме", 2006. – 1104 с. : ил. – Парал. тит. англ.

1 Напоминает рулеточный отбор.


 

А также другие работы, которые могут Вас заинтересовать

35469. Системы телеобработки данных 51 KB
  Под техническими средствами телеобработки понимается совокупность технических средств системы обеспечивающих ввод данных в систему передачу данных по каналам связи сопряжение каналов связи с компьютером обработку данных и выдачу результатных данных абоненту. Наряду с техническими средствами для осуществления режима телеобработки у компьютера должно иметься и достаточно сложное программное обеспечение выполняющее такие функции как: обеспечение работы компьютера в различных режимах телеобработки; управление сетью телеобработки данных;...
35470. Классификация и архитектура информационно-вычислительных сетей 30 KB
  Основное назначение информационновычислительных сетей ИВС обеспечение эффективного предоставления различных информационновычислительных услуг пользователям сети путем организации удобного и надежного доступа к ресурсам распределенным в этой сети. Эффективность решения указанных задач обеспечивается: распределенными в сети аппаратными программными и информационными ресурсами; дистанционным доступом пользователя к любым видам этих ресурсов; возможным наличием централизованной базы данных наряду с распределенными базами данных; ...
35471. ПРИНЦИПЫ ПОСТРОЕНИЯ ТЕЛЕКОММУНИКАЦИОННЫХ ВЫЧИСЛИТЕЛЬНЫХ СЕТЕЙ (ТВС) 199.5 KB
  Абонентская система AC это совокупность ЭВМ программного обеспечения периферийного оборудования средств связи с коммуникационной подсетью вычислительной сети выполняющих прикладные процессы. Для ТВС принципиальное значение имеют следующие обстоятельства: ЭВМ находящиеся в составе разных абонентских систем одной и той же сети или различных взаимодействующих сетей связываются между собой автоматически в этом заключается основная сущность протекающих в сети процессов; каждая ЭВМ сети должна быть приспособлена как для работы в...
35472. Модель взаимодействия открытых систем 113 KB
  Указанные задачи решаются с помощью системы протоколов и стандартов регламентирующих нормализованные процедуры взаимодействия элементов сети при установлении связи и передаче данных. Протокол это набор правил и методов взаимодействия объектов вычислительной сети охватывающий основные процедуры алгоритмы и форматы взаимодействия обеспечивающие корректность согласования преобразования и передачи данных в сети. Говоря на разных языках люди могут не понимать друг друга также и сети использующие разные протоколы.
35473. Техническое обеспечение информационно-вычислительных сетей 78 KB
  Последние выполняют эффективную обработку данных и дистанционно обеспечивают пользователей сети всевозможными информационновычислительными ресурсами. Рабочая станция work station подключенный к сети компьютер через который пользователь получает доступ к ее ресурсам. Часто рабочую станцию равнокак и пользователя сети и даже прикладную задачу выполняемую в сети называют клиентом сети.
35474. Безопасность информации в сетях 79.5 KB
  К основным умышленным угрозам безопасности относятся: раскрытие конфиденциальной информации главным образом путем несанкционированного доступа к базам данных или прослушивания каналов связи; компрометация информации реализуется как правило посредством внесения несанкционированных изменений в базы данных внесения и использования компьютерных вирусов; несанкционированное использование ресурсов сети является средством раскрытия или компрометации информации но имеет и самостоятельное значение; несанкционированный обмен...
35475. Способы повышения производительности ЛВС 29.5 KB
  Интенсивность обмена данными между пользователями сети не является однородной. Часто в сети можно выделить группы пользователей информационно более интенсивно связанных друг с другом рабочие группы выполняющие решение однородных задач. В этом случае можно увеличить производительность сети разместив разные рабочие группы в отдельных сегментах сети.
35476. История Белоруссии от древних времен до Великого княжества Литовского 224 KB
  Среди историков существуют три концепции образования ВКЛ. Приверженцы так называемой литовской концепции считают что образование ВКЛ стало результатом внутреннего развития балтских племен. Поэтому ВКЛ надо считать литовским государством.
35477. История Белоруссии от начала XVI века до наших дней 288 KB
  Распространение униатства на территории Беларуси как новой религии в конце XVI первом десятилетии XVII в. около 3 4 сельского населения Беларуси было униатами. Развитие культуры Беларуси в середине XVI начале XVI в. в основанной им Несвижской типографии нздап первую на территории Беларуси печатную книгу на старрбелорусском литературном языке Катехизис а также книгу Об оправдании грешного человека перед Богом.