42730

ЛИНЕЙНЫЕ МЕТОДЫ КЛАССИФИКАЦИИ

Лабораторная работа

Математика и математический анализ

В данной лабораторной работе мы будем рассматривать способ построения линейного решающего правила на основе обучения одного формального нейрона. Модель нейрона Нейрон представляет собой формализованную модель биологического нейрона.4 Простейший нейрон В общем виде функционирование нейрона подчиняется следующему выражению: где: вектор входного сигнала весовой вектор T порог f функция активации. Весовой вектор порог и функция активации определяют поведение нейрона то как он реагирует на входные данные.

Русский

2013-10-30

178.5 KB

29 чел.

Лабораторная работа № 2

ЛИНЕЙНЫЕ МЕТОДЫ КЛАССИФИКАЦИИ

  1.  Линейный классификатор

Линейный классификатор (или линейное решающее правило) – это простейший алгоритм классификации, основанный на построении линейной разделяющей поверхности. В задачах с двумя классами линейный классификатор представляет собой гиперплоскость, разделяющую пространство на два полупространства. В задачах со многими классами разделяющая поверхность кусочно-линейная.

На рисунке 2.1 представлен пример линейного решающего правила для двух классов по двум информативным признакам. В данном случае двумерного пространства признаков разделяющей гиперплоскостью является прямая линия.

Рисунок 2.1 – Пример линейной классификации по двум признакам

Обучение линейного классификатора заключается в подборе такого положения гиперплоскости, когда классы разделены наилучшим образом. Что значит в данном контексте «наилучшим» – вопрос нетривиальный. Существует несколько подходов, каждый из которых приводит к различным решениям.

Рассмотрим простой пример автоматической классификации образа Х, принадлежащего классу С1 или С2.

Пусть обучающее множество (выборка) прецедентов (множество образов, истинная классификация которых известна) состоит из множества двумерных образов Хij, где i – номер класса, j – номер образа в выборке:

X11 = {5, 5};  X12 = {6, 5};   X13 = {6, 6}; X14 = {6, 7}; X15 = {7; 5}

X21 = {0, 3};  X22 = {-1, 3};  X23 = {-2, 3}; X24 = {-3, 3}; X25 = {-4, 3}

Обозначим  и  – средние образов, связанные с С1 и С2 соответственно. Тогда имеет место соотношение:

Получим ={6, 5.6} и ={-2, 3}.

Из рисунка 2.2 видно, что наиболее целесообразной решающей границей (линейным решающим правилом) является срединный перпендикуляр к прямой, соединяющей  и .

Рисунок 2.2 – Линейное решающее правило

Опишем решающую границу в виде уравнения. Рассмотрим любую точку Х, принадлежащую решающей границе. Так как решающая граница является срединным перпендикуляром к прямой, соединяющей  и , имеет место равенство:

.

Возведём обе части равенства в квадрат и получим:

Подставляя значения средних образов, получим уравнение:

8x1+2,6x2=27,18.

Т.е. дискриминантная функция имеет вид:

g(x)= 8x1+2,6x2-27,18.

Решающее правило формулируется следующим образом:

Если g(x)>0, то исследуемый класс относится к классу С1.

Если g(x)<0, то исследуемый класс относится к классу С2.

Такой классификатор называется элементом пороговой логики и реализуется он как показано на рисунке 2.3.

Рисунок 2.3 – Реализация линейного решающего правила

Простейшим обоснование линейного классификатора является его аналогия с нервной клеткой – нейроном. Другие обоснования дают байесовская теория классификации (метод логистической регрессии) и принцип разделяющей гиперплоскости (метод опорных векторов). В данной лабораторной работе мы будем рассматривать способ построения линейного решающего правила на основе обучения одного формального нейрона.

  1.  Модель нейрона

Нейрон представляет собой формализованную модель биологического нейрона. Это простейший процессор, вычислительные возможности которого ограничиваются некоторым правилом комбинирования входных сигналов и правилом активизации, позволяющим вычислить значение выходного сигнала по совокупности входных.

Сигналы посылаются другим элементам нейронной сети по взвешенным связям, с каждой из которых связан весовой коэффициент (или вес). Графически это можно представить следующим образом:

Рисунок 2.4 – Простейший нейрон

В общем виде функционирование нейрона подчиняется следующему выражению:

где:  – вектор входного сигнала,

  – весовой вектор,

 T порог,

  fфункция активации.

Весовой вектор, порог и функция активации определяют поведение нейрона, то, как он реагирует на входные данные. Величина веса wi определяет степень влияния i-того входа на выходной сигнал нейрона, а его знак - характер влияния. Связь с положительным весом называют возбуждающей связью, так как она активизирует нейрон, а связь с отрицательным весом – тормозящей.

Функция активации используется для ограничения выхода нейрона в заданном диапазоне, а так же для осуществления нелинейного преобразования взвешенной суммы. На практике широко применяются следующие виды функций активации:

- линейная (вида y=kx)

- пороговая

- сигмоидальная  и др.

Для построения классификаторов лучше всего использовать нелинейные хорошо дифференцируемые функции (вроде сигмоидальной).

Веса и порог конкретного нейрона являются настраиваемыми параметрами. Процесс настройки этих параметров называется обучением.

В целом нейронные сети – совокупности нейронных элементов и связей между ними – широко применяющиеся на практике, могут иметь различную структуру, топологию, алгоритмы обучения. Следует отметить, что для построения линейного решающего правила достаточно всего лишь одного нейрона. Поэтому далее мы рассмотрим принцип обучения одного нейрона, а более сложные нейросетевые структуры будут рассматриваться в курсе ЦОСиИ.

  1.  Принцип обучения нейрона

Существует несколько основных подходов к нейронному обучению. Исторически самый первый подход – правило Хебба, основано на изменении весов нейронов пропорционально произведению его входного и выходного сигналов. При этом на этапе обучения (или в процессе адаптации нейрона) его выходные сигналы не прогнозируются. Такое обучение называется обучением без учителя.

Если для обучения используются эталонные значения выходного сигнала нейрона (результат обучения предопределён заранее заданными значениями обучающей выборки), то такой механизм обучения называется обучением с учителем.

Формула для обучения с учителем, известная так же как дельта-правило, имеет следующий вид:

где  и  – компоненты весового вектора в моменты времени t+1 и t соответственно,

 – коэффициент обучения (),

D – эталонное значение выходного сигнала нейрона.

Алгоритм обучения нейрона можно описать следующим образом:

  1.  Весовые коэффициенты инициализируются случайным образом
  2.  На входы поочерёдно подаются входные образы из обучающей последовательности и вычисляются выходные значения
  3.  Если реакция нейрона соответствует требуемой, весовой коэффициент не изменяется
  4.  Если реакция нейрона не совпадает с эталонной, веса корректируются по дельта-правилу
  5.  Алгоритм продолжается до тех пор, пока выходные значения для всей выборки не совпадут с эталонными значениями, либо пока коэффициенты не перестанут изменяться.

2.4 Задание на лабораторную работу

Используя обучающую выборку из предыдущей работы построить линейное решающее правило аналитически.

Написать программу для обучения нейрона по дельта-правилу на образах из обучающей выборки (варьируя инициализирующие значения весового вектора и параметр скорости обучения). Продемонстрировать успешное обучение. Оценить обобщающую способность по контрольным точкам из предыдущей работы.

Изобразить линейный пороговый классификатор и обученный нейронный элемент. Построить линейные решающие правила графически.

Сравнить и сделать выводы.

В отчёте приводятся:

  1.  Исходные данные (обучающая и контрольная выборки)
  2.  Расчёт линейного порогового классификатора
  3.  Алгоритм обучения нейронного элемента
  4.  Граф-схема линейного порогового классификатора
  5.  Граф-схема нейронной сети
  6.  Построенные линейные решающие правила
  7.  Выводы (что общего и в чём отличия изученных способов построения линейного решающего правила)


 

А также другие работы, которые могут Вас заинтересовать

29328. Классификация по организации светового пучка 68 KB
  В принципе световым пучком можно управлять путем импульсного управления попиксельная запись и возможно осуществлять запись методом строчной записи когда не каждый пиксель пишется отдельно. Поскольку в этих системах осуществляется сканирование то соответственно в этих системах записи формируются строки с помощью записывающего пятна следовательно используется кадровая развертка. Чтобы обеспечить сплошность записи строки должны частично перекрываться диметр пятна должен быть больше периметра записи на 20 то есть диметр пятна...
29329. Лекция 11 Формирование углов поворота растра при электронном растрировании В качестве стандартных угло 61.5 KB
  Проблем совмещения пиксельной и растровой сетки нет только для желтой краски потому что угол поворота растра для нее равен 0. Что бы получить рациональный угол линия растровой решетки должна проходить через вершины ячеек пиксельной сетки. Использование рациональных углов растрирования а также идея необходимости совмещения узлов растровой и пиксельной сетки приводит к тому что растровая структура отличается от традиционной ранее применяемой по углам поворота и линиатуре. Первая идея заключается в том что чем больше разность между...
29330. Химико-фотографическая обработка 56 KB
  Для современных ФВУ используются пленки с контрастностью не менее 6. Технологическая настройка ФВУ Технологическая настройка ФВУ в себя включает: настройку фокусировки экспонирующей головки подбор оптимальной экспозиции для обеспечения необходимой оптической плотности фона процесс линеаризации ФВУ Необходимость фокусировки экспонирующей головки может возникнуть в связи со сменой сорта пленки если при этом меняется толщина этой пленки. При этой операции обеспечиваются условия экспонирования при которых будет обеспечена необходимая...
29331. Формула Юлла-Нильсена 38.5 KB
  Чем больше линиатура растра тем ближе расположены точки тем хуже функция размытия. ∆S получила название растискивания точки. На самом деле в этом значении растискивания точки значительную долю вносит рассеивание света в процессе визуального рассмотрения оттиска. Конечно в это ∆S удобно внести все искажения которые возникают не только в процессе визуального восприятия рассеивания света а также реальное растискивание в процессе печати и изменение размера растровой точки в копировальноформном процессе.
29332. Технологическая настройка системы обработки под реальный технологический процесс 54 KB
  Имеется специальный тестобъект который по сути дела представляет собой шкалу цветового охвата которая доступна в виртуальном виде то есть в виде информации записанной на магнитный носитель. Однако в некоторых случаях получение такой информации не оправдано изза разовых тиражей или если часть информации не доступна. Второй метод основан на использовании некоторой стандартной информации которая включается в состав программного обеспечения обработки изобразительной информации фирмой изготовителем. Эта информации по сути своей позволяет...
29333. Цветовые системы, используемые в обрабатывающей станции 58 KB
  Недостатки такого выражения: неоднозначность системы координат RGB и аппаратная зависимость неясное представление о цвете на основе соотношения этих сигналов Воздействие на один из каналов приводит к изменению цвета которое трудно предсказать. Если хотим получить насыщенные цвета должны работать в пределах 50 светлоты По координате а цвет меняется от Зеленого до Пурпурного. У нас имеются две группы основных цветов: цвета аддитивного синтеза однозональные цвета: Красный Зеленый Синий двузональные цвета субтрактивного синтеза:...
29334. Калибровка монитора без использования специальных аппаратных средств (по разработкам фирмы Gretag) 56 KB
  Однако для более точной коррекции цвета на экране монитора и корректного представления его в колориметрических координатах необходимо провести стадию технологической калибровки монитора. Это приводит к тому что если не принять специальных мер коррекции голубая краска выделится на синефильтровой и зеленофильтровой фотоформе будет запечатываться соответственно желтой и пурпурной краской. По сути дела при правильной настройки системы и правильной работе в соответствующих цветовых пространствах задача базовой коррекции решается автоматически...
29335. Селективная коррекция 56.5 KB
  Цветопроба в процессе коррекции Без проведения цветопробы оптимальная цветовая коррекция является затруднительной и может не дать удовлетворительных результатов. Контроль этого изображения экранная цветопроба. Такая цветопроба называется контрактной цветопробой. Такая цветопроба называется аналоговой.
29336. Коррекция структурных свойств изображения 54.5 KB
  Коррекция резкости изображения Коррекция резкости изображения в системе поэлементной обработки может осуществляться двумя методами: аппертурным и программным. Аппертурный метод включает аппертурную коррекцию резкости изображения по методу нерезкого маскирования при этом коррекция производится непосредственно при сканировании изображения. В соответствие с этой процедурой производится обработка массива цифровой информации формируя сигнал нерезкого изображения путем интегрирования нескольких пиксель в окрестностях обрабатываемой пиксели.