42730

ЛИНЕЙНЫЕ МЕТОДЫ КЛАССИФИКАЦИИ

Лабораторная работа

Математика и математический анализ

В данной лабораторной работе мы будем рассматривать способ построения линейного решающего правила на основе обучения одного формального нейрона. Модель нейрона Нейрон представляет собой формализованную модель биологического нейрона.4 Простейший нейрон В общем виде функционирование нейрона подчиняется следующему выражению: где: вектор входного сигнала весовой вектор T порог f функция активации. Весовой вектор порог и функция активации определяют поведение нейрона то как он реагирует на входные данные.

Русский

2013-10-30

178.5 KB

35 чел.

Лабораторная работа № 2

ЛИНЕЙНЫЕ МЕТОДЫ КЛАССИФИКАЦИИ

  1.  Линейный классификатор

Линейный классификатор (или линейное решающее правило) – это простейший алгоритм классификации, основанный на построении линейной разделяющей поверхности. В задачах с двумя классами линейный классификатор представляет собой гиперплоскость, разделяющую пространство на два полупространства. В задачах со многими классами разделяющая поверхность кусочно-линейная.

На рисунке 2.1 представлен пример линейного решающего правила для двух классов по двум информативным признакам. В данном случае двумерного пространства признаков разделяющей гиперплоскостью является прямая линия.

Рисунок 2.1 – Пример линейной классификации по двум признакам

Обучение линейного классификатора заключается в подборе такого положения гиперплоскости, когда классы разделены наилучшим образом. Что значит в данном контексте «наилучшим» – вопрос нетривиальный. Существует несколько подходов, каждый из которых приводит к различным решениям.

Рассмотрим простой пример автоматической классификации образа Х, принадлежащего классу С1 или С2.

Пусть обучающее множество (выборка) прецедентов (множество образов, истинная классификация которых известна) состоит из множества двумерных образов Хij, где i – номер класса, j – номер образа в выборке:

X11 = {5, 5};  X12 = {6, 5};   X13 = {6, 6}; X14 = {6, 7}; X15 = {7; 5}

X21 = {0, 3};  X22 = {-1, 3};  X23 = {-2, 3}; X24 = {-3, 3}; X25 = {-4, 3}

Обозначим  и  – средние образов, связанные с С1 и С2 соответственно. Тогда имеет место соотношение:

Получим ={6, 5.6} и ={-2, 3}.

Из рисунка 2.2 видно, что наиболее целесообразной решающей границей (линейным решающим правилом) является срединный перпендикуляр к прямой, соединяющей  и .

Рисунок 2.2 – Линейное решающее правило

Опишем решающую границу в виде уравнения. Рассмотрим любую точку Х, принадлежащую решающей границе. Так как решающая граница является срединным перпендикуляром к прямой, соединяющей  и , имеет место равенство:

.

Возведём обе части равенства в квадрат и получим:

Подставляя значения средних образов, получим уравнение:

8x1+2,6x2=27,18.

Т.е. дискриминантная функция имеет вид:

g(x)= 8x1+2,6x2-27,18.

Решающее правило формулируется следующим образом:

Если g(x)>0, то исследуемый класс относится к классу С1.

Если g(x)<0, то исследуемый класс относится к классу С2.

Такой классификатор называется элементом пороговой логики и реализуется он как показано на рисунке 2.3.

Рисунок 2.3 – Реализация линейного решающего правила

Простейшим обоснование линейного классификатора является его аналогия с нервной клеткой – нейроном. Другие обоснования дают байесовская теория классификации (метод логистической регрессии) и принцип разделяющей гиперплоскости (метод опорных векторов). В данной лабораторной работе мы будем рассматривать способ построения линейного решающего правила на основе обучения одного формального нейрона.

  1.  Модель нейрона

Нейрон представляет собой формализованную модель биологического нейрона. Это простейший процессор, вычислительные возможности которого ограничиваются некоторым правилом комбинирования входных сигналов и правилом активизации, позволяющим вычислить значение выходного сигнала по совокупности входных.

Сигналы посылаются другим элементам нейронной сети по взвешенным связям, с каждой из которых связан весовой коэффициент (или вес). Графически это можно представить следующим образом:

Рисунок 2.4 – Простейший нейрон

В общем виде функционирование нейрона подчиняется следующему выражению:

где:  – вектор входного сигнала,

  – весовой вектор,

 T порог,

  fфункция активации.

Весовой вектор, порог и функция активации определяют поведение нейрона, то, как он реагирует на входные данные. Величина веса wi определяет степень влияния i-того входа на выходной сигнал нейрона, а его знак - характер влияния. Связь с положительным весом называют возбуждающей связью, так как она активизирует нейрон, а связь с отрицательным весом – тормозящей.

Функция активации используется для ограничения выхода нейрона в заданном диапазоне, а так же для осуществления нелинейного преобразования взвешенной суммы. На практике широко применяются следующие виды функций активации:

- линейная (вида y=kx)

- пороговая

- сигмоидальная  и др.

Для построения классификаторов лучше всего использовать нелинейные хорошо дифференцируемые функции (вроде сигмоидальной).

Веса и порог конкретного нейрона являются настраиваемыми параметрами. Процесс настройки этих параметров называется обучением.

В целом нейронные сети – совокупности нейронных элементов и связей между ними – широко применяющиеся на практике, могут иметь различную структуру, топологию, алгоритмы обучения. Следует отметить, что для построения линейного решающего правила достаточно всего лишь одного нейрона. Поэтому далее мы рассмотрим принцип обучения одного нейрона, а более сложные нейросетевые структуры будут рассматриваться в курсе ЦОСиИ.

  1.  Принцип обучения нейрона

Существует несколько основных подходов к нейронному обучению. Исторически самый первый подход – правило Хебба, основано на изменении весов нейронов пропорционально произведению его входного и выходного сигналов. При этом на этапе обучения (или в процессе адаптации нейрона) его выходные сигналы не прогнозируются. Такое обучение называется обучением без учителя.

Если для обучения используются эталонные значения выходного сигнала нейрона (результат обучения предопределён заранее заданными значениями обучающей выборки), то такой механизм обучения называется обучением с учителем.

Формула для обучения с учителем, известная так же как дельта-правило, имеет следующий вид:

где  и  – компоненты весового вектора в моменты времени t+1 и t соответственно,

 – коэффициент обучения (),

D – эталонное значение выходного сигнала нейрона.

Алгоритм обучения нейрона можно описать следующим образом:

  1.  Весовые коэффициенты инициализируются случайным образом
  2.  На входы поочерёдно подаются входные образы из обучающей последовательности и вычисляются выходные значения
  3.  Если реакция нейрона соответствует требуемой, весовой коэффициент не изменяется
  4.  Если реакция нейрона не совпадает с эталонной, веса корректируются по дельта-правилу
  5.  Алгоритм продолжается до тех пор, пока выходные значения для всей выборки не совпадут с эталонными значениями, либо пока коэффициенты не перестанут изменяться.

2.4 Задание на лабораторную работу

Используя обучающую выборку из предыдущей работы построить линейное решающее правило аналитически.

Написать программу для обучения нейрона по дельта-правилу на образах из обучающей выборки (варьируя инициализирующие значения весового вектора и параметр скорости обучения). Продемонстрировать успешное обучение. Оценить обобщающую способность по контрольным точкам из предыдущей работы.

Изобразить линейный пороговый классификатор и обученный нейронный элемент. Построить линейные решающие правила графически.

Сравнить и сделать выводы.

В отчёте приводятся:

  1.  Исходные данные (обучающая и контрольная выборки)
  2.  Расчёт линейного порогового классификатора
  3.  Алгоритм обучения нейронного элемента
  4.  Граф-схема линейного порогового классификатора
  5.  Граф-схема нейронной сети
  6.  Построенные линейные решающие правила
  7.  Выводы (что общего и в чём отличия изученных способов построения линейного решающего правила)


 

А также другие работы, которые могут Вас заинтересовать

40157. ОСНОВНЫЕ ХАРАКТЕРИСТИКИ И СТАТИСТИЧЕСКИЕ МОДЕЛИ СЛУЧАЙНЫХ СИГНАЛОВ И ПОМЕХ 2.32 MB
  Для стационарного случайного процесса двумерная плотность вероятности и соответственно корреляционная функция зависят не от t1 и t2 в отдельности а только от их разности = t2 t1. В соответствии с этим корреляционная функция стационарного процесса определяется выражением 3.1 где математическое ожидание стационарного процесса; х1 х2 возможные значения случайного процесса соответственно в моменты времени t1 t2 ; = t2 t1 интервал времени между сечениями; двумерная...
40158. ВРЕМЕННОЙ И СПЕКТРАЛЬНЫЙ АНАЛИЗ ПРОХОЖДЕНИЯ СЛУЧАЙНОГО ПРОЦЕССА ЧЕРЕЗ ЛИНЕЙНЫЕ СИСТЕМЫ 1.39 MB
  3 справедливы в полной мере если xt есть реализация случайного процесса t. Но эти формулы служат для решения основной задачи анализа линейной цепи при случайных воздействиях заключающейся в нахождении вероятностных характеристик выходного случайного процесса t если известны вероятностные характеристики входного случайного воздействия и определена цепь посредством задания порядка и коэффициентов дифференциального уравнения или импульсной характеристики. Требуется найти математическое ожидание t и корреляционную функцию...
40159. ОПТИМАЛЬНЫЙ РАДИОПРИЕМ КАК СТАТИСТИЧЕСКАЯ ЗАДАЧА 548 KB
  Введение в теорию оптимального радиоприема ОПТИМАЛЬНЫЙ РАДИОПРИЕМ КАК СТАТИСТИЧЕСКАЯ ЗАДАЧА Помехоустойчивость и ее основные задачи Особенность радиоприёма состоит в том что наряду с сигналами через антенную систему в приёмное устройство поступают разнообразные помехи. Количественно помехоустойчивость оценивается с помощью различных показателей использующих вероятностное описание помех и сигнала. Например применяются такие показатели как отношение сигнал шум на входе и выходе приёмного устройства вероятность правильного обнаружения...
40160. ИМПУЛЬСНЫЕ УСИЛИТЕЛИ МОЩНОСТИ 340.5 KB
  Основными определяющими факторами являются длительность фронта и среза импульса коллекторного перехода стокового тока транзистора и тип нагрузки активной и активно индуктивной. Первый способ применяется когда возможно произвольно варьировать параметрами нагрузки. Тогда параметры нагрузки выбираются таким образом чтобы к моменту коммутации автоматически выполнялось условие Uкл=0 или Iкл=0. Второй способ используется если параметры нагрузки строго заданы и состоит во введении в схему дополнительных цепей искусственно разносящих во...
40161. ЦИФРОВАЯ ЭЛЕКТРОНИКА. МАТЕМАТИЧЕСКОЕ ОПИСАНИЕ ЦИФРОВЫХ УСТРОЙСТВ 295 KB
  2 Основные способы записи функций алгебры логики ФАЛ Функции алгебры логики ФАЛ зависимость выходных переменных Zi выраженная через совокупность входных переменных х1х2хn. Логические устройства работа которых описывается с помощью ФАЛ. 1 Описание ФАЛ в виде таблице истинности табл. Описание ФАЛ в виде алгебраического выражения: а логическое сложение ИЛИ дизъюнкция б логическое умножение И конъюнкция в отрицание инверсия НЕ если х = 1 то ;если х = 0 то Дизъюнктивная нормальная форма ДНФ ...
40162. ОСНОВНЫЕ ЛОГИЧЕСКИЕ ЭЛЕМЕНТЫ 378 KB
  По принципу действия: комбинационные – автоматы без памяти, входные сигналы которых определяются действующей на входе комбинацией переменных; последовательные – автоматы с памятью, выходные сигналы которых определяются не только действующей комбинацией переменных, но и предыдущей.
40163. МИНИМИЗАЦИЯ ЛОГИЧЕСКИХ УСТРОЙСТВ 518 KB
  Минимизация с применением карт Вейча Карты Вейча это прямоугольная таблица число клеток в которой для ФАЛ n переменных равно 2n каждой из клеток поставлен в соответствие набор входных переменных причем рядом расположенным клеткам соответствуют соседние наборы входных переменных а в самих клетках записаны значения функции определенные для этих кодов. На карте Вейча ФАЛ n переменных выделяют прямоугольные области объединяющие выбранные значения функции 0 или 1. Каждой из выделенных областей соответствует k куб исходной ФАЛ...
40164. КОМБИНАЦИОННЫЕ ЛОГИЧЕСКИЕ УСТРОЙСТВА 587.5 KB
  2 При построении логических устройств на реальной элементной базе возникают следующие задачи: а число входов ЛЭ больше числа переменных входящих в реализуемую с их помощью ФАЛ; б число входов ЛЭ меньше числа переменных входящих в реализуемую с их помощью ФАЛ. Решение задач: а Число входов больше требуемого. Следовательно что уменьшит фактическое число входов ЛЭ можно подавая на неиспользуемые входы сигналы пассивных логических констант: 0 для элементов ИЛИНЕ 1 для элементов ИНЕ; б число входов ЛЭ меньше требуемого. Сравнивая...
40165. ПОСЛЕДОВАТЕЛЬНОСТНЫЕ ЛОГИЧЕСКИЕ УСТРОЙСТВА 658.5 KB
  По типу используемых информационных входов триггеры классифицируются: RS D T JK VD и VT триггеры где R раздельный вход сброса триггера Q=0; К вход сброса универсального триггера Q=0; J вход установки универсального триггера Q=1; Т счетный вход триггера ; D информационный вход переключения триггера в состояние соответствующее логическому уровню на этом входе; С управляющий или синхронизирующий вход; V вход блокирования работы триггера и он долго сохраняет информацию. Для переключения триггера на его прямой вход...