22178

ПЕРСЕПТРОНЫ

Лекция

Информатика, кибернетика и программирование

Сети состоящие из одного слоя персептронных нейронов соединенных с помощью весовых коэффициентов с множеством входов см. Подобно биологическим системам которые они моделируют нейронные сети сами моделируют себя в результате попыток достичь лучшей модели поведения. При обучении нейронной сети мы действуем совершенно аналогично. Предъявляя изображение буквы А на вход нейронной сети мы получаем от нее некоторый ответ не обязательно верный.

Русский

2013-08-04

260.5 KB

22 чел.

12

ЛЕКЦИЯ

ПЕРСЕПТРОНЫ

1. Персептроны

2. Обучение персептрона

3. Обучающий алгоритм обратного распространения

1. Персептроны

Первые упоминания о нейронных сетях появились в 40-е годы. Они представляли собой простые аппаратные, а затем и программные модели биологического нейрона и системы его соединений. Эти ранние попытки стимулировали дальнейшие исследования, приведшие к созданию более сложных сетей.

Рис. 1. Структура персептронного нейрона

В большей части первых работ использовалась простая нейронная модель – персептронный нейрон (см. рис.1).Здесь элемент умножает каждый вход х на вес w и суммирует взвешенные входы. Если эта сумма больше заданного порогового значения, выход равен единице, в противном случае равен нулю. Сети, состоящие из одного слоя персептронных нейронов, соединенных с помощью весовых коэффициентов с множеством входов (см. рис. 2), получили название персептронов, хотя, в принципе, известны и более сложные их структуры.

Рис. 2. Персептрон со многими выходами

В 60-е годы персептроны вызвали большой интерес. Розенблатт доказал теорему об обучении персептрона, объясняемую ниже; был дан ряд убедительных демонстраций систем персептронного типа. Позже, однако, оказалось, что персептроны не способны обучиться решению ряда простых задач из-за жестких ограничений на то, что могут выполнять однослойные персептроны и, следовательно, на то, чему они могут обучиться.

Несмотря на это, персептроны широко изучались. Теория персептронов является основой для многих других типов нейронных сетей; на примере персептронов иллюстрируются многие важные принципы. В силу этих причин они являются логической исходной точкой для изучения сетей других типов.

2. Обучение персептрона

Способность искусственных нейронных сетей обучаться является их наиболее интересным свойством. Подобно биологическим системам, которые они моделируют, нейронные сети сами моделируют себя в результате попыток достичь лучшей модели поведения.

Используя критерий линейной неделимости, можно решить, способна ли однослойная нейронная сеть реализовывать требуемую функцию. Даже в том случае, когда ответ положительный, это принесет мало пользы, если нет способа найти нужные значения для весов и порогов. Чтобы сеть представляла практическую ценность, нужен систематический метод для вычисления этих значений. Розенблатт (см. рек. лит.) сделал это в своем алгоритме обучения персептрона и доказал, что персептрон может быть обучен всему, что может реализовывать.

Обучить нейронную сеть - значит, сообщить ей, чего мы от нее добиваемся. Этот процесс очень похож на обучение ребенка алфавиту. Показав ребенку изображение буквы "А", мы спрашиваем его: "Какая это буква?" Если ответ неверен, мы сообщаем ребенку тот ответ, который мы хотели бы от него получить: "Это буква А". Ребенок запоминает этот пример вместе с верным ответом, то есть в его памяти происходят некоторые изменения в нужном направлении. Мы будем повторять процесс предъявления букв снова и снова до тех пор, когда все 33 буквы будут твердо запомнены. Такой процесс называют "обучение с учителем".

При обучении нейронной сети мы действуем совершенно аналогично. У нас имеется некоторая база данных, содержащая примеры (набор рукописных изображений букв). Предъявляя изображение буквы "А" на вход нейронной сети, мы получаем от нее некоторый ответ, не обязательно верный. Нам известен и верный (желаемый) ответ - в данном случае нам хотелось бы, чтобы на выходе нейронной сети с меткой "А" уровень сигнала был максимален.

2.1 Алгоритм обучения персептрона

Обучение персептрона является обучением с учителем.

Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход. Допустим, что входные образы нанесены на демонстрационные карты (сенсорное поле). Каждая карта разбита на квадраты и от каждого квадрата на персептрон подается вход. Если в квадрате имеется линия, то от него подается единица, в противном случае    нуль. Множество квадратов на карте задает, таким образом, множество нулей и единиц, которое и подается на входы персептрона. Цель состоит в том, чтобы научить персептрон включать индикатор при подаче на него множества входов, задающих нечетное число, и не включать в случае четного.

На рис. 3 показана такая персептронная конфигурация.

Допустим, что вектор Х является образом распознаваемой карты. Каждый компонент (квадрат) Х - 1, х2, ... , хn)  умножается на соответствующий компонент вектора весов W - (w1, w2 , ... , wn ). Эти произведения суммируются. Если сумма превышает порог q, то выход нейрона Y равен единице (индикатор зажигается), в противном случае он нуль. Эта операция компактно представляется в векторной форме как Y = XW, а после нее следует пороговая операция.

Для обучения сети образ Х подается на вход и вычисляется выход Y. Если Y правилен, то ничего не меняется. Однако если выход неправилен, то веса, присоединенные к входам, усиливающим ошибочный результат, модифицируются, чтобы уменьшить ошибку.

Чтобы увидеть, как это осуществляется, допустим, что демонстрационная карта с цифрой 3 подана на вход, и выход Y равен 1 (показывая нечетность). Так как это правильный ответ, то веса не изменяются, Если, однако, на вход подается карта с номером 4 и выход Y равен единице (нечетный), то веса, присоединенные к единичным входам, должны быть уменьшены, так как они стремятся дать неверный результат. Аналогично, если карта с номером 3 дает нулевой выход, то веса, присоединенные к единичным входам, должны быть увеличены, чтобы скорректировать ошибку.

Этот метод обучения описывается следующим образом:

1. Подать входной образ и вычислить Y.

  1.  Проанализировать выходной сигнал.
  2.  Если выход правильный, то перейти на шаг 1.
  3.  Если выход неправильный и равен нулю, то добавить все входы к соответствующим им весам.
  4.  Если выход неправильный и равен единице, то вычесть каждый вход из соответствующего ему веса.

3. Перейти на шаг 1.

Рис. 3. Персептронная система распознавания изображений

За конечное число шагов сеть научится разделять карты на четные и нечетные при условии, что множество цифр линейно разделимо. Это значит, что для всех нечетных карт выход будет больше порога, а для всех четных   меньше. Отметим, что это обучение глобально, т.е. сеть обучается на всем множестве карт. Вопрос о том, как это множество должно предъявляться, чтобы минимизировать время обучения, является предметом отдельного исследования, выходящего за рамки данной книги.

Дельта-правило

Важное обобщение алгоритма обучения персептрона, называемое дельта-правилом, позволяет распространить рассмотренный метод на непрерывные входы и выходы. Чтобы понять, как оно было получено, шаг 2 алгоритма обучения персептрона может быть сформулирован в обобщенной форме с помощью введения величины d, которая равна разности между требуемым и целевым выходом Т и реальным выходом А:

d = Т - А.                                                (1)

Случай d = 0 соответствует шагу 2.1., когда выход правилен и в сети ничего не изменяется. Шаг 2.2. соответствует случаю d > 0, а шаг 2.3.  случаю d < 0.

В любом из этих случаев персептронный алгоритм обучения сохраняется, если d умножается на величину каждого входа хi, и это произведение добавляется к соответствующему весу. С целью обобщения вводится коэффициент “скорости обучения” h, который умножается на dхi, что позволяет управлять средней величиной изменения весов. В алгебраической форме записи

Di = hd xi ,,                                             (2)

wi(n+1) = wi(n) + Di ,                                     (3)

где Di   коррекция, связанная с i-м входом хi, wi(n+1)  значение веса i после коррекции; wi(n)   значение веса i до коррекции.

Дельта-правило модифицирует веса в соответствии с требуемым и действительным значениями выхода каждой полярности, как для непрерывных, так и для бинарных входов и выходов.

В более общей форме процедура обучения персептрона может быть рассмотрена на примере структуры вида рис. 4.

Рис. 4. Однослойная нейронная сеть

Здесь отмеченная процедура состоит из следующих шагов:

1. Всем весам сети придаются различные  малые случайные значения.

2. На вход сети подается обучающий вектор Х и вычисляется сигнал NET от каждого нейрона:

NETj =.

3. Вычисляется значение пороговой функции активации для сигнала NET от каждого нейрона:

OUTj  = 1, если NETj больше, чем порог ,

OUTj  = 0 в противном случае.

Здесь  представляет собой порог, соответствующий нейрону  j (в простейшем случае все нейроны имеют один и тот же порог).

4. Вычисляется ошибка для каждого нейрона посредством вычитания полученного выхода из требуемого выхода:

errorj = targetj - OUTj.

5. Каждый вес модифицируется следующим образом:

.

6. Повторяются шаги со второго по пятый до тех пор, пока ошибка не станет достаточно малой.

 3. Обучающий алгоритм обратного распространения

Обратное распространение это систематический метод для обучения многослойных искусственных нейронных сетей, имеющий серьезное математическое обоснование. Несмотря на некоторые ограничения, процедура обратного распространения существенно расширила область проблем, для решения которых с успехом могут быть использованы указанные сети.

Сетевые конфигурации

На рис.5 показан.

нейрон, используемый в качестве основного элементарного блока в сетях обратного распространения

Рис. 5. Нейрон с активационной функцией

В качестве активационной функции нейронов сети этого типа обычно используется сигмоидальная активационная функция

OUT = 1/(1 + e-NET).                                      (4)

Данная функция, называемая сигмоидом, весьма удобна, так как имеет простую производную, что используется при реализации алгоритма обратного распространения:

.                                  (5)

Сигмоид, который иногда называется также логистической, или сжимающей функцией, сужает диапазон изменения NET так, что значение OUT лежит между нулем и единицей. Как указывалось выше, многослойные нейронные сети обладают большей представляющей мощностью, чем однослойные только в случае задания нелинейной активационной функции. Сжимающая функция обеспечивает требуемую нелинейность. В действительности имеется множество функций, которые могли бы быть использованы в качестве активационных. Для алгоритма обратного распространения требуется лишь, чтобы функция была всюду дифференцируема. Сигмоид удовлетворяет этому требованию. Более того, как отмечалось, его дополнительное преимущество состоит в автоматическом контроле усиления: большие сигналы воспринимаются сетью без насыщения, а слабые сигналы проходят по сети без чрезмерного ослабления.

Обучение

На рис. 6 изображена многослойная сеть, которая может обучаться с помощью процедуры обратного распространения (для наглядности рисунок упрощен). Процедура обратного распространения применима к сетям с любым числом слоев. Однако для того, чтобы продемонстрировать алгоритм, достаточно двух слоев. Сейчас будут рассматриваться лишь сети прямого действия, хотя обратное распространение применимо и к сетям с обратными связями. Эти случаи будут рассмотрены в данной главе позднее.

Рис. 6.  Двухслойная сеть обратного распространения

Целью обучения сети является такая подстройка ее весов, чтобы приложение некоторого множества входов приводило к требуемому множеству выходов. Для краткости эти множества входов и выходов будут называться векторами. При обучении предполагается, что для каждого входного вектора существует парный ему целевой вектор, задающий требуемый выход. Вместе они называются обучающей парой. Как правило, сеть обучается на многих парах. Например, входная часть обучающей пары может состоять из набора нулей и единиц, представляющего двоичный образ некоторой буквы алфавита.

Если через квадрат сенсорного поля (см. рис. 3) проходит линия, то соответствующий нейронный вход равен единице, в противном случае он равен нулю. Выход может быть числом, представляющим букву “А”, или другим набором из нулей и единиц, который может быть использован для получения выходного образа. При необходимости распознавать с помощью сети всех букв алфавита, потребовалось бы 26 обучающих пар. Такая группа обучающих пар называется обучающим множеством.

Перед началом обучения всем весам должны быть присвоены небольшие начальные значения, выбранные случайным образом. Это гарантирует, что в сети не произойдет насыщения большими значениями весов, и предотвращает ряд других неприятных ситуаций. Например, если всем весам придать одинаковые начальные значения, a для требуемого функционирования нужны неравные значения, сеть не сможет обучиться.

Обучение сети обратного распространения требует выполнения следующих операций:

1. Выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети.

2. Вычислить выход сети.

3. Вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары).

4. Подкорректировать веса сети так, чтобы минимизировать ошибку.

5. Повторить шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня.

Операции, выполняемые шагами 1 и 2, сходны с теми, которые выполняются при функционировании уже обученной сети, т.е. подается входной вектор и вычисляется получающийся выход. Вычисления выполняются послойно. На рис. 6 сначала вычисляются выходы нейронного слоя j, затем они используются в качестве входов слоя k, вычисляются выходы нейронов слоя k, которые и образуют выходной вектор сети.

На шаге 3 каждый из выходов сети, которые на рис. 6 обозначены OUT, вычитается из соответствующего компонента целевого вектора, чтобы получить ошибку. Эта ошибка используется на шаге 4 для коррекции весов сети, причем знак и величина изменений весов определяются алгоритмом обучения (см. ниже).

После достаточного числа повторений этих четырех шагов разность между действительными выходами и целевыми выходами должна уменьшиться до приемлемой величины, при этом говорят, что сеть обучилась. Теперь сеть используется для распознавания, и веса не изменяются.

На шагах 1 и 2 сигнал распространяется по сети от входа к выходу. Шаги 3, 4 составляют “обратный проход”, здесь вычисляемый сигнал ошибки распространяется обратно по сети и используется для подстройки весов. Эти два прохода теперь будут детализированы и выражены в математической форме.

Проход вперед

Шаги 1 и 2 могут быть выражены в векторной форме следующим образом: подается входной вектор Х и на выходе получается вектор Y. Векторная пара вход-цель Х и Т берется из обучающего множества. Вычисления проводятся над вектором X, чтобы получить выходной вектор Y.

Вычисления в многослойных сетях выполняются слой за слоем, начиная с ближайшего к входу слоя. Величина NET каждого нейрона первого слоя вычисляется как взвешенная сумма входов нейрона. Затем активационная функция F “сжимает” NET и дает величину OUT для каждого нейрона в этом слое. Когда множество выходов слоя получено, оно является входным множеством для следующего слоя. Процесс повторяется слой за слоем, пока не будет получено заключительное множество выходов сети

О = F(XW).                                                          (6)

Выходной вектор одного слоя является входным вектором для следующего, поэтому вычисление выходов последнего слоя требует применения уравнения (6) к каждому слою от входа сети к ее выходу.

Обратный проход

Подстройка весов выходного слоя. Так как для каждого нейрона выходного слоя задано целевое значение, то подстройка весов легко осуществляется с использованием модифицированного дельта-правила. Внутренние слои называют “скрытыми слоями”, для их выходов не имеется целевых значений для сравнения. Поэтому обучение усложняется.

На рис. 7 показан процесс обучения для одного веса от нейрона р в скрытом слое j к нейрону q в выходном слое k.

Рис. 7. Настройка веса в выходном слое

Выход нейрона слоя k, вычитаясь из целевого значения (Target), дает сигнал ошибки. Он умножается на производную сжимающей функции [OUT(1 - OUT)], вычисленную для этого нейрона слоя k, давая, таким образом, величину d:

d=OUT(1-OUT)(Target-OUT).                                             (7)

Затем d умножается на величину OUT нейрона j. Это произведение, в свою очередь, умножается на коэффициент скорости обучения h (обычно от 0.01 до 1.0), и результат прибавляется к весу. Такая же процедура выполняется для каждого веса от нейрона скрытого слоя к нейрону в выходном слое. Следующие уравнения иллюстрируют это вычисление:

Dwpq,k=h dq,kOUTp,j,                                            (8)

wpq,k(n+1)=wpq,k(n) + Dwpq,k ,                                      (9)

где wpq,k(n) - величина веса от нейрона p в скрытом слое к нейрону q в выходном слое на шаге n (до коррекции); отметим, что индекс k относится к слою, в котором заканчивается данный вес, т.е., согласно принятому выше соглашению, с которым он объединен; wpq,k(n+1) - величина веса на шаге n+1 (после коррекции); dq,k  - величина d для нейрона q в выходном слое k; OUTp,j - величина OUT для нейрона p в скрытом слое j.

Подстройка весов скрытого слоя

Рассмотрим один нейрон в скрытом слое, предшествующем выходному слою. При проходе вперед этот нейрон передает свой выходной сигнал нейронам в выходном слое через соединяющие их веса. Во время обучения эти веса функционируют в обратном порядке, пропуская величину  от выходного слоя назад к скрытому слою. Каждый из этих весов умножается на величину  нейрона, к которому он присоединен в выходном слое. Величина , необходимая для нейрона скрытого слоя, получается суммированием всех таких произведений и умножением на производную сжимающей функции (см. рис.8):

dq,j j = OUTp,j(1 - OUTp,j)                               (10)

Когда значение d  получено, веса, питающие первый скрытый уровень, могут быть подкорректированы с помощью уравнений (8) и (9), где индексы модифицируются в соответствии со слоем.

Для каждого нейрона в скрытом слое должно быть вычислено d и подстроены все веса, ассоциированные с этим слоем. Данный процесс повторяется слой за слоем по направлению к входу, пока все веса не будут подкорректированы.

Рис. 8. Настройка весов в скрытом слое

С помощью векторных обозначений операция обратного распространения ошибки может быть, записана значительно компактнее. Обозначим множество величин d выходного слоя через Dk и множество весов выходного слоя как массив Wk. Чтобы получить Dj, d-вектор скрытого слоя, достаточно следующих двух операций:

1. Умножить d-вектор выходного слоя Dk на транспонированную матрицу весов WkT, соединяющую скрытый уровень с выходным уровнем.

2. Умножить каждый компонент полученного произведения на производную сжимающей функции соответствующего нейрона в скрытом слое.

В символьной записи

Dj=Dk WkT$[Oj$(I - Oj)],                                          (11)

где оператор $ обозначает покомпонентное произведение векторов, Oj - ыходной вектор слоя j и I - вектор, все компоненты которого равны 1.

Добавление нейронного смещения

Во многих случаях желательно наделять каждый нейрон обучаемым смещением. Это позволяет сдвигать начало отсчета логистической функции, давая эффект, аналогичный подстройке порога персептронного нейрона, и приводит к ускорению процесса обучения. Такая возможность может быть легко введена в обучающий алгоритм с помощью добавляемого к каждому нейрону веса, присоединенного к +1. Данный вес обучается так же, как и все остальные веса, за исключением того, что подаваемый на него сигнал всегда равен +1, а не выходу нейрона предыдущего слоя.

Импульс

В ряде работ описан метод ускорения для алгоритма обратного распространения, увеличивающий также устойчивость процесса. Этот метод, названный импульсом, заключается в добавлении к коррекции веса члена, пропорционального величине предыдущего изменения веса. Как только происходит коррекция, она “запоминается” и служит для модификации всех последующих коррекций. Уравнения коррекции модифицируются следующим образом:

Dwpq,k (n+1) = h dq,kOUTp,j + a[Dwpq,k(n)],                             (12)

wpq,k(n+1)=wpq,k(n) + Dwpq,k(n+1),                                    (13)

где a - коэффициент импульса, обычно устанавливаемый около 0,9.

Используя метод импульса, сеть стремится идти по дну узких оврагов поверхности ошибки (если таковые имеются), а не двигаться от склона к склону. Данный метод, по-видимому, хорошо работает на некоторых задачах, но дает слабый или даже отрицательный эффект на других.

В разных источниках описан сходный метод, основанный на экспоненциальном сглаживании, имеющий преимущества в ряде приложений. Здесь корректировка весов описывается соотношениями:

wpq,k(n+1) =aDwpq,k(n) + (1 - a) dq,kOUTp,j,                            (14)

wpq,k(n+1) =wpq,k(n) + h Dwpq,k(n+1),                                  (15)

где коэффициент a сглаживания варьируется в диапазоне (0, 1). Если a =1, то новая коррекция игнорируется и повторяется предыдущая. В области между 0 и 1 коррекция веса сглаживается величиной, пропорциональной a. В данном случае h, как и ранее, является коэффициентом скорости обучения, служащим для управления средней величиной изменения веса.

3.1. Некоторые особенности метода обратного распространения

Несмотря на многочисленные успешные применения метода обратного распространения, он не свободен от недостатков. Прежде всего, это длительный процесс обучения, что иногда является результатом неоптимального выбора длины шага. Неудачи в обучении также возникают в результате паралича сети и попадания в локальный минимум.

Паралич сети

В процессе обучения сети значения весов могут в результате коррекции стать очень большими величинами, вследствие чего все или большинство нейронов будут функционировать при очень больших значениях OUT в области, где производная сжимающей функции очень мала. Так как посылаемая обратно в процессе обучения ошибка пропорциональна этой производной, то процесс обучения при этом практически прекращается. В теоретическом аспекте данная проблема изучена слабо, и отмеченного эффекта стараются избежать, уменьшая размер шага , что, однако, приводит к увеличению времени обучения. Какого-либо универсального подхода к решению проблемы нет.

Локальные минимумы

Обратное распространение использует разновидность градиентного спуска, т.е. осуществляет спуск вниз по поверхности ошибки, непрерывно подстраивая веса по направлению к минимуму. Поверхность ошибки сложной сети обычно сильно изрезана и состоит из холмов, долин, складок и оврагов в пространстве большой размерности. Сеть в процессе обучения может попасть в локальный минимум (неглубокую долину), хотя рядом имеется более глубокий минимум. В точке локального минимума все направления ведут вверх, и сеть неспособна из него выбраться.

Размер шага

В известных доказательствах сходимости алгоритма обратного распространения коррекция весов предполагается бесконечно малой при каждой такой коррекции. На практике же, естественно, размер шага должен браться конечным. Но, если размер шага очень мал, то сходимость слишком медленная, если же очень велик, то может возникнуть описанный паралич сети или постоянная неустойчивость. Выходом из такого затруднения являются разработанные и описанные в литературе адаптивные алгоритмы выбора шага, автоматически корректирующие размер шага в процессе обучения.

Временная неустойчивость

Данная проблема возникает, в частности, если сеть находится в постоянно меняющейся внешней среде, так что второй раз один и тот же входной вектор может уже не повториться. В таком случае процесс обучения может никогда не сойтись, и в этом смысле обратное распространение не похоже на биологические системы.

Обучение с учителем

Различают алгоритмы обучения с учителем и без учителя. Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Обычно сеть обучается на некотором числе таких обучающих пар. Предъявляется выходной вектор, вычисляется выход сети и сравнивается с соответствующим целевым вектором, разность (ошибка) с помощью обратной связи подается в сеть, и веса изменяются в соответствии с алгоритмом, стремящимся минимизировать ошибку. Векторы обучающего множества предъявляются последовательно, ошибки вычисляются и веса подстраиваются для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не достигнет приемлемо низкого уровня.

Обучение без учителя

Несмотря на несомненные достоинства, обучение с учителем критиковалось за свою биологическую неправдоподобность. Трудно вообразить обучающий механизм в мозге, который бы сравнивал желаемые и действительные значения выходов, выполняя коррекцию с помощью обратной связи. Если допустить подобный механизм в мозге, то откуда тогда возникают желаемые выходы? Обучение без учителя является намного более правдоподобной моделью обучения в биологической системе. Она не нуждается в целевом векторе для выходов и, следовательно, не требует сравнения с предопределенными идеальными ответами. Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм подстраивает веса сети так, чтобы получались согласованные выходные векторы, т.е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения, следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы. Предъявление на вход вектора из данного класса даст определенный выходной вектор, но до обучения невозможно предсказать, какой выход будет производиться данным классом входных векторов. Это не является серьезной проблемой. Обычно не сложно идентифицировать связь между входом и выходом, установленную сетью.

Алгоритмы обучения


 

А также другие работы, которые могут Вас заинтересовать

11611. Графические возможности MS Word’2000/2003 139 KB
  Лабораторная работа № 6 Тема: Графические возможности MS Word’2000/2003.. Цель работы: Освоить основные приемы создания редактирования и форматирования графических объектов в документах текстового процессора MS Word’2000/2003. Содержание работы: Задание: Создать бланк фирмы п...
11612. Оформление математических формул в документах MS Word’2000/2003 99 KB
  Лабораторная работа № 7 Тема: Оформление математических формул в документах MS Word’2000/2003. Цель работы: Освоить основные приемы создания и форматирования математических формул в текстовых документах MS Word’2000/2003. Содержание работы: Освоение...
11613. Работа с большим (структурированным) документом MS Word’2000/2003 138.5 KB
  Лабораторная работа № 8 Тема: Работа с большим структурированным документом MS Word’2000/2003 Цель работы: Освоить основные приемы оформления структурированного документа в MS Word’2000/2003. Содержание работы: Создание структурированного документа. Оформление структ
11614. Решение задач в MatLab 324.86 KB
  Лабораторная работа №2. Решение задач в MatLab Цель лабораторной работы – закрепление практических навыков решения задач в среде математического пакета MatLab необходимых для выполнения лабораторных работ по дисциплине ТИПиС. Этап I. Решение уравнений в пакете MatLa...
11615. Создание собственных функций на MatLa 147.39 KB
  Создание собственных функций Необходимо создать программу на MatLab. При этом все операции с матрицами должны производиться без использования стандартных функций. Создание функции сложения матриц: function C=addmAB d1=sizeA; d2=sizeB; if d11==d21||d12==d22 n=d11; m=d12; ...
11616. ПЕРЕХОДНЫЕ ПРОЦЕССЫ В ЛИНЕЙНЫХ ЭЛЕКТРИЧЕСКИХ ЦЕПЯХ С СОСРЕДОТОЧЕННЫМИ ПАРАМЕТРАМИ 2.14 MB
  Лабораторная работа №7 ПЕРЕХОДНЫЕ ПРОЦЕССЫ В ЛИНЕЙНЫХ ЭЛЕКТРИЧЕСКИХ ЦЕПЯХ С СОСРЕДОТОЧЕННЫМИ ПАРАМЕТРАМИ Целью работы является исследование переходных процессов в линейных электрических цепях содержащих сопротивления индуктивность и емкость при действии и...
11617. Изучение рентгеновских трубок и аппаратов 629.5 KB
  ЛАБОРАТОРНАЯ РАБОТА №1. Изучение рентгеновских трубок и аппаратов. РЕНТГЕНОВЧСКИЕ ТРУБКИ. Рентгеновская трубка является источником рентгеновских лучей возникающих в ней в результате взаимодействия быстро летящих электронов с атомами анода установленного...
11618. Мерология. Лабораторный практикум 1.36 MB
  Мерология. Лабораторный практикум Учебнометодическое пособие для студентов приборостроительного факультета Лабораторный практикум предназначен для использования в высших учебных заведениях при подготовке инженеров по специальности Метрология стандартизация и...
11619. Исследование напряженно-деформированного состояния стержня при кручении 405.5 KB
  ЛАБОРАТОРНАЯ РАБОТА ПО МЕХАНИКЕ СПЛОШНЫХ СРЕД № 2 Тема: Исследование напряженно-деформированного состояния стержня при кручении Задание Для заданной упругой системы рис. 1 исследовать напряженнодеформированное состояние при растяжениисж