72368

Теоретическая информатика. Архитектура ЭВМ

Книга

Информатика, кибернетика и программирование

Настоящее время характеризуется всё возрастающим процессом информатизации общества –- созданием развитием и всеобщим применением информационных технологий –- совокупности технических средств и методов компьютерной обработки хранения передачи и использования информации.

Русский

2014-11-21

1.56 MB

0 чел.

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

ТЕХНОЛОГИЙ И УПРАВЛЕНИЯ

имени К.Г.Разумовского

Кафедра «Информационные технологии»

УЧЕБНО-ПРАКТИЧЕСКОЕ

ПОСОБИЕ

Раздел: «Теоретическая информатика.

Архитектура ЭВМ»

Кулаковский А.И.


ВВЕДЕНИЕ

Разработка первых вычислительных машин в 50-х годах XX века явилась началом перехода от индустриального общества к информационному.

Настоящее время характеризуется всё возрастающим процессом информатизации общества – созданием, развитием и всеобщим применением информационных технологий – совокупности технических средств и методов компьютерной обработки, хранения, передачи и использования информации.

Неизбежность информатизации обусловлена резким усложнением социально-экономических процессов в обществе в результате увеличения масштабов и темпов общественного производства, необходимостью оперативно реагировать на возникающие проблемы в динамично меняющейся обстановке, при повышении степени самоуправления предприятий, территорий, регионов.

Информатизация – необходимое условие научно-технического, социального, экономического и политического прогресса общества. Информатизация общества призвана улучшить качество жизни людей за счет повышения производительности, облегчения условий их труда путем оперативного обеспечения возрастающих объемов и уровня информационных услуг в различных сферах деятельности. При этом информация становится стратегическим, информационным ресурсом общества и занимает ключевое место в экономике, образовании и культуре.

Информационный ресурс общества – это совокупность знаний, идей и указаний по их реализации, накопленных в форме, позволяющей их воспроизводство с помощью информационных технологий. Информационный ресурс – это отчуждаемые знания, ставшие сообщениями, информацией. Информационный ресурс может существовать в пассивной форме (статьи, книги, патенты, банки данных) и активной форме (модель, алгоритм, программа). Информационный ресурс становится основным ресурсом человечества, главной ценностью современной цивилизации.

Информатизация общества прежде всего охватывает все элементы рыночной экономики (сеть оптовой и розничной торговли; товарные, фондовые, валовые биржи; сети банков; страховые компании; аудиторские службы и др.) и сферы услуг (развитие всех видов сервиса, особенно в торговле, финансово-кредитной сфере, связи, здравоохранении и др.)

Научным фундаментом процесса информатизации общества является новая научная дисциплина – информатика, возникшая благодаря разработке первых вычислительных машин. Термин «информатика» (франц. Informatique) происходит от французских слов information (информация) и automatique (автоматика) и означает «информационная автоматика». Выделению информатики в отдельную науку способствовало такое важное свойство современной вычислительной техники, как единая форма представления обрабатываемой и хранимой информации вне зависимости от ее вида (числовая, текстовая, аудиовизуальная).

В широком смысле информатика – это наука об информационной деятельности, информационных процессах и их организации в человеко-машинных системах. Основными разделами информатики являются исследование и разработка информационных средств и технологий, программных средств и моделирование предметных областей.

В более узком смысле информатика – это наука, основанная на использовании средств вычислительной техники, изучающая структуру, общие свойства, закономерности, методы создания, хранения, обработки и передачи информации, а также принципы создания вычислительных средств и управления ими.

Информатика развивается очень стремительно. Каждые два года происходит смена поколений  и программных средств вычислительной техники.

Термин информация (лат. Information – сведения, разъяснение, осведомленность) – одно из наиболее общих понятий науки, обозначающее некоторые сведения, данные, знания, которые кого-либо интересуют. Одно и то же информационной сообщение для разных людей может содержать разное количество информации, т.е. информация характеризует не само сообщение, а соотношение между сообщением и его потребителем.

В широком смысле «информация» - это отражение реального мира, в узком смысле – это любые сведения, являющиеся объектом хранения, передачи и преобразования.

Информацию классифицируют по различным признакам. Например, по области использования информацию можно классифицировать на научную, техническую, экономическую, политическую, химическую и т.д.

Информация может существовать в виде электрических, магнитных, световых, звуковых, радио сигналов, жестов и мимики, запахов, вкусовых ощущений и др.

Информация характеризуется релевантностью (соответствием запросам потребителя), полнотой, своевременностью, достоверностью, доступностью, защищенностью.

Практически информация передается в виде сообщений от некоторого источника информации (отправителя) к получателю (адресату) через канал (линию) связи. Передаваемое от источника сообщение обычно предварительно преобразуется в сигнал, удобный для передачи по каналу связи; по прохождении канала связи сигнал воспринимается приемником и с помощью обратного преобразования становится принимаемым сообщением (иллюстрацией сказанного может служить телеграф С. Морзе). Так функционирует типовая информационная система (ИС). Источниками и получателями сообщения могут быть человек или технические средства. Человек воспринимает сообщения посредством органов чувств; технические устройства – с помощью различной измерительной и регистрирующей аппаратуры.

Передача информации по каналам связи ИС часто сопровождается воздействием помех, вызывающих искажение и потерю информации. Канал связи представляет собой физическую среду (например, кабель, волновод, электромагнитные колебания) и совокупность аппаратно-программных средств, обеспечивающих передачу сигнала. Повышение надежности передачи сигналов (например, за сет удлинения импульсов в телеграфе Морзе) ограничено. В связи с этим теорией передачи и преобразования информации рассматривается задача, как добиться максимальной скорости передачи сообщений, обеспечив заданную надежность и избирательность ИС (способность отделить полезный сигнал от помех).

Реализация информационных технологий привела к созданию автоматизированных информационных систем (АИС), в которых обработка информации и выработка новых знаний осуществляется с помощью средств вычислительной и телекоммуникационной техники. АИС являются объектом информатики. Она изучает все стороны их создания, анализа и практического использования.

Информационные технологии по существу явились технической базой АИС. Типичный процесс обработки информации в АИС состоит в том, что сообщение с помощью специального устройства (датчика температуры, скорости и т.п.) преобразуется в эквивалентный электрический сигнал, который кодируется с помощью специального устройства (аналого-цифрового преобразователя). Полученный цифровой сигнал подвергается обработке с помощью цифровых вычислительных средств. Результаты обработки могут быть представлены в виде непрерывного сигнала с помощью цифро-аналогового преобразователя.

В настоящее время АИС получили широкое распространение. АИС классифицируются по различным признакам:

  •  направлению деятельности (промышленной и непромышленной научной сферы);
  •  территориальному охвату (общегосударственная, республиканская, областная и т.д.);
  •  организации информационного процесса (управляющие и информационные – автоматизированная система научных исследований; «Библиотека»; системы автоматизированного проектирования; экспертные системы и др.);
  •  сфере применения (административные, производственные, военные, для обеспечения денежно-кассовых операций, распределения мест на транспорте, в гостинице и др.).

Информатику принято делить на две части: теоретическую и прикладную.

Теоретическая информатика рассматривает проектирование, создание и использование АИС. Всем им характерны такие понятия как сигналы, носители информации, каналы связи, данные и т.д. Все они характеризуются надежностью, эффективностью, релевантностью, достоверностью, избыточностью и др. Все они делятся на отдельные фазы: прием, преобразование (кодирование), передача, обратное преобразование (декодирование), хранение, извлечение и отображение информации. Теоретическая информатика изучает общие свойства различных информационных технологий, информационные технологии высшего уровня, основанные на искусственном интеллекте, ориентированные на создание методов дублирования функций живых интеллектуальных систем искусственными системами (разумеется, в пределах доступного).

Прикладная информатика изучает конкретные разновидности АИС, которые, имея общие черты, существенно отличаются друг от друга (АСУП, АСУТП, САПР, криминалистика и др.) Прикладная информатика изучает также отраслевые ветви информатики: экономическую, медицинскую, военную и др.

Предыстория информатики уходит своими корнями в далекое прошлое. Этапу информатизации общества предшествовала вся предыстория развития человечества, в которой, с точки зрения информатизации, можно условно выделить 4 этапа:

  •  появление развитой устной речи (язык – социальное средство хранения и передачи информации);
  •  возникновение письменности (искусственная внешняя память, передача информации с помощью почтовой связи);
  •  книгопечатание (машинное воспроизведение информации, уменьшение вероятности потери информации при хранении, повышение доступности информации и точности воспроизведения);
  •  индустриализация (появление машин и механизмов) и постиндустриализация, связанная с научно-технической революцией (успехи точных наук, возникновение средств связи – радио, телефон, телеграф, телевидение, а также фотографии, кино, записи информации на магнитных носителях).

Хотя информатика как наука возникла с разработкой первых вычислительных машин, однако теоретические основы информатики сформировались на базе достижений таких наук, как теория вероятности и математическая статистика (идея связи вероятности и информации, высказанная в работах Р. Фишера), термодинамика и статистическая механика (понятие энтропии, заимствованное из термодинамики, было связано с вероятностью, что позволило в итоге связать вероятность и энтропию с понятием информации – работы А. Больцмана). Особенно весомый вклад в информатику был сделан специалистами по теории связи при рассмотрении проблем передачи сообщений по каналам связи. Здесь следует прежде всего отметить основополагающие работы ученых Р. Хартли (идея измерять количество информации, содержащееся в сообщении, как логарифм числа возможных выбранных последовательностей символов), К Шеннона (обобщение результатов Р. Хартли для случая неравновероятного выбора символов), Н. Винера, который установил общие закономерности процессов управления и передачи сигналов в машинах и живых организмах.

Вопросы для самоконтроля

  1.  Дайте определение понятию «информация».
  2.  В чем заключается процесс информатизации общества?
  3.  Что такое информационный ресурс общества?
  4.  Раскройте понятие «информационные технологии»
  5.  Что такое АИС?
  6.  Как Вы понимаете смысл, цели и задачи дисциплины «Информатика»?

Глава 1. Основы теории информации

Информация поступает от источника. Понятие «источник информации» относится только к организованным (кибернетическим) системам окружающего мира (машины, растения, животные, человек). Такие системы принято называть физическими системами. Каждую совокупность качественных и количественных признаков системы называют состоянием. В случае, если эти признаки принимают только отдельные, разделенные конечными интервалами значения, система называется системой с дискретным множеством состояний или дискретной системой. Например, выключатель или реле – дискретная система с двумя состояниями; проволочный потенциометр - дискретная система с числом состояний, равным числу витков проволоки. В случае, если признаки непрерывно заполняют некоторую область значений, система называется системой с непрерывным множеством состояний или непрерывной системой. В качестве примера можно привести тот же потенциометр, но изготовленный из сплошного материала. Физические системы принято также делить на стационарные и нестационарные. Стационарными называются системы, состояния (характеристики) которых не зависят от начала отсчета времени. Строго говоря таких систем не существует, т.к. в окружающем нас мире все меняется («нельзя войти в одну и ту же воду дважды», - говорят философы). Но в первом приближении обычно физические системы считают стационарными (квазистационарными).

Информация всегда представляется в виде сообщения (совокупности сведений об источнике), интересующегося потребителя. Сообщение всегда передается в материально-энергетической форме – в виде сигнала (электрического, светового, электромагнитного, звукового и др.)

Преобразование сообщения в сигнал обычно осуществляется в виде двух операций – кодирования и модуляции. Кодирование представляет собой преобразование сообщения в последовательность кодовых символов (например, кодирование телеграммы при отправлении), а модуляция – преобразование этих символов в сигналы, пригодные для передачи по каналу связи (например, передаваемый радиостанцией радиосигнал). На выходе из канала связи производятся обратные операции: демодуляция (извлечение полезной составляющей из радиосигнала с помощью детектора радиоприемника) и декодирование (расшифровка телеграммы в приемном устройстве).

Теория информации – это наука о получении, преобразовании, накоплении, отображении и передаче информации. Теория информации рассматривает также математические модели детерминированных и случайных сигналов, вопросы, связанные с оценкой количества передаваемой информации, эффективности, помехоустойчивости и пропускной способности каналов связи.

Ниже излагаются основные сведения по теории информации.

  1.  Получение информации

Получение (восприятие) информации – процесс целенаправленного извлечения и анализа информации в какой-либо физической системе.

Подобно живым организмам, воспринимающим информацию из внешней среды с помощью специальных органов (обоняния, осязания, слуха, зрения), технические системы воспринимают информацию с помощью специальных устройств – датчиков, чувствительных элементов, анализаторов (восприятие зрительной, акустической и другой информации).

Система восприятия информации может представлять собой довольно сложный комплекс программных и технических средств, обеспечивающих несколько этапов первичной переработки поступающей информации.

Простейший тип восприятия – различение двух противоположных (альтернативных) ситуаций: «ДА» и «НЕТ»; «+» и «-»; «замкнуто» и «разомкнуто», «1» и «0».

Более сложный вид восприятия – измерение, т.е. получение внешней информации и сравнение ее с некоторыми эталонами. В результате происходит определение измеряемых величин в статистике или в динамике (в их изменении во времени и пространстве). В последнем случае особо выделяют системы восприятия, функционирующие в реальном времени, т.е. в том же темпе, в котором происходят изменения физической системы.

Последующие этапы восприятия (в случае необходимости): анализ, распознавание, прогнозирование ситуаций. При этом применяются различные практические и теоретические приемы: аналитические, статистические, логические, эвристические и др.

Критерием качества (эффективности) восприятия может быть количество полученной информации при обеспечении высокой достоверности (малой вероятности ошибки) восприятия.

Устройства, воспринимающие информацию от физической системы (датчики, анализаторы и др.), обычно выражают входную информацию в виде эквивалентных физических сигналов (механических, электрических и др.)

В связи с этим перейдем к рассмотрению понятия «сигнал». «Сигнал» - это материальный носитель информации, средство перенесения информации в пространстве и времени. Носителем сигнала могут быть звук, свет, электрический ток, магнитное поле и т.п.

Все многообразие сигналов в природе можно разделить на две основные группы – детерминированные и случайные. Все сигналы в свою очередь делятся на непрерывные и дискретные. Рассмотрим эти понятия более подробно.

  1.  Сигналы детерминированные и случайные.

Детерминированным называется сигнал, значения которого в любые моменты времени являются известными величинами. В противном случае сигнал называют случайным или стохастическим (от греческого слова stochastic – догадка). Каждый конкретный вид случайного сигнала Х(t), представляющего собой функцию времени, называют реализацией. Каждую реализацию можно представить бесконечной совокупностью зависимых или независимых случайных величин.

Случайный сигнал описывается статистически с помощью различных вероятностных характеристик.

Предположим, что имеется  N реализаций случайного сигнала. Зафиксировав аргумент t (t = ti) получим N значений случайной величины ξ.

Задание вероятностей ее возможных значений эквивалентно заданию так называемой функции распределения (интегрального закона) Fξ(x,ti). Значение функции распределения Fξ(x,ti) в точке х есть вероятность того, что случайная величина ξ примет значение меньшее или равное х, т.е.

   (1.1)

Рис. 1.1. Функция распределения случайной величины (интегральный закон)

Для получения одной ординаты функции распределения, например  F(xj, ti) для x=xj (рис. 1.1) нужно подсчитать отношение числа раз n, когда значение ξ во всех N реализациях оказывались меньше или равными заданной величины xj, к общему числу N значений ξ, т.е. n/N. Это отношение называется частотой, а предел этого отношения при N∞ называется вероятностью того, что случайная величина ξ будет меньше или равной величины xj, т.е. . Очевидно, что если менять значения х, то и частота (вероятность) будет меняться, причем при х -∞ Fξ(-∞,ti)=0, а при хFξ(∞,ti) =1 (n=N), т.е. . Функция распределения является полным статистическим описанием случайной величины в том смысле, что по ней можно определить все возможные значения случайной величины и соответствующие им вероятности. Например, вероятность того, что случайная величина ξ находится в интервале {x1,x2}

Случайная величина ξ описывается также  плотностью распределения (дифференциальным законом)

 (1.2)

В качестве примера на рис. 1.2 показана функция fξ(x,ti). Имея N значений случайной величины можно построить ступенчатую функцию – гистограмму распределения случайной величины (ступенчатая функция на рис. 1.2). Для этого область изменения х разделяют на определенное число интервалов ∆х и каждому интервалу ставят в соответствие отношение n/N для этого интервала. При уменьшении интервала ∆х функция будет приближаться к непрерывной.

Рис. 1.2. Плотность распределения случайной

величины (дифференциальный закон)

Из (1.2) следует, что

   или

,

т.е. площадь, ограниченная  функцией fξ(x,ti) и осью х равна 1. С помощью функции fξ(x,ti) можно приближенно подсчитать вероятность того, что в момент времени ti случайная величина ξ находится в интервале {x,x+∆x}:

 

(заштрихованная площадь на рис. 1.2).

Отметим, что случайные величины, функции распределения которых дифференцируемы по х при любых х, называются непрерывными.

В ряде случаев нет необходимости полного описания случайной величины ее функцией распределения. Большинство практических задач можно решать с помощью немногих усредненных характеристик распределения m, образующихся из моментов ν порядка случайной величины ξ относительно числа а – т.е. математического ожидания случайной величины (ξ-а)ν.

m=M(ξ-а)ν,     (1.3)

где М – обозначает операцию математического ожидания. Начальный момент первого порядка (ν=1) определяется относительно а = 0 и называется математическим ожиданием случайной величины ξ, т.е.  m1=M(ξ)=a.

Центральный момент второго порядка (ν=2) определяется относительно центра распределения и называется дисперсией случайной величины ξ, т.е. Dξ=M(ξ-a)2.

Математическое ожидание и дисперсия дискретной случайной величины ξ определяются по формулам:

   (1.4)

  (1.5)

В случае непрерывной величины ξ:

   (1.6)

,   (1.7)

где  обозначает среднеквадратичное отклонение случайной величины.

Математическое ожидание Mξ и дисперсия Dξ являются функционалами, описывающими свойства распределения случайной величины ξ : Mξ характеризует «средневзвешенное» положение величины ξ, а Dξ  – ее рассеяние относительно математического ожидания.

Рассмотренные характеристики Fξ(x,ti) и fξ(x,ti) являются одномерными, т.к. они получены при фиксированном значении аргумента t=ti. Более полной характеристикой случайного сигнала х(t) является двумерный закон распределения fξ(x,t1;x,t2), заключающий в себе связь между значениями функции в два момента времени. Очевидно, что наиболее полной характеристикой случайного процесса мог бы служить только «бесконечномерный» (n-мерный) закон распределения (в силу непрерывности аргумента – времени) f(x,t1;x,t2;…x,tn). Однако на практике существуют и лучше изучены некоторые типы случайных сигналов, свойства которых полностью определяются законом распределения при малом числе n (обычно для n < 3). К такому классу случайных сигналов относятся  чисто случайные сигналы, характеризующиеся независимостью значений х(t) в различные моменты времени (для таких сигналов fξ(x,t1;x,t2,…,x,tn)= fξ(x,t1f(x,t2)·…fξ(x,tn). Чисто случайный процесс является идеализацией, т.к. в реальных процессах всегда существует статистическая связь между значениями х(t) в достаточно близкие моменты времени. Другим примером являются марковские (по имени математика А.А. Маркова) случайные сигналы, для которых, в силу их безынерционности, любая n – мерная плотность вероятности их значений может быть получена из двумерной плотности вероятности.

Получение многомерной плотности вероятности в общем случае представляет собой весьма трудную задачу. Поэтому для многих практических областей применения при определении статистических характеристик случайного сигнала, как и случайной величины, вполне достаточно знания некоторых интегральных (усредненных) характеристик, но вместо моментов порядка ν в случае случайных величин, моментных функций различных порядков ν

   (1.8)

При   (1.9)

Эта функция времени называется математическим ожиданием случайного сигнала х(t). Очевидно, что математическое ожидание случайного сигнала представляет собой некоторую среднюю кривую, около которой располагаются его возможные реализации. Сигналы вида  обычно называют центрированными. Начальная моментная функция второго порядка (ν=2) характеризует математическое ожидание квадрата процесса, т.е. M[x2(t)], а центральная моментная функция второго порядка (ν=2).

    (1.10)

носит название дисперсии

      (1.11)

Корреляционной (автокорреляционной, автоковариационной) функцией называют математическое ожидание произведения

        (1.12)

Случайные сигналы принято разделять на нестационарные (статистические характеристики зависят от начала отсчета времени) и стационарные. Строго говоря, стационарные случайные сигналы, как и стационарные физические системы, не существуют. Однако, стационарные случайные сигналы являются очень «удобной» идеализацией и в практических задачах играют чрезвычайно большую роль. Стационарными случайные сигналы могут быть в «большей или меньшей степени»: в узком и широком смысле. Стационарность в узком смысле – полная стационарность; в этом случае все плотности вероятности значений случайного сигнала не зависят от положения начала отсчета, т.е. не зависят от одинакового временного сдвига t0 всех точек t1, t2tn вдоль оси времени:

Стационарность в широком смысле предполагает, что на случайный сигнал накладывается наименьшие ограничения. Это сигнал, статистические характеристики которого не зависят от времени, – математическое ожидание постоянно, а корреляционная функция зависит только от аргумента , т.е.

В дальнейшем изложении, если не будет сделано специальных оговорок, речь будет идти о стационарных, в широком смысле, сигналах.

Среди стационарных случайных сигналов выделяют особую группу эргодических сигналов, которые подчиняются эргодическое теореме. Эта теорема гласит о том, что для эргодических сигналов результаты усреднения по множеству реализаций совпадают с их средними значениями на бесконечно большом интервале времени одной единственной реализации. Отсюда следует вывод о том, что для эргодических сигналов всегда можно выбрать такую конечную длину реализации, результаты усреднения по которой, совпадут с выборочной средней оценкой, полученной по заданному числу реализаций. Последнее положение особенно важно в области измерений статистических характеристик случайных сигналов, поскольку измерительная процедура и аппаратурная реализация различных алгоритмов в этом случае значительно упрощаются.

Для эргодических сигналов (далее, при отсутствии специальных оговорок, речь будет идти только о них) справедливы следующие определения.

Математическое ожидание определяется как среднее по времени

   (1.13)

Дисперсия (мощность)

   (1.14)

Корреляционная функция

 (1.15)

Для центрированных сигналов корреляционная функция:

 (1.16)

При аппаратурном определении числовых характеристик случайных сигналов часто пользуются приближенным значением – оценкой (здесь и далее для обозначения оценок используется знак «звездочка»):

   (1.17)

  (1.18)

  (1.19)

или для центрированного сигнала

    (1.20)

Выражение (1.17) определяет оценку математического ожидания – среднего значения случайного сигнала. Наиболее близким к нему, в случае сигнала, заданного N значениями хi, является среднее арифметическое N значений случайного сигнала или выборочное среднее (рис. 1.3)

     (1.21)

Рис 1.3. Оценка математического ожидания случайного сигнала

Выражение (1.18) дает оценку дисперсии , которая характеризует разброс значений хi от математического ожидания. Наиболее близким к нему в случае сигнала, заданного N значениями xi, является среднее арифметическое квадратов N центрированных значений случайного сигнала или выборочная дисперсия

 (1.22)

где - среднеквадратическое отклонение.

Выражение (1.19) дает оценку корреляционной функции. Практически, для нахождения одного ее значения например,  для , по одной реализации случайного сигнала х(t) (рис. 1.4а) нужно взять определенное количество произведений значений х(t), отстоящих друг от друга на величину , и найти их среднее арифметическое, т.е.

а)      б)

Рис. 1.4. Построение корреляционной функции RXX (τ), для значения τ=τ1

Величина  (рис. 1.4б) показывает среднюю силу статистической связи случайных значений сигналов х2 и х1, х4 и х3, х6 и х5 и т.д., отстоящих друг от друга на интервал . Если величина  большая – то и сила связи большая (зная одно значение сигнала можно предсказать другое), если величина  мала – то и статистическая связь этих значений мала (зная одно значение сигнала, например х1, трудно прогнозировать другое – х2). Аналогичным образом могут быть определены значения корреляционной функции для других значений . Для автоматического измерения множества ординат автокорреляционной функций используются специальные приборы – коррелометры.

Из (1.19), (1.20) следует, что является четной функцией, т.е. = При   максимальна и равна оценке дисперсии, т.е. . С увеличением  статистическая связь между двумя значениями случайного сигнала ослабевает и при  .

Размерность корреляционной функции, как следует из (1.19) (1.20) равна квадрату размерности случайного сигнала. Практически это не всегда удобно (например, при сравнении корреляционных функций двух различных сигналов). Поэтому пользуются понятием нормированной (безразмерной) корреляционной функции , получаемой делением корреляционной функции на дисперсию:

    (1.23)

Очевидно, что . При  ; при  . Примерный вид нормированной корреляционной функции показан на рис. 1.5.

Рис. 1.5. Нормированная корреляционная функция

Для случайных сигналов можно найти такой интервал времени , что при значения сигналов x(t) и x(t+τ) можно считать независимыми. Интервал времени , называемый интервалом корреляции, - это значение аргумента τ нормированной корреляционной функции, для которого (и всех больших значений) выполняется неравенство

где ε - любая, сколь угодно малая положительная величина. Практически значение τk определяют, задавая ε значение, равное 0,05.

Интервал корреляции используется при определении шага дискретизации по времени при аналого-цифровом преобразовании и передаче сигналов, при оценке энтропии сигнала, при прогнозировании сигналов, при анализе и синтезе автоматизированных информационных систем.

Эквивалентное число N практически независимых отсчетов, обработанных за время T наблюдения за сигналом (например, при оценке математических ожиданий, корреляционных функций и др.) определяется частным от деления времени наблюдения Т на интервал корреляции , т.е.

     (1.24)

Среди различных случайных процессов выделяют нормальный или гауссов процесс, полностью определяемый заданием математического ожидания и корреляционной функции. Такой процесс имеет место при действии большого числа независимых и непревалирующих факторов. Одномерная плотность вероятностей значений центрированного сигнала имеет вид

Вероятность непопадания случайной величины в зону составляет менее 0,05 (рис. 1.6).

Рис. 1.6. Плотность вероятностей нормального процесса

Практически часто встречаются случаи, когда исследуется не один случайный сигнал x(t), а система, состоящая из двух случайных сигналов x(t) и y(t). Одномерная функция распределения такой системы случайных величин

   (1.25)

Одномерная плотность вероятностей

   (1.26)

При этом в общем случае

(1.27)

где  - одномерная плотность вероятностей  при условии, что значение сигнала y(t) равно y(tj);

 - одномерная плотность вероятностей  при условии, что значение сигнала х(t) равно х(tj).

В частном случае – независимых случайных сигналов х(t) и y(t) одномерная плотность вероятности  не зависит от значения  y(tj) и

   (1.28)

Нахождение одномерной плотностей вероятности (1.27) представляет собой достаточно сложную задачу. Еще более сложную задачу – нахождение двумерной и более плотности вероятности системы двух случайных сигналов. Поэтому на практике используются более простые, хотя и менее информативные, рассмотренные выше числовые характеристики случайных сигналов. Для оценки взаимной корреляции двух случайных сигналов x(t) и y(t) пользуются понятием взаимной корреляционной (кросскорреляционной) функции Rxy(τ), которая характеризует силу статистической связи случайных значений этих сигналов, отстоящих друг от друга на интервал τ.

По аналогии с (1.19), (1.20):

(1.29)

Или для центрированных сигналов x(t) и y(t)

    (1.30)

При t=0 максимальна и равна оценке взаимной дисперсии , т.е. .При  , что означает независимость значений сигналов x(t) и y(t).

Размерность  равна произведению размерностей x(t) и y(t), что неудобно при сравнении взаимных корреляционных функций двух пар случайных сигналов. Кроме того  характеризует не только статистическую связь x(t) и y(t) но и разброс значений этих сигналов относительно их математических ожиданий. Поэтому практически пользуются нормированной (безразмерной) взаимной корреляционной функцией:

   (1.31)

Очевидно, что  (при τ=0  при )

Отметим, что корреляционная функция Rz() случайного сигнала , являющегося суммой (разностью) двух стационарных сигналов x(t) и y(t)

 (1.32)

При этом математическое ожидание суммы (разности) случайных сигналов равно сумме (разности) их математических ожиданий. В случае независимых сигналов (взаимная корреляционная функция равна нулю) корреляционная функция

        (1.33)

При анализе информационных систем часто ставится задача определения периода измерения (дискретизации) Т входного x(t) и выходного y(t) случайного сигналов и определения времени сдвига δt* измерений значений выходного сигнала по отношению к значениям входного сигнала.

Первая часть задачи решается путем нахождения интервалов корреляции  (для x(t)) и  (для y(t)), и выбору из них наибольшего, т.е.          (1.34)

Вторая часть задачи решается путем построения взаимной корреляционной функции  .

Определение величины для одного значения временного сдвига, например для  (рис. 1.7а,б) практически осуществляется в соответствии с (1.29) путем вычисления среднего арифметического произведений

и т.д.

                           а)                                                      б)

Рис. 1.7. Построение взаимной корреляционной функции RXYt)

Аналогичным образом могут быть получены величины  для других значений  и в конечном счете – взаимная корреляционная функция  (рис. 1.7б)) Максимуму этой функции соответствует интересующий нас временной сдвиг, при котором действие значений x(t) (на входе системы) на значения y(t) (на выходе системы) проявляется с наибольшей статистической силой. Значение  дает сдвиг по времени измерения значений y(t) по отношению к измерению значений x(t).

На рис. 1.8 показаны входной x(t) и выходной y(t) случайные сигналы, период дискретизации Т и сдвиг  между измерениями значений выходного и входного сигналов. Измеряемыми (дискретизируемыми) будут значения х1, y1; x2, y2; x3, y3 и т.д. .

При анализе случайных процессов наряду с корреляционными функциями широко применяются спектральные функции, которые характеризуют распределение энергии по частотным составляющим случайного сигнала. Наиболее широкое распространение среди таких функций получила спектральная плотность мощности , которая определяется, как производная по частоте от средней мощности (дисперсии) случайного процесса, определяемой выражением (1.14),

 

Рис 1.8. К определению измеряемых значений входного и выходного сигналов

      (1.35)

Очевидно, что средней мощностью (средней интенсивностью, средним квадратом) процесса будет интеграл от спектральной плотности , т.е.

      (1.36)

Из определения (1.35) ясно, что функция  характеризует плотность, с которой дисперсии отдельных гармонии (частотных составляющих) случайного процесса распределяются по спектру частот. Например, теоретически возможен случайный сигнал с постоянной спектральной плотностью  в неограниченной полосе частот. Такой случайный сигнал называется белым или функциональным шумом. Реально такой сигнал создать нельзя. Поэтому практически ограничивают полосу частот, в пределах которых спектральную плотность можно считать постоянной. Практически считают, что если ширина частотного диапазона, в пределах которого спектральная плотность постоянна, по крайней мере на порядок больше полосы пропускания исследуемой системы, то этот источник для данной системы можно считать эквивалентом источника белого шума.

Спектральная плотность мощности  и корреляционная функция  для стационарного процесса, принимающего только действительные значения, связаны между собой прямым и обратным преобразованием Фурье

       (1.37)

      (1.38)

Спектральная плотность представляет собой четную неотрицательную функцию частоты. Это обстоятельство дает возможность использовать на практике видоизмененные зависимости

      (1.39)

       (1.40)

Из приведенных выше  взаимных преобразований Фурье следует:

   (1.41)

где f - частота, Гц

Аналогично значение спектральной плотности на нулевой частоте определяется как

       (1.42)

Из приведенных формул следует, что для стационарных случайных процессов имеет место равенство

   (1.43)

Одной из общих характеристик случайных сигналов является ширина их энергетического спектра, определяемая отношением

    (1.44)

Практически при моделировании различных стохастических систем средствами вычислительной техники часто возникает необходимость в специальных приборах - генераторах для получения реальных моделей случайных сигналов, имеющих заданные статистические характеристики – одномерную плотность вероятности и спектральную плотность (корреляционную функцию).

В связи с трудностями создания «специализированных» генераторов, воспроизводящих случайные сигналы с заданными статистическими характеристиками, обычно создают генераторы, воспроизводящие «типовые» случайные сигналы, а с помощью линейных и нелинейных преобразований обеспечивают получение случайных сигналов с заданными статистическими характеристиками.

Типовым принято считать случайный сигнал с одномерной плотностью вероятностей, подчиняющейся нормальному закону и со спектральной плотностью, постоянной в некотором диапазоне частот.

Выбор для типового случайного сигнала нормального закона распределения обусловлен тем, что этот закон наиболее широко встречается при анализе реальных систем, его проще всего воспроизводить и преобразовывать. Одномерная плотность вероятностей случайного сигнала и его спектральная плотность взаимосвязаны. При преобразовании одной из этих характеристик обычно изменяется и другая. Одним из наиболее важных исключений из этого правила является прохождение сигнала, имеющего нормальное распределение, через линейный фильтр. При этом закон распределения остается нормальным, а его спектральная плотность изменяется. Это свойство сигнала, имеющего нормальное распределение и используется в случае необходимости изменения его спектральной плотности.

Выбор для типового случайного сигнала характеристики спектральной плотности, постоянной в заданном диапазоне частот (белый шум) также обусловлен тем, что такой случайный сигнал может быть использован при анализе многих реальных систем, удобен при математическом описании стохастических задач; в то же время из такого сигнала могут быть получены случайные сигналы с различными спектральными характеристиками

Таким образом задача получения случайного сигнала Z(t), имеющего заданную спектральную плотность и одномерную плотность вероятности практически сводится к последовательному преобразованию типового сигнала x(t) генератора белого шума в 2 этапа:

1. получение на выходе линейного фильтра случайного сигнала y(t) с заданной спектральной плотностью и нормальным законам распределения;

2. получение на выходе нелинейного преобразователя случайного сигнала Z(t) с заданной одномерной плотностью вероятностей и полученной на 1-м этапе спектральной плотностью (рис.1.9).

Рис. 1.9. Блок-схема формирования случайного сигнала Z(t) с заданными спектральной плотностью и одномерной плотностью вероятностей

1. Для получения случайного сигнала с заданной спектральной плотностью используется зависимость спектральной плотности стационарного случайного сигнала Sвых(ω) на выходе линейной системы от спектральной плотности входного сигнала Sвх(ω) и частотной характеристики Ф() линейной системы

    (1.45)

Отсюда частотная характеристика Ф() фильтра, обеспечивающего требуемую спектральную плотность на выходе Sвых(ω) при известной спектральной плотности Sвх(ω) сигнала на входе фильтра

     (1.46)

Для входного сигнала, представляющего собой белый шум

       (1.47)

Используя соотношения (1.39),(1.40), характеризующие функциональную связь корреляционной функции и спектральной плотности, можно однозначно связать параметры формирующего фильтра с параметрами корреляционной функции. После определения требуемой частотной характеристики Ф() графическим или аналитическим методом и построения по ней передаточной функции фильтра он может быть реализован на различной элементной базе.

2. Преобразование непрерывного стационарного сигнала х(t) с одномерной плотностью вероятностей f(x) в сигнал y(t) с заданной плотностью вероятностей может быть осуществлено с помощью нелинейного преобразования

     (1.48)

где y – однозначная функция х.

Вероятности преобразования обоих сигналов в интервалах dx и dy одинаковы, поэтому

    (1.49)

или

     (1.50)

Чтобы определить зависимость (1.48) необходимо найти такие значения у, которые при каждом значении х будут удовлетворять уравнениям (1.49) или (1.50). Определение зависимости (1.48) может быть выполнено аналитическим и графическим способами.

Корреляционные функции и спектральные плотности широко применяются в информатике при преобразовании, анализе, прогнозировании, идентификации и различении случайных сигналов, а также при анализе и синтезе автоматизированных информационных систем.

1.3 Сигналы непрерывные и дискретные. Преобразование сигналов.

Информация (сообщения и сигналы) может существовать в двух формах: непрерывной и дискретной.

В большинстве случаев информация о протекании того или иного физического процесса вырабатывается соответствующими датчиками в виде сигналов, непрерывно изменяющихся во времени. Такой сигнал можно представить в виде непрерывной функции Х(t) непрерывного аргумента t – функции, которая может принимать любые вещественные значения в интервале (Xmin, Xmax) для любых значений аргумента t в интервале (0, Т) (рис. 1.10а). Множество значений непрерывной функции бесконечно.

Дискретные сообщения и сигналы состоят из конечного множества элементов, поступающих последовательно во времени. Набор элементов (символов) составляет алфавит источника дискретной информации. Обычно элементами дискретных сигналов являются последовательности чисел.

Для передачи информации по каналу связи и ее дальнейшей обработки средствами вычислительной техники непрерывный сигнал преобразуют в дискретный. Это преобразование осуществляется с помощью специальных устройств – преобразователей непрерывных сигналов и может быть выполнено дискретизацией во времени, квантованием по уровню или одновременно дискретизацией во времени и квантованием по уровню. При этом соответственно возможны три разновидности сигналов.

Дискретизация во времени состоит в преобразовании непрерывного сигнала Х(t) непрерывного аргумента t (рис. 1.10а) в непрерывный сигнал Х(ti) дискретного аргумента ti с шагом дискретизации ∆t (рис. 1.10б). Сигнала Х(ti) может принимать любые значения в интервале (Xmin, Xmax), но лишь на дискретном множестве значений аргумента ti (t1, t2, …,tк) в интервале (0, Т). Какой бы малый шаг дискретизации не выбирался, множество значений дискретной функции будет конечно (ограничено). Примером такого сигнала может быть последовательность импульсов, модулированных по амплитуде. Рассмотренная дискретизации является равномерной, т.к. длительность шага дискретизации ∆ti=const  на всем интервале (0, Т). Дискретизация может быть и неравномерной, если длительность шага ∆ti различна (∆ti=var). Методы изменения шага ∆ti могут быть адаптивными, когда он изменяется в зависимости от текущего изменения параметров сигнала, и программируемыми, когда он изменяется в соответствии с заранее установленной программой или оператором, на основе анализа поступающей информации. Очевидно, что каждый вид дискретизации имеет свои преимущества и недостатки. Все же в основном, применяется равномерная дискретизация, так как алгоритмы и аппаратура для ее реализации существенно проще. Однако очевидно, что при этом в случае медленно изменяющихся сигналов возможны «лишние» отсчеты, т.е. избыточность информации.

Квантование по уровню состоит в преобразовании непрерывных значений сигнала Х(ti) в дискретные значения. При этом образуется дискретный сигнал непрерывного аргумента; соседние значения сигнала различаются на элементарную величину ∆Х – квант (рис. 1.10в). Значения, которые может принимать сигнал Х(t), образуют дискретный ряд заранее заданных чисел Х1, Х2,…Хк или уровней 1, 2, 3, 4 и т.д.; значение аргумента t может быть любым в интервале (0,Т). Примером такого сигнала может быть сигнал на выходе проволочного потенциометра, выходное напряжение которого квантуется за счет скачков сопротивления при перемещении движка с витка на виток. Можно отметить, что квантование по уровню может быть и неравномерным, если ∆Х=var. В основном, используется равномерное квантование - ∆Х=const.

Совместное применение операции дискретизации во времени и квантования по уровню позволяет преобразовать непрерывный сигнал Х(t) в дискретный по координатам Х и t (рис. 1.10г). При этом образуется дискретный сигнал дискретного аргумента. Значения сигнала Х(t) и аргумента t образуют дискретные ряды чисел Х1, Х2, …Хк и t1, t2, … tк, заполняющие интервалы (Хminmax) и (0,Т) соответственно.

Первые две из рассмотренных разновидностей принадлежат дискретно-непрерывным сигналам, а третья – дискретному сигналу. Последний называется также цифровым, так как дискретные значения сигнала обычно представляются в цифровой форме.

Рассмотрим некоторые вопросы, связанные с точностью представления непрерывных сигналов Х(t) в результате дискретизации во времени и квантования по уровню.

В результате дискретизации во времени исходный непрерывный сигнал Х(t) представляется конечной последовательностью отдельных  значений Х(ti), измеренных с шагом дискретизации ∆t=ti-ti-1. По значениям Х(ti) можно восстановить исходный сигнал Х(t) с некоторой погрешностью. Функцию Х(t), полученную в результате восстановления (интерполяции) по значениям Х(ti), называют воспроизводящей. При дискретизации возникает вопрос о точности преобразования, которая очевидно зависит от частоты отсчетов функции fk=1/∆ti, т.е. от выбранного шага дискретизации ∆ti. С одной стороны, очевидно, что с уменьшением (увеличением) ∆ti точность преобразования будет расти (уменьшаться) за счет увеличения (уменьшения) количества отсчетов. С другой стороны, очевидно, что нет смысла стремиться всегда брать отсчеты как можно чаще, независимо от вида сигнала Х(t), так как в случае медленно изменяющегося сигнала Х(t) два соседних значения Х(ti) и  Х(ti+1) могут быть настолько связаны (коррелированны)  между собой, что по одному из них Х(ti) можно прогнозировать другое Х(ti+1), т.е. никакой новой информации о сигнале при его последующем восстановлении по отсчетам это не дает. Проблема обеспечении точности дискретизации может быть сформулирована следующим образом: с каким максимальным интервалом необходимо брать отсчеты значений сигнала Х(ti), чтобы не пропустить существенных его изменений или, другими словами, какое минимальное количество отсчетов необходимо брать для обеспечения заданной точности воспроизведения сигнала Х(t). От этого, в конечном счете, зависит количество информации, которую надо хранить и преобразовывать в вычислительном устройстве.

Возможны различные пути решения указанной проблемы.

В общем виде задача о представлении некоторого сигнала, являющегося непрерывной функцией времени, в виде конечного числа значений, взятых для дискретных значений времени, решена В.А. Котельниковым. В двух теоремах В.А. Котельников применительно к системе передачи сообщений по линии связи определил, как следует выбрать частоту дискретизации, обеспечивающую по полученным дискретным данным последующее воспроизведение исходного сигнала с заданной точностью.

Теорема 1. Любую функцию Х(t), имеющую спектр частот от 0 до fm, можно представить суммой функции sinx/x, т.е. рядом:

, (1.51)

где K – целое число,

     – отсчеты мгновенных значений функции Х(t) с шагом дискретизации ∆t,

     ωm = 2πfm, fm – максимальная частота в спектре частот сигнала Х(t), Гц

   ωm – круговая частота.

Из этой теоремы может быть сделан и обратный вывод: любая функция, представленная рядом Котельникова (1.51), имеет спектр, состоящий из частот от 0 до fm.

Теорема 2. Любая функция Х(t), содержащая частоты от 0 до fm, полностью определяется дискретными значениями этой функции, следующими друг за другом с частотой 2fm, т.е. через интервал  сек. Таким образом, передачу непрерывного сигнала Х(t) с ограниченным спектром частот, поступающего от какого-либо датчика, можно свести к передаче последовательности дискретных чисел – значений этого сигнала, взятых через интервал времени 1/2fm; число этих значений равно 2fm. Через полученные значения ординат, при обработке результатов измерений, можно провести единственным способом воспроизводящую непрерывную функцию. Поэтому, проще говоря, нет смысла брать отсчеты чаще, чем интервал 1/2fm, так как никакой новой информации о функции при ее последующем восстановлении по отсчетам это не дает. Следует подчеркнуть, что сказанное справедливо только в том случае, если в получаемой информации действительно отсутствует частоты выше fm.

Теоремы В.А. Котельникова, являющиеся основой современной теории передачи сообщений, очень удобны для исследования всевозможных линий связи, вследствие того, что для этих линий известны частотные характеристики, а спектр передаваемых сигналов ограничен. Другое дело – реальные сигналы, имеющие конечную длительность Т. Для их точного представления, в отличие от моделей сигналов с ограниченным спектром (1.51), необходим спектр, который простирался бы от нуля до бесконечности. Теоретически, чтобы избежать погрешности дискретизации, для такого спектра требуется бесконечно большая частота взятия отсчетов. Практически выбирают такую частоту дискретизации, при которой погрешность не превышает заданной величины В этой связи теорему 2  В.А. Котельникова можно рассматривать как приближенную для функций с неограниченным спектром. На практике частоту отсчетов часто определяют как 2fmk, т.е. интервал между отсчетами

   (1.52)

где fm – максимальная допустимая частота в спектре сигнала Х(t)

k – коэффициент запаса (обычно ). Так как безграничный частотный спектр заменяется ограниченным, вне которого спектральная плотность принимается равной нулю, то погрешность дискретизации будет определяться соотношением составляющих, лежащих внутри спектра и вне его.

Другой, практически легко реализуемый путь определения оптимального интервала дискретизации ∆t непрерывного сигнала Х(t) заключается в построении автокорреляционной функции сигнала и нахождении интервала корреляции τк .Дискретные отсчеты, взятые через интервал ∆tк, будут независимыми и информативными; для их обработки могут быть использованы методы математической статистики.

В случае, когда непрерывный сигнал Х(t) представлен своими дискретными значениями, полученными при равномерной  или неравномерной дискретизации, он может быть заменен некоторой приближающей (аппроксимирующей) зависимостью. В общем случае исходный сигнал может быть аппроксимирован специальной функцией или полиномом, график которого проходит через известные дискретные значения. Наиболее часто используются степенные алгебраические полиномы, но так как обычно исходный сигнал задается в графическом или табличном, а не в аналитическом виде, то проведение аппроксимации полиномами с порядком выше первого затруднительно. При аппроксимации полиномом первого порядка все точки кривой, соответствующие дискретным моментам времени, соединяются отрезками прямых (кусочно-линейная аппроксимация). Алгебраические полиномы удобны для программирования и обработки с помощью вычислительной техники

При квантовании исходного сигнала по уровню возникает погрешность квантования. Так как в процессе преобразования значение сигнала Х(t) обычно отображается ближайшим уровнем квантования Хm, то все значения, кроме кратных Х, представляются с некоторой погрешностью, максимальное значение которой равно 0,5 .

В заключение этого параграфа отметим, что дискретизация и квантование находят широкое применение в преобразователях информации, используемых для связи вычислительных устройств с реальными объектами.

1.4 Модуляция и демодуляция сигналов.

Для обеспечения передачи информационного сигнала по каналам связи, например, радио- или телефонному, используется специальное преобразование сигнала – модуляция. Сущность процесса модуляции состоит в том, что для передачи информационного сигнала используется высокочастотный сигнал (сигнал-переносчик), называемый несущим, который обладает свойством хорошего прохождения (наименьшего затухания) в канале связи, а один из параметров этого несущего сигнала изменяется в соответствии с изменением информационного (модулирующего) сигнала. В результате образуется сигнал, называемый модулированным. Обратное преобразование – переход от модулированного сигнала к информационному называется демодуляцией. Технические средства, реализующие модуляцию и демодуляцию, называются соответственно модулятором и демодулятором и обычно конструктивно выполняются в виде одного устройства – модема.

В зависимости от вида несущего сигнала (гармонический сигнал или последовательность импульсов) различают непрерывную и импульсную модуляцию.

В случае непрерывной модуляции несущим является синусоидальный (гармонический) сигнал:

,

где U0, ω0, φ0 – начальные значения амплитуды, частоты и фазы несущего сигнала соответственно. В зависимости от того, какой из этих трех параметров несущего сигнала изменяется во времени в соответствии с изменением информационного сигнала, различают амплитудную, частотную и фазовую модуляции.

При амплитудной модуляции (АМ) в зависимости от информационного сигнала Х(t) изменяется амплитуда U0 несущего сигнала:

,

где (t) – сигнал, модулированный по амплитуде;

      Х(t) – информационный (модулирующий сигнал), представленный в таком масштабе, что |X(t)|<1;

      m – глубина (коэффициент) модуляции; 0<m<1.

При частотной модуляции (ЧМ) в зависимости от информационного сигнала Х(t) изменяется частота ω0 несущего сигнала:

,

где  (t) – сигнал, модулированный по частоте.

При фазовой модуляции (ФМ) в зависимости от информационного сигнала Х(t) заменяется фаза φ0 несущего сигнала:

где  (t)– сигнал, модулированный по частоте.

На рис. 1.11а, б, в, в качестве иллюстрации показаны соответственно: несущий сигнал, информационный сигнал и сигнал, модулированный по амплитуде.

Отметим, что частотная и фазовая модуляции, в отличие от амплитудной, являются нелинейными преобразованиями относительно информационного сигнала.

 

В случае импульсной модуляции несущим сигналом является последовательность импульсов прямоугольной формы.

,

где δλ – прямоугольная функция;

     К – число импульсов;

     h0, , ω0, φ0 – начальные значения амплитуды (уровня), длительности, частоты и фазы импульсов соответственно.

В зависимости от того, какой из этих четырех параметров несущего сигнала изменяется в соответствии с изменением информационного сигнала различают амплитудно-, широтно-, частотно- и фазо-импульсную модуляции.

При амплитудно-импульсной модуляции (АИМ) в зависимости от информационного сигнала Х(t) изменяется амплитуда импульсов, т.е. h=h0+mX(t).

При широтно-импульсной модуляции в зависимости от информационного сигнала х(t) изменяется длительность импульсов, т.е.

При частотно-импульсной модуляции (ЧИМ) в зависимости от информационного сигнала Х(t) изменяется частота следования импульсов, т.е. .

При фазо-импульсной модуляции (ФИМ) в зависимости от информационного сигнала X(t) изменяется фаза (сдвиг импульсов во времени относительно начальной фазы, которая обычно равна нулю), т.е. .

На рис. 1.12 а, б, в в качестве иллюстрации показаны соответственно: несущий сигнал – последовательность импульсов с параметрами h0, , ω0, φ0; информационный сигнал Х(t) и амплитудно-импульсный модулированный сигнал.

1.5 Передача информации. Меры информации.

Представим, что на вход информационного устройства после преобразований поступает входной сигнал, имеющий вид дискретного множества х1, х2, …, хn. Задача информационного устройства состоит в том, чтобы перевести вектор сигнала на входе Х (х1, х2, …, хn) в соответствующий ему вектор сигнала на выходе Y (y1,y2,…,yn) с высокой достоверностью (без ошибок или с допустимыми ошибками). В процессе передачи сигнал может быть подвергнут различным преобразованиям, меняющим его физические характеристики. Однако информация, содержащаяся в сигнале, должна быть инвариантна ко всем преобразованиям.

Прежде всего нужно определить числовую, количественную меру информации, содержащейся во входном сигнале. Для этого надо знать объем множества возможных состояний сигнала. Принято называть множество возможных символов сигнала алфавитом, отдельный символ – буквой алфавита, комбинацию символов – словом (состоянием, последовательностью символов).

Простейший алфавит имеет два символа: 0 и 1; «+» и « – »; «ДА» и «НЕТ». Если каждое слово состоит из одной буквы, то число возможных слов (состояний, сочетаний) N=21=2 (0 и 1). Если каждое слово состоит из двух букв, то число возможных слов N=22=4. Если алфавит имеет три слова, например, a, b, c, то при выборах по два символа число возможных слов N=32=9 (табл.1.1). При выборах по 3 символа N=33=27 и т.д.

a

b

c

a

aa

ab

ac

b

ba

bb

bc

c

ca

cb

cc

     Таблица 1.1

В общем случае, при числе символов S в алфавите и числе букв n в слове, число возможных слов

N=Sn.       (1.53)

Число N называется комбинаторной мерой информации. Однако величина N неудобна для практической оценки информационной емкости, так как при заданном S количество информации растет экспоненциально с увеличином n - числом букв в слове, причем вклад каждого последующего значения  n нарастает.

Для того, чтобы мера информации имела практическую ценность необходимо, чтобы количество информации I было пропорционально числу n, т.е. должно обеспечиваться соотношение:

I=Kn,           (1.54)

где K– постоянная, не зависящая от S.

Допустим, что имеются две системы символов S1 и S2; им соответствует K1 и K2 такие, что если

,      (1.55)

то и

I=K1n1=K2n2.      (1.56)

Из (1.55) и (1.56) следует, что

 или  .   (1.57)

Это соотношение тождественно, если K=logs, т.е.

K1=logS1,    (1.58)

 K2=logS2.

Подставив (1.58) в (1.54) и используя (1.53) получим:

I=nlogS=logSn=logN,     (1.59)

т.е. в качестве меры информации I может быть принят логарифм числа возможных слов (состояний) N.

Рассмотрим насколько функция I отражает количественную оценку информации. Для этого должны выполняться 3 условия:

  1.  Априори известно, что количество информации системы, имеющей одно состояние, равно 0. Действительно, в соответствии с (1.59) I=I(1)=log1=0, т.е. условие выполняется.
  2.  Допустим, что физическая система состоит  из двух независимых систем и является их объединением.

Обозначим:

N; I – общее число состояний и количество информации всей системы соответственно;

N1; I1 – число состояний и количество информации первой системы;

N2; I2 – число состояний и количество информации второй системы.

Очевидно, что N=N1N2 (одному состоянию первой системы соответствует N2 состояний второй системы и т.д.) Общее количество информации I=I(N)=I(N1N2).Естественно считать, что суммарная информация должна быть равна сумме информации первой и второй системе, т.е. обладать свойством аддитивности, т.е. I(N1N2)=I(N1)+I(N2)

Действительно, в соответствии  с (1.59)

I=I(N)=logN=log(N1N2)=logN1+logN2, т.е. условие выполняется.

  1.  Естественно потребовать, чтобы зависимость количества информации от числа состояний была монотонной, т.е. I(N2) > I(N1) при N2>N1. Действительно в соответствии с (1.59) I(N2)=logN2; I(N1)=logN1,  I(N2)>I(N1) при N2>N1.

Таким образом оценка меры информации I в соответствии с (1.59) удовлетворяет всем трем условиям.

Величина I называется хартлиевской (аддитивной) мерой информации по имени ученого Р.В.Л. Хартли, который, рассматривал процесс получения информации, как выбор одного сообщения (символа) из конечного наперед заданного множества N равновероятных и независимых сообщений, а количество информации I , содержащееся в выбранном сообщении, определял как двоичный логарифм N, т.е.

I=log2N      (1.60)

Отметим, что величина I безразмерна, т.е. не связана с физическими параметрами сигнала, а только с числом его состояний. Так как единица информации (I=1) соответствует числу состояний N=2, то можно считать, что единица информации – это количество информации, которое можно записать (закодировать) с помощью двух символов: 0 и 1.  Поскольку каждый разряд в двоичной системе счисления может принимать значения 0 или 1, т.е. содержит одну единицу информации, было принято название единицы информации – один бит (англ. binary dijit – двоичная цифра; здесь игра слов; «bit» - частица чего-либо, в данном случае информации). Отметим, что количество информации I в случае десятичного логарифма в (1.60) измеряется в дитах, в случае натурального логарифма – в нитах. Следовательно, один бит информации соответствует одному элементарному событию, которое может произойти или не произойти. Такая мера количества информации дает возможность оперировать мерой как числом. Количество информации в соответствии с (1.60) эквивалентно количеству битов - двоичных символов (нулей и единиц). Отсюда можно сделать вывод: чтобы измерить количество любой информации нужно представить ее в виде последовательностей нулей и единиц наиболее рациональным способом (дающим минимум знаков). Длина (количество знаков) последовательности нулей и единиц может служить мерой информации.

Рассмотрим несколько примеров на определение количества информации.

Пример 1. Имеется 8 букв: a, b, c, d, e… Требуется определить количество содержащейся информации. Для этого каждую букву нужно представить в виде последовательности из нулей и единиц. Для представления (кодирования) всех букв нужно иметь восемь последовательностей, причем в каждой будет по три цифры (нулей и единиц). Например a=000; b=001; c=010; d=011 и т.д. Следовательно, количество информации равно трем битам. Этот ответ и дает формула (1.60):  I=log2 8=3 бита.

Аналогичный подход может быть использован для оценки количества информации при выборе одного сообщения из N равноправных (равновероятных) сообщений.

Пример 2. Имеется колода карт, содержащая 32 различные карты. Требуется определить количество информации при выборе одной карты.

Априори естественно предположить, что вероятность выбора некоторой определенной карты одинакова для всех карт колоды. Поэтому для выбора одной карты из колоды имеем оценку количества информации: I=log232=5 бит. Полученная оценка имеет интересную итерпретацию. Количество информации I  характеризует число двоичных («да»-«нет» -ных) вопросов, необходимых для выбора (угадывания) одного сообщения из ряда N равновероятных сообщений.

Следовательно, возвращаясь к данному примеру, для выбора одной карты надо задать 5 двоичных вопросов. Например, для выбора дамы пик такими вопросами будут:

  1.  Карта красной масти?    Ответ «нет» 0.
  2.  Трефы?      Ответ «нет» 0.
  3.  Одна из четырех старших?   Ответ «да» 1.
  4.  Одна из двух старших?    Ответ «нет» 0.
  5.  Дама?       Ответ «да» 1.

Этот выбор можно описать последовательностью из пяти двоичных символов 00101 (0-нет, 1-да). Процесс замены ответов на 1 и 0 называется кодированием, полученная последовательность – кодовым символом. Длина кодового слова соответствует мере информации.

В случае если количество выборов не равно степени двойки получается нецелое число вопросов. Например, если взять колоду из 36 карт,  то может оказаться, что в ряде случаев для выбора определенной карты может понадобиться 5 вопросов,  как и в предыдущем случае, а в ряде случаев – 6 вопросов. Усреднение по случаям и дает получаемую по формуле 1.60, не целую величину меры информации.

Пример 3. На лекции 16 студентов. Лектор запомнил одну фамилию. Сколько надо задать вопросов, чтобы узнать кого он запомнил?

Количество информации I=log2 16=4 бита. Для решения задачи нужно всем студентам присвоить номера от 0 до 15, а затем порядковый номер каждого представить в виде четырехзначной последовательности из нулей и единиц (в двоичной системе). Например, 0-0000; 1-0001; 2-0010; 3-0011 и т.д. Например, для N6-0110. Тогда 4 вопроса, которые нужно задать, будут: верно ли, что в двоичной записи номеров фамилии первая, вторая, третья и четвертая цифры равны 1. Ответ: «нет», «да», «да», «нет», т.е. кодовое слово 0110.

Пример 4. В городе 5 миллионов жителей. Загадали одного. Сколько надо задать вопросов, чтобы отгадать?

Количество информации I=log2 5000000=23 бита (222=4194304; 223=8388608). Ответ: надо задать 23 вопроса.

Следовательно формулу Хартли (1.60) можно интерпретировать и таким образом: если в заданном множестве G, содержащем N элементов, выделили элемент X, о котором известно, что он принадлежит множеству G, то чтобы найти Х, надо получить количество информации, равное I=log2 N.

Мера информации по Хартли (1.60) хотя и позволяет измерять количество информации, содержащейся в сигнале, и используется на практике, но имеет ограниченное применение. Дело в том, что хартлиевская мера оценки информации зависит только от числа N возможных состояний источника информации и не учитывает различной вероятности появления отдельных символов, составляющих эти состояния. Предполагается, что эти вероятности одинаковы, т.е. каждый символ несет одинаковое количество информации.

В общем случае, при посылке N последовательных независимых сигналов, вероятности появления отдельных символов в них могут быть различны, что не может не сказаться на количестве поступающей информации. Так, очевидно, что если один из символов появляется часто и вероятность его появления близка к единице, то такой символ несет мало информации. Столь же мало информативны символы вероятность появления которых близка к нулю.

В связи с этим в теории информации принят более общий – вероятностный (энтропийный) подход к оценке информации. Сущность этого подхода заключается в том, что мера информации, поступающей от символа, зависит от вероятности его появления в сигнале.

Количество информации, поступающей от каждого символа в случае, когда они равновероятны может быть получено из формулы (1.60) и выражается в битах

  (1.61)

где  - вероятность появления каждого из символов, образующих полную группу событий .

Предположим, что в определенные фиксированные моменты времени t,  количество которых равно М, приемник воспринимает сигналы x(t), состоящие из N дискретных символов (значений), причем в каждый момент времени может появиться один из символов, заранее неизвестно какой. Тогда в результате приема М сигналов можно определить частоту (вероятность) появления каждого из N символов, как отношение числа появления этого символа к общему числу М. В результате может быть получена таблица (табл. 1.2), в которой указываются дискретные значения сигнала и вероятности их появления, причем эти значения образуют полную группу событий, т.е.

Xi

X1

X2

X3

X4

…………….

XN

Pi

P1

P2

P3

P4

…………….

PN

.

Табл. 1.2

Предположим, что в результате приема M сигналов ί-тый символ повторяется Кi раз и каждый раз вносит информацию, количество которой оценивается как Ii . Тогда средняя информации, доставляемая в результате одного опыта

,     (1.62)

но количество информации от одного символа Ii связано с вероятностью его появления Рi в соответствии с (1.61)

        (1.63)

Тогда

или

(1.64)

Отношения  представляют собой частоты повторения символов, а следовательно могут быть заменены их вероятностями, т.е. . Поэтому средняя информация в битах

 (1.64)

или        (1.65)

Другими словами, если Ii – частное количество информации от одного символа (1.63), то среднее количество информации Iср равно математическому ожиданию частных количеств информации, т.е.

При равновероятных и независимых символах все P=1/N и формула (1.65) преобразуется в формулу Хартли (1.60).

Формулу (1.65) называют формулой Шеннона (по имени математика К. Шеннона). Величину H называют энтропией, которая является мерой неопределенности. Поясним смысл формулы Шеннона. Для этого рассмотрим серию опытов, в результате каждого из которых имеет место одно из несовместимых событий Х1, Х2, Х3 …ХN, образующих полную группу событий, для которой справедливо

Для примера пусть число событий N=8, каждое событие содержит 3 символа и имеет вероятность Рi (табл. 1.3)

Хi

Номер в двоичной системе сигналов

Рi

Вероятность

в форме

Двоичное кодовое слово

Х1

Х2

Х3

Х4

Х5

Х6

Х7

Х8

000

001

010

011

100

101

110

111

1/4

1/4

1/8

1/16

1/16

1/16

1/16

1/16

2-2

2-2

2-3

2-3

2-4

2-4

2-4

2-4

2

2

3

3

4

4

4

4

00

01

11

100

101

1100

1101

1111

Табл. 1.3

Предположим, что вероятности всех возможных результатов выражаются числами

, где – целые положительные числа. причем

Из таблицы 1.3 видно, что если вероятность какого-либо события равна , то его двоичный номер (двоичное кодовое слово) выразится -значным двоичным числом.

При проведении опытов количество двоичных знаков в числе, соответствующем номеру опыта, будет случайной величиной с возможными средними значениями  и с вероятностями .

Естественно, за меру неопределенности H принять среднее арифметическое значение числа двоичных знаков необходимых, чтобы полностью определить общий результат, т.е. определить величину .

Среднее арифметическое значение случайной величины  равно

или

(1.66)

В нашем примере

Это и есть математическое ожидание числа двоичных знаков на одно сообщение.

Если предположить, что вероятности всех восьми сообщений равны друг другу, т.е. каждое сообщение имеет одинаковое количество информации, то , что соответствует мере информации по Хартли  бита. Таким образом может иметь место экономия в числе передаваемых символов при одной и той же информации.

Понятие информации, как было показано выше, тесно связано с понятием неопределенности. Мера неопределенности есть непрерывная функция вероятностей состояний источника информации. Чем больше вероятность, не получая информацию, правильно угадать состояние системы, тем меньше неопределенность источника, и наоборот, чем меньше априорная вероятность события, тем большее количество информации оно несет, тем больше его неопределенность.

Например, имеются 2 источника (Табл. 1.4а и 1.4б)

Х1

Х2

0,5

0,5

Х1

Х2

0,99

0,01

 а)      б)

    Табл. 1.4

Ясно, что у 2-ого источника неопределенность меньше: он на 99% находится в состоянии Х1; 1-ый источник с вероятностью 0,5 (или на 50%) находится в состоянии Х1.

Таким образом сообщение несет полезную информацию тогда, когда имеется энтропия – неопределенность состояний источника сообщений. Если опыт имеет один исход, то получатель знает исход опыта заранее и не получает никакой информации (неопределенность отсутствует). Если опыт имеет два исхода – имеет место определенная информация и неопределенность. Чем меньше априори вероятность события, тем большее количество информации оно имеет.

Рассмотрим основные свойства энтропии.

  1.  Энтропия равна нулю, т.е. , в том крайнем случае, когда одно из чисел  равно 1, следовательно, остальные равны нулю. Это тот случай когда об опыте или величине все известно заранее, он имеет один исход, и результат не дает новую информацию.
  2.  Энтропия максимальна, т.е. , когда все состояния системы равновероятны, т.е. . При этом ,    (1.67)

т.е. соответствует оценке меры информации по Хартли (1.60), определяющей максимальное количество информации.

Следствия:

  •  для равновероятных состояний энтропия есть монотонно возрастающая функция числа состояний.

Например, имеется 2 источника – табл. 1.5 а и б.

Х1

Х2

Х3

Х10

0,1

0,1

0,1

0,1

Х1

Х2

0,5

0,5

 а)     б)

Табл. 1.5

Для первого источника априори известно 50% исходов, а для второго – 10%, т.е. для первого источника возможности выбора (неопределенность) меньше, чем для второго.

  •  энтропия есть вещественная ограниченная и неотрицательная функция, т.к. ,  
  •  всякое изменение вероятностей P1, P2,….PN в сторону их выравнивания увеличивает энтропию
  •  Энтропия есть математическое ожидание логарифма вероятности, т.е. . Это выражение имеет такой же вид, как и выражение для энтропии, используемое в термодинамике и статистической механике.

Если энтропия источника раскрывается по этапам, то полная энтропия будет суммой  энтропий, полученных на каждом этапе.

Пример. Пусть имеется три события с вероятностями Р1=1/2, Р2=1/3, Р3=1/6. (рис 1.13). Энтропия будет .

Сначала делаем выбор между двумя возможными вероятностями, равными 1/2 и 1/2, а затем для второй возможности выбора делаем выбор между возможностями с вероятностями 2/3 и 1/3 от 1/2. Окончательно имеем те же вероятности, что и прежде.

В этом случае требуется, чтобы

Коэффициент 1/2 во втором члене суммы связан с тем, что выбор на втором этапе происходит только в половине общего числа случаев.

Рассмотрим вопрос о единицах измерения энтропии. В силу безразмерности вероятностей энтропия является безразмерной величиной. Однако для практических целей необходимо ввести единицу ее измерения.

За единицу измерения энтропии может быть принята энтропия любого объекта, для которого

       (1.66)

В общем случае в (1.66) неизвестных три: число возможных состояний N, вероятность Pi, и основание логарифма. Два из этих неизвестных можно задать, а третье получить из (1.66).

В простейшем случае N=2, а P1=P2=1/2, тогда

 Отсюда а=2.

Таким образом единицей измерения энтропии служит энтропия системы с двумя равновероятными состояниями, вычисленная с помощью логарифма, с основанием 2. Это двоичная единица энтропии - «бит».

В случае десятичной системы счисления (основание а=10) единицей измерения энтропии служит энтропия системы с десятью равновероятными состояниями, вычисленная с помощью десятичных логарифмов. Это десятичная единица энтропии – «дит».

Очевидно, что если в системах с единичной энтропией принять закон равных вероятностей , то

и поскольку , то всегда N=a

На практике имеет место применение натурального логарифма с основанием е – в этом случае единица энтропии имеет название «нит».

Так как , то соотношения между единицами:

бита

бита

1дит=3,32бита, 1нит=1,51бита.

Рассмотрим ряд примеров по определению количества информации и энтропии.

Пример 1. Система имеет 64 элемента, один из которых неисправен. Вероятности того, что неисправен любой элемент, одинаковы. Определить количество информации I в сообщении о результате проверки одного элемента.

Каждый элемент есть источник с двумя состояниями: х1-исправен, х2-неисправен. Вероятности состояний показаны в таблице 1.6

   Табл. 1.6

Количество частной информации I в сообщении, что проверяемый элемент исправен, равно

Количество частной информации I в сообщении, что проверяемый элемент неисправен, равно

Количество информации I(x) в сообщении о проверке одного элемента

.

Пример 2. Вероятность выхода из строя некоторого прибора при включении равна Р0. После k-го включения прибор проверяют. Найти k из условия максимума информации, получаемой при проверке.

Вероятность исправной работы после первого включения равна 1-р, после k-го включения Рu=(1-p)k. Вероятность неисправного состояния  после k-го включения .

Максимум информации соответствует равновероятным состояниям, т.е.

или

, откуда

и .

Пример 3. Какова Hmax системы, состояние которой заключается в расположении одной фигуры на одном из 64 полей шахматной доски?

Энтропия равна Hmax, когда события равновероятны. В случае равновероятных состояний в соответствии с (1.67) .

Если фигура чернопольная, то .

Пример 4. Какова Hmax сообщения состоящего из пяти букв при общем количестве 32 буквы в алфавите. Количество возможных состояний в соответствии с (1.53) . , когда состояния равновероятны. По формуле (1.67)

По существу энтропия (неопределенность) есть не что иное, как недостаток информации, или ее отрицательная величина. Иначе говоря, в общем случае количество информации представляет собой убыль энтропии в следствии проведения какого-либо опыта. В случае, когда неопределенность снимается полностью количество информации I равно энтропии, т.е. I=H, причем неопределенность будет наибольшей, когда вероятности событий одинаковы. Это соответствует максимально возможному количеству информации, оцениваемому мерой Хартли:

В общем случае имеет место частичная информация, которая представляет собой разность между начальной Н1 и конечной Н2 энтропией, т.е. I=H1-H2H.

Энтропия источника тесно связана с понятием избыточности информации.

Абсолютная избыточность источника информации  представляет собой разность между максимально возможным количеством информации и энтропией

     (1.68)

Относительная избыточность

      (1.69)

Как видно из (1.68) чем больше энтропия источника Hmax, тем выше его избыточность и наоборот.

Пример. Пусть полная шкала измерений содержит 1000 единиц (квантов), допускаемая погрешность 1% от полной шкалы, т.е. 10 квантов. Определить избыточность.

Всю шкалу достаточно разделить на 50 квантов и .

В случае если для измерения используется непрерывная шкала, т.е. , то при любых начальных значениях допустимой погрешности избыточность максимальна, т.е. .

Избыточность увеличивает надежность передачи информации, так как появляется возможность исправления ошибок, возникающих в канале связи вследствие действия помех, однако избыточность одновременно уменьшает скорость передачи информации.

При передаче через канал связи без помех последовательности дискретных сообщений длительностью Т, скорость передачи информации I по каналу связи.

(бит/с).

Предельное значение скорости передачи информации называется пропускной способностью канала связи без помех . Так как количество информации в сообщениях максимально при равной вероятности состояний, то . Количественно пропускная способность канала связи выражается максимальным количеством двоичных единиц информации, которое данный канал связи может передать за одну секунду.

Для наиболее эффективного использования канала связи необходимо, чтобы скорость передачи информации была как можно ближе к пропускной способности канала связи. Если скорость поступления информации на вход канала связи превышает пропускную способность канала, то по каналу будет передана не вся информация. Основное условие согласования источника информации и канала связи .

Согласование осуществляется путем соответствующего кодирования сообщений. Если ко входу канала подключен источник сообщений с энтропией, равной пропускной способности канала связи, то считается, что источник согласован с каналом. Если энтропия источника меньше пропускной способности канала, что может быть в случае неравновероятности состояний источника, то источник не согласован с каналом, т.е. канал используется не полностью.

Согласование в статистическом смысле достигается с помощью статистического кодирования. Оно позволяет повысить энтропию передаваемых сообщений до величины, которая получается, если символы новой последовательности равновероятны. При этом число символов в последовательности будет сокращено. В результате источник информации согласуется с каналом связи.

При передачи информации через канал с помехами сообщения искажаются и на приемной стороне нет уверенности в том, что принято именно то сообщение, которое передавалось. Следовательно, сообщение недостоверно, вероятность правильности его после приема не равна единице. В этом случае количество получаемой информации уменьшается на величину неопределенности, вносимой помехами, т.е. вычисляется как разность энтропии сообщения до и после приема: , где Н(i) – энтропия источника сообщений;  - энтропия сообщения на приемной стороне.

Таким образом, скорость передачи по каналу связи с помехами

     (1.70)

Пропускной способностью канала с шумами называется максимальная скорость передачи информации при условии, что канал связи без помех согласован с источником информации:

.

Если энтропия источника информации не превышает пропускной способности канала (Нс), то существует код, обеспечивающий передачу информации через канал с помехами со сколь угодно малой частотой ошибок или сколь угодно малой недостоверностью. Пропускная способность канала связи при ограниченной средней мощности аналогового сигнала

,       (1.71)

где Fm – полоса частот канала (Гц); Wc – средняя мощность сигнала; Wш – средняя мощность шумов (равномерный спектр) с нормальным законом распределения амплитуд в полосе частот канала связи.

Следовательно, можно передавать информацию по каналу с помехами без ошибок, если скорость передачи информации меньше пропускной способности канала, определяемой формулой (1.71). Для скорости >c при любой системе кодирования частота ошибок принимает конечное значение, причем оно растет с увеличением значения. Из выражения (1.71) следует, что для канала с весьма высоким уровнем шумов (Wш>>Wc) максимальная скорость передачи близка к нулю.

Подобно тому, как Хартлиевская мера информации используется для выбора одного состояния системы из ряда N равновероятных состояний, энтропия может быть использована для определения минимального количества двоичных вопросов необходимых для выбора (отгадывания) одного состояния системы из ряда N возможных неравновероятных состояний.

Энтропия  только при двух равновероятных значениях Р(0)=Р(1)=1/2, (в других случаях Н меньше одного бита и Н=0 при Р(0)=0, Р(1)=1 или Р(1)=1, Р2=0). Следовательно, при ответе на двоичный вопрос количество информации зависит от того, какова вероятность получить утвердительный ответ, причем Р=1/2 соответствует максимуму информации. Отсюда следует практический вывод: если случайная величина ξ принимает значения с разными вероятностями, то при выборе (отгадывании) вопрос надо задавать так, чтобы вероятность ответа («да» или «нет») как можно меньше отличалась от 0,5; при этом ответ будет содержать наибольшее количество информации.

Предположим, что имеется источник с N возможными состояниями и энтропией Н(x). Требуется определить одно из состояний системы.

Для этого используется принцип последовательного образования равновероятных групп.

Вначале все состояния источника разделяют на две группы Х1 и Х2 (табл. 1.7), где Р - вероятность первой группы состояний. Когда состояния равновероятные, ответ дает максимальную информацию, равную 1 биту.

P

1-P

 Табл. 1.7

Полученный ответ не снимает полностью неопределенность, он только указывает группу, в которой находится состояние источника. Далее выбранную группу снова разделяют на две равновероятные группы. Ответ («Да» или «Нет») в свою очередь дает информацию равную одному биту. Таким образом, после двух ответов получено два бита информации. Для полного устранения неопределенности надо получит количество информации, равное энтропии источника Н [бит].

Следовательно, энтропия определяет минимальное количество вопросов, с помощью которых можно полностью определить состояние системы. Вопросы должны быть поставлены так, чтобы ответы были равновероятны.

Если на поставленный вопрос возможны m ответов, то состояния системы перед очередным вопросом надо делить на m равновероятных групп. В этом случае основание логарифма при определении Н будет равно m.

Пример 1. Имеется 9 шаров, один тяжелее. Есть чашечные весы Определить минимальное число взвешиваний.

Одно взвешивание (один вопрос) дает три равновероятных ответа: «слева», «справа», «не на весах».

,

Следовательно, минимальное число взвешиваний равно 2. (Сначала делим шары на три группы по три шара, определяем нужную тройку, затем из этой тройки по одному шару на весы).

Пример 2. Имеется система трех последовательно соединенных элементов (рис. 1.14)

 Р1=1/2 Р2=1/4  Р3=1/4

   рис. 1.14

Известно, что неисправен один из элементов. Вероятности неисправности каждого элемента показаны на рисунке 1.14. Определить энтропию системы

В соответствии с (1.65)

Следовательно, минимальное число проверок равно 1,5. Разбиваем элементы на 2 группы с равными вероятностями Р=1/2. В первую группу входят первый элемент, во вторую – второй и третий элементы.

При первой проверке проверяем первый элемент: если он неисправен (ответ «да»), то проверка закончена, если он исправен (ответ «нет»), то проверка продолжается во второй группе. При второй проверке проверяется второй элемент: если он неисправен (ответ «да»), то проверка закончена, если он исправен (ответ «нет») – то неисправен третий элемент. Среднее количество проверок (с Р=1/2 неисправен первый элемент – одна проверка; с Р=1/2 – неисправны второй и третий элементы – две проверки):

проверки.

Вопросы для самопроверки

  1.  Какие проблемы рассматривает «теория информации»?
  2.  В чем отличие сигналов детерминированных от случайных?
  3.  В чем отличие стационарных случайных сигналов от нестационарных?
  4.  В чем заключается эргодическая теорема?
  5.  Что представляют собой дискретизация во времени и квантование по уровню непрерывного сигнала?
  6.  В чем заключается теорема В.А. Котельникова?
  7.  В чем заключается процесс модуляции и демодуляции сигнала?
  8.  Поясните смысл оценки меры информации по Р. Хартли.
  9.  Поясните смысл оценки меры информации по К. Шеннону.
  10.  Дайте определение понятию «энтропия». Назовите основные свойства энтропии.
  11.  Что определяет термин «бит» в теории информации и вычислительной технике?
  12.  Поясните смысл единиц измерения энтропии в двоичной и десятичной системах счисления.
  13.  Что такое абсолютная и относительная избыточность источника информации?
  14.  Дайте определения понятиям «скорость передачи информации» и «пропускная способность канала связи».
  15.  Определите пропускную способность канала связи, в котором отношение полезного сигнала к сигналу помехи составляет: 1,2;  0,2. Полоса частот канала 1МГц.

Тестовые задания

  1.  При дискретизации во времени непрерывного сигнала образуется:

а) дискретный сигнал непрерывного аргумента;

б) непрерывный сигнал дискретного аргумента;

в) дискретный сигнал дискретного аргумента.

  1.  Нужная статья находится в одной из восьми книг. Сколько бит информации содержит сообщение о том, где находится статья?

а) 8;  б) 3;   в) 2.

  1.  Каков информационный объем сообщения: «Я изучаю информатику» при условии, что один символ кодируется одним байтом и соседние слова разделены одним пробелом?

а) 160 бит;  б) 20 бит;   в) 18 бит.

  1.  Определить максимальное значение энтропии сообщения, состоящего из четырех букв при общем количестве 32 буквы в алфавите.

а) 20 бит;  б) 32 бита;   в) 128 бит.

  1.  Имеется 81 монета, одна из них отличается по весу от остальных. Имеются чашечные весы. Сколько взвешиваний нужно провести, чтобы определить отличающуюся по весу монету?

а) 4;  б) 43;  в) 6.

Глава 2. Вычислительные машины.

2.1. Классификация и принципы построения.

Средства вычислительной техники можно классифицировать по различным признакам, но главенствующим из них является способ представления информации (сигналов): в непрерывном (аналоговом) или дискретном (цифровом) виде (см. рис.2.1а, г).

Вычислительные машины, в которых используется представление информации в непрерывной форме, называются вычислительными машинами непрерывного действия или аналоговыми вычислительными машинами (АВМ), так как имеет место аналогия в представлении информации в машине и в окружающей нас жизни – обычно информация представляется в непрерывной форме.

Вычислительные машины, в которых используется представление информации в дискретной форме называются вычислительными машинами дискретного действия или цифровыми вычислительными машинами (ЦВМ), так как значение функций в них представляется в виде чисел – в цифровой форме (обычно в двоичной системе счисления).

Поясним принцип действия АВМ. Они состоят из решающих блоков, выполняющих различные математические операции над переменными: умножение на постоянный коэффициент, суммирование, интегрирование, нелинейное преобразование и др. Физическая природа переменной, а, следовательно, и решающих блоков может быть различной (механические, гидравлические, пневматические, электронные) и соответственно различной физической природы могут быть АВМ. Наибольшее распространение получили электронные АВМ, в которых машинной переменной является напряжение постоянного тока.

Основным решающим элементом таких АВМ является операционный усилитель, построенный на базе усилителя постоянного тока с очень большим коэффициентом усиления –Ку (усилитель имеет нечетное число каскадов усиления) и внешних элементах Z1 и Z0 , в общем виде являющихся комплексными сопротивлениями. (рис.2.1 а).

Главная особенность этой схемы состоит в том, что так как Ку очень большая величина, потенциал точки g можно считать близким к нулю (точка g потенциально заземлена) и связь выходного и входного напряжений определяется только внешними элементами Z1 и Z0 . В зависимости от вида сопротивлений Z1 и Z0 схема выполняет различные математические операции.

Так, при Z1 и Z0 чисто активных сопротивлениях, т.е. Z1=R1, Z0=R0 схема принимает вид, показанный на рис.2.1.б. В этом случае

i1=i0

 или       (2.1)

 

 

Рис. 2.1. Операционный усилитель. а) в общем виде; б) схема умножения на постоянный коэффициент и ее условное обозначение; в) схема суммирования и ее условное обозначение; г) схема интегрирования и ее условное обозначение; д) схема интегрирования с одновременным суммированием и ее условное обозначение

Для собственно усилителя   Uвых=-КуUg    (2.2)

Так как Ку величина очень большая (обычно Ку>107) можно считать

 

Тогда из (2.1) следует:

т.е. схема выполняет операцию умножения входного напряжения на постоянный коэффициент

На рис. 2.1 в, г, д показаны соответственно схемы операционного усилителя, выполняющие операции суммирования, интегрирования и суммирования с одновременным интегрированием и их условные обозначения.

АВМ обычно используются для исследования (моделирования) технических систем, описываемых обыкновенными дифференциальными уравнениями.

Рассмотрим пример. Пусть требуется исследовать механическую систему (рис.2.2), состоящую из платформы массой m, демпфера (коэффициент демпфирования ) и пружин (жесткость пружин ).

 В соответствии со вторым законом Ньютона

,

где F – силы, действующие на тело.

Обозначим  и . Тогда

или

      (2.3)

Для решения этого дифференциального уравнения на АВМ необходимо обеспечить на входе интегрирующего блока 1 правую часть уравнения (2.3) (рис.2.3 а). Тогда на выходе блока 1 будет получена переменная –. Если последовательно с блоком 1 подключить блоки 2 и 3 (рис. 2.3 б) и соединить выходы блоков 2 и 3 с соответствующими входами блока 1, получим схему, показанную на рис.2.3 в. Эта схема является электронной моделью исследуемой системы (рис.2.2), описываемой уравнением (2.3) и называется схемой моделирования. Для того, чтобы схема моделирования приняла конкретный вид вводят масштабные коэффициенты по всем переменным, ставя в соответствие максимально допустимое значение напряжения максимальному значению соответствующей переменной, и определяют конкретные значения величин R и C для всех блоков.

Схема моделирования позволяет выяснить влияние различных параметров системы на ее свойства (переходной процесс). Например, по изменению напряжения на выходе блока 2 можно судить о характере движения системы при различных значениях и Cп после ее отклонения от равновесного состояния на величину начального условия Х(0) и выбрать соответствующие параметры и Cп. (рис.2.4).

АВМ имеют ограниченную точность решения, которая зависит от типа и числа решающих элементов, занятых в схеме моделирования. Поэтому АВМ используются для моделирования технических объектов, имеющих определенные допуска на изготовление, где высокая точность решения не обязательна.

Цифровые вычислительные машины принципиально отличаются от аналоговых. В отличие от АВМ в ЦВМ машинной переменной является не модель самой физической величины, а модель ее дискретного числового эквивалента, характеризуемого количеством разрядов. В связи с этим ЦВМ, в отличие от АВМ, могут выполнять преобразования с любой заданной точностью, определяемой числом разрядов и шагом дискретизации. В отличие от аналоговых цифровые преобразования выполняются последовательно, т.е. операция за операцией. Отсюда следует, что быстродействие ЦВМ, хотя и очень высокое, принципиально ограничено. В то же время выполнение операций последовательно позволяет их автоматизировать, и для этого заранее составляется программа последовательности вычислений и ввода/вывода. Наконец, в отличие от АВМ, ЦВМ являются универсальными, так как используют численные методы, позволяющие свести решение разнообразных задач к выполнению простейших арифметических и логических действий, которые ЦВМ и могут выполнять с высокой скоростью и большой точностью. Так, например, задача вычисления определенного интеграла, т.е. площади подынтегральной функции (рис.2.5) на ЦВМ может быть сведена, в простейшем случае - методом прямоугольников, к стандартной задаче вычисления суммы чисел, т.е.

Заканчивая сравнение аналоговых и цифровых вычислительных машин следует указать на существование класса комбинированных (гибридных) вычислительных машин, состоящих из АВМ, ЦВМ и преобразователей аналого-цифрового (АЦП) и цифро-аналогового (ЦАП). При этом аналоговая часть используется обычно для моделирования объекта, а цифровая – для решения уравнений движения объекта, т.е. там где требуется высокая точность решения.

Основу современных цифровых вычислительных машин (компьютеров) образует аппаратура (Hardware), построенная в основном с использованием электронных и электромеханических устройств. Принцип действия компьютеров состоит  в выполнении программ (Software) – четко определенных последовательностей команд, т.е. последовательностей арифметических и логических операций.

Разнообразие современных компьютеров очень велико, но их структуры основаны на общих логических принципах, позволяющих выделить в любом компьютере следующие основные устройства: запоминающее устройство (ЗУ), арифметико-логическое устройство (АЛУ), устройство управления (УУ), устройство ввода и устройство вывода результатов. Эти устройства соединены каналами связи (рис. 2.6). Двойными стрелками показано движение информации, простыми стрелками – передача управляющих сигналов.

Программа и исходные данные, подлежащие обработке, с помощью устройства ввода (например, клавиатуры) поступают в ЗУ, которое состоит из ячеек. Каждая ячейка имеет номер, называемый ее адресом в ЗУ. В каждую ячейку может быть записано или из нее прочитано одно число (данное) или одна команда. Число или команда называется машинным словом. При записи слова в ячейку предыдущее слово автоматически стирается. При прочитывании слова прочитанное по прежнему сохраняется в ячейке с помощью специальной системы регенерации.

Емкость памяти можно выразить количеством содержащихся в ней ячеек. Длина ячейки памяти измеряется количеством битов (двоичных разрядов), т.е. единица измерения памяти совпадает с единицей измерения информации. Биты объединяются в группы по 8 бит, которые называются байтами. Все байты пронумерованы, номер байта называется его адресом.

Для каждого компьютера характерна определенная длина слова – два, четыре или восемь байт. Ячейка памяти может вмещать информацию и другой длины – полуслово, двойное слово. На рис. 2.7 представлено разбитие памяти на слова для четырехбайтовых компьютеров.

байт 0

байт 1

байт 2

байт 3

байт 4

байт 5

байт 6

байт 7

Полуслово

Полуслово

Полуслово

Полуслово

Слово

Слово

Двойное слово

Рис. 2.7

Широко используются и более крупные производные единицы объема памяти: 1 Килобайт = 210 байт = 1024 байт1000 байт; 1 Мегабайт  1000 КБ; 1 Гигабайт  1000 Мегабайт; 1 Терабайт  1000 Гигабайт; 1 Петабайт  1000 Терабайт.

Арифметико-логическое устройство является основным преобразователем цифровой информации и предназначено для выполнения арифметических и логических операций, заданных программой.

Устройство управления обеспечивает взаимодействие всех устройств в процессе выполнения задачи, т.е. автоматический ввод программы, автоматическое выполнение команд программы и автоматическую выдачу результатов.

АЛУ и УУ конструктивно образуют процессор. В составе процессора имеются регистры – специальные электронные схемы памяти, обеспечивающие кратковременное хранение числа или команды. Основным элементом регистра является триггер – электронная схема, способная хранить один двоичный разряд. Регистр представляет собой совокупность триггеров, связанных между собой общей системой управления. Современный процессор выполняется в виде микропроцессора, представляющего собой интегральную схему.

В основу построения большинства компьютеров положены общие принципы, сформулированные в 1945г. американским ученым Джоном фон Нейманом. Рассмотрим два основных принципа.

1. Принцип программного управления. Программа состоит из набора команд, которые выполняются в определенной последовательности автоматически. Выбор команды программы из памяти осуществляется с помощью специально регистра – счетчика команд, содержимое которого увеличивается на единицу после выполнения очередной команды. При этом организуется выборка цепочки команд из последовательно расположенных ячеек памяти, (естественный порядок выполнения команд). В случае необходимости перехода не к следующей, а к другой команде используются команды передачи управления, которые заносят в счетчик команд адрес ячейки памяти, содержащей следующую команду. Выборка команд из памяти прекращается после достижения и выполнения команды «стоп».

2. Принцип однородности памяти. Команды и данные хранятся в одном и том же запоминающем устройстве. Команды и данные по виду не различаются, т.к. представляют собой набор нулей и единиц, но заранее известно, что хранится в этой ячейке памяти – число, текст или команда. Над командами можно выполнять различные действия, как и над данными. Поэтому команда в процессе выполнения программы может видоизменяться.

Рассмотрим более подробно понятие команды. Как уже было сказано, команда – это описание элементарной арифметической или логической операции, которую должен выполнить компьютер. В общем случае команда содержит информацию о коде выполняемой операции, указаний по определению адресов данных (операндов) и указаний по размещению получаемого результата.

В зависимости от количества адресов команды бывают одно-, двух-, трехадресные. Возможны и переменно-адресные команды.

Рассмотрим несколько возможных вариантов команды сложения. При этом вместо цифровых кодов и адресов будем использовать условные коды и условные адреса.

Одноадресная команда Сл  : содержимое ячейки  сложить с содержимым сумматора, а результат сохранить в сумматоре

Сл

Двухадресная команда Сл  , : содержимое ячеек  и  сложить, а результат поместить в ячейку .

Сл

Трехадресная команда Сл   : содержимое ячейки  сложить с содержимым ячейки , а сумму поместить в ячейку

Сл

Совокупность команд, выполняемых данным компьютером, составляет систему команд этого компьютера.

Рассмотрим принцип действия фон-неймановской ЦВМ. Для этого предварительно составим программу для решения простой вычислительной задачи, имеющей чисто методический смысл.

Пусть требуется вычислить арифметическое выражение S=(5+8)*7-2

 Сначала программа составляется в условных адресах.

Пусть , …- адреса ячеек для хранения исходных данных;

 , , - адреса ячеек для хранения промежуточных результатов;

 , … - адреса ячеек для хранения окончательных результатов;

 К+1, К+2,… - адреса ячеек для хранения команд программы

Тогда программа для условной трехадресной ЦВМ будет иметь вид:

NN ячеек для хранения исходных чисел

число

Пояснение

-----

5

8

7

2

----------------------------------------------------

NN ячеек для хранения команд

Команда

КОП

А1

А2

А3

К+1

К+2

К+3

К+4

К+5

Сл

Умн

Выч

Печ

Стоп

1

5+8=13

13*7

S

Составим программу в конкретных адресах

Пусть , тогда , , ,

Пусть , тогда

Пусть , тогда

Пусть , тогда , ,……., .

Пусть операции Сл., Умн., Выч., Печ., Стоп имеют коды 01, 05, 02, 21, 33 соответственно. Тогда программа в конкретных адресах будет иметь вид

0021

5

0022

8

0023

7

0024

2

0031

---------

----------------------------------------------------------------------

0041

---------

------------------------------------

0051

01    0021    0022    0031

0052

05    0031    0023    0031

0053

02    0031    0024    0041

0054

21      1        0041

0055

33

ЦВМ работают в двоичной системе счисления, поэтому адреса ячеек, числа и команды в ЦВМ представлены в двоичной системе счисления, т.е. состоят из определенного количества разрядов (нулей и единиц). Например, команда 0051, т.е. команда, хранящаяся в ячейке 0051 (в двоичной системе 000 000 101 001) имеет вид:

          

Программу в конкретных адресах в двоичной системе счисления называют также программой в машинных кодах или программой на машинном языке.

С появлением в 60-х годах алгоритмических языков высокого уровня пользователи ЦВМ освободились от необходимости составлять программу на машинном языке. Эту операцию выполняет специальная программа – транслятор, также находящаяся в ЗУ и обеспечивающая перевод программы с языка высокого уровня на машинный язык и автоматическое распределение памяти.

Как уже было сказано, команды в ЦВМ выполняются последовательно. Каждая команда также выполняется по шагам, или по тактам. Рассмотрим взаимодействие устройств ЦВМ (см. рис. 2.6) на примере выполнения по тактам команды 0051.

Предварительно в счетчике команд, находящемся в устройстве управления, устанавливается число 0051. Команда выполняется по тактам:

  1.  Содержимое ячейки 0051, т.е. хранящаяся там команда 000 001 000 000 010 001 000 000 010 010 000 000 011 001 поступает на регистр команд устройства управления. Команда разделяется на кодовую и адресную части. Код операции (000 001) поступает в АЛУ для подготовки его к выполнению данной операции (сложение)
  2.  УУ обращается по первому адресу (А1), т.е. к ячейке 0021 и хранящееся в ней число (5) поступает на первый регистр АЛУ.
  3.  УУ обращается по второму адресу (А2), т.е. к ячейке 0022 и хранящиеся в ней число (8) поступает на второй регистр АЛУ
  4.  АЛУ выполняет операцию сложения чисел 5 и 8. Результат находится на сумматоре АЛУ.
  5.  УУ направляет результат по третьему адресу (А3), т.е. в ячейку 0031. В ячейке 0031 будет находиться число 13.

На этом выполнение команды заканчивается. В счетчике команд добавляется 1 и ЦВМ автоматически переходит к выполнению следующей команды – 0052, т.е. к опросу ячейки 0052, извлечению хранящейся в ней команды, которая выполняется по тактам и т.д. до тех пор пока ЦВМ не дойдет до команды “Стоп”

 

2.2. Арифметические основы ЦВМ. Системы счисления

Системой счисления называется метод изображения любых чисел с помощью ограниченного количества цифр. Системы счисления бывают позиционными и непозиционными. В позиционных системах счисления значение каждой цифры числа определяется позицией, которую эта цифра занимает по отношению к запятой. В непозиционных системах счисления это правило не действует. Примером непозиционной системы счисления является римская система счисления. Например, в числах IV, VI, в первом числе 1 имеет значение “-1”, во втором числе “+1”. В дальнейшем будем рассматривать только позиционные системы счисления.

Возьмем какое либо десятичное число, например, 384,5610 и представим его в подробном виде:

Здесь 3,8,4,5,6 – коэффициенты (цифры) числа, а 102, 101, 100, 10-1, 10-2 – веса соответствующих разрядов, образующие геометрическую прогрессию. Знаменатель прогрессии, т.е. частное от деления веса одного разряда к весу соседнего справа разряда, называется основанием системы счисления. Количество цифр равно основанию. В случае десятичной системы счисления основание 10, в системе 10 цифр: 0,1,2,3….9.

Таким образом любое n-разрядное десятичное число N, имеющее m разрядов в целой части, можно представить в виде :

   (2.4)

Для приведенного выше числа n=5, m=3, a1=3, a2=8, a3=4, a4=5, a5=6

Наряду с десятичной возможна система счисления с любым основанием в виде целого числа q. В ЦВМ используются двоичная, восьмеричная, шестнадцатеричная системы счисления.

 По аналогии с (2.4) любое число N в q-ичной системе счисления можно представить в виде:

 Nq=aiqm-1+a2qm-2+…+amq0+am+1q+…+an qm-n,                               (2.5)

где коэффициенты (цифры) ai, могут принимать целые значения от 0 до q-1, причем количество цифр равно q.

Так, в двоичной системе счисления всего 2 цифры: 0 и 1. Например, .

В восьмеричной системе счисления 8 цифр: 0,1,2…7. Например,  

В шестнадцатеричной системе 16 цифр: 0,1,2,…8, 9, A, B, C, D, E, F, где A=10, B=11, C=12, D=13, E=14, F=15. Например,

В таблице 2.1 приведены эквиваленты десятичных цифр в различных системах счисления.

Десятичная цифра

Эквивалент в других системах счисления с основанием

2

3

5

8

16

0

1

2

3

4

5

6

7

8

9

0000

0001

0010

0011

0100

0101

0110

0111

1000

1001

000

001

002

010

011

012

020

021

022

100

00

01

02

03

04

10

11

12

13

14

00

01

02

03

04

05

06

07

10

11

0

1

2

3

4

5

6

7

8

9

Табл. 2.1

2.3.Двоичная система счисления.

Это основная система счисления, используемая в ЦВМ.

Возьмем какое либо двоичное число, например 1011,012 и представим его в подробном виде:

Преимущества двоичной системы счисления, определившие ее использование в ЦВМ:

1) для изображения чисел требуются элементы только с двумя (0 и 1) устойчивыми состояния (триггеры). Эти состояния кодируются потенциально или импульсно. Например, высокий потенциал или наличие импульса соответствует состоянию 1, низкий потенциал или  отсутствие импульса соответствует состоянию 0;

2) упрощается выполнение арифметических операций

таблица сложения                                              таблица умножения

       0+0=0                                                                   0х0=0

       0+1=1                                                                   0х1=0

       1+0=1                                                                   1х0=0

       1+1=10                                                                 1х1=1

Примеры: Сложить числа 101 и 110 101   (510)

+   

110  (610)

 1011           (1110)

Перемножить числа 101 и 101

101  (510)

101 (510)

101

+

 101

11001  (2510)

3) цифры двоичной системы счисления (0 и 1) соответствуют значениям истинности (0 и 1) логических высказываний, что позволяет использовать алгебру логики как при синтезе схем ЦВМ, так и при программировании.

2.4. Перевод чисел из одной системы счисления в другую.

Перевод чисел из q-ичной системы счисления в десятичную при ручном счете для небольших чисел может быть осуществлен по формуле (2.5). Например,

В общем виде задачу перевода числа из одной системы счисления в другую можно представить как задачу определения коэффициентов нового ряда, изображающего число в новой системе счисления. Все действия должны выполняться по правилам исходной системы. После нахождения максимальной степени нового основания, проверяют «вхождение» в заданное число всех степеней нового основания, меньших максимального.

Пример. Перевести десятичное число А=96 в троичную систему счисления.

9610=101203

Рассмотренный в этом примере прием может быть использован только при ручном переводе. Для реализации машинного алгоритма перевода число разделяют на целую и дробную части и каждую часть переводят отдельно.

Перевод целых чисел осуществляется делением на основание новой системы. При этом целое число в новой системе счисления образуется начиная с младшего разряда из остатков, получаемых в результате последовательного деления целого числа на основание новой системы счисления. Процесс деления продолжается до тех пор, пока частное не станет равным нулю или меньшим основания.

Рассмотрим перевод целых чисел на примере перевода из десятичной системы в двоичную.

Пусть дано целое десятичное число А10. Перевести его в двоичную систему счисления – значит представить в виде

Задача заключается в нахождении коэффициентов a0, a1, a2… которые могут принимать значение 0 или1. Разделив целое число А10 на 2, получим новое целое число  и остаток a0, являющийся младшим разрядом двоичного числа.

Разделив новое число А1 на 2 получим новое целое число  и остаток a1, являющийся следующим разрядом двоичного числа и т.д. до тех пор, пока целая часть не станет равной 0.

Пример 1. Перевести десятичное число А=18 в двоичную систему счисления.

Разделив целое число 18 на 2, получим новое целое число А1=9 и остаток а0; разделив целое число А1 на 2 получим новое целое число А2= 4 и второй остаток а2 и т.д. Сказанное можно записать в виде.

А1=9                        a0=0

А2=4                        a1=1

А3=2                        a2=0                                   1810=100102

А4=1                        a3=0

А5=0                        a4=1

Перевод можно выполнить и в столбик

18

2

18

9

2

а

о=0

8

4

2

а

1=1

2

2

2

а

2=0

2

1

4

а

3=0

1810=100102

Пример 2. Перевести десятичное число А=37 в двоичную систему счисления.

37

2

1

18

2

1

9

2

1

4

2

0

2

2

0

1

 3710=1001012

Пример 3. Перевести десятичное число А=249 в восьмеричную систему.

249

8

1

31

8

7

3

24910=3718

Пример 4. Перевести двоичное число А2=1101001 в десятичную систему счисления. Основание 10 изображается в двоичной системе эквивалентом 1010=10102

1101001

1010

1010

1010

1010

001100

-1010

а2=

0001

1010

а1=

0000

а0=0101

11010012=10510.

а0=0101=510, а1=0000=010; а2=0001=110

Перевод правильных дробей осуществляется умножением на основание новой системы исчисления. При этом дробное число в новой системы счисления образуется начиная со старшего разряда из целых частей, получаемых в результате последовательного умножения дробной части числа на основание новой системы счисления. Процесс умножения продолжается до тех пор, пока дробная часть не будет равна нулю (число переводится точно) или пока не получим требуемое число разрядов нового числа (число переводится приближенно).

Рассмотрим перевод правильных дробей на примере перевода из из десятичной системы в двоичную.

Пусть дано дробное десятичное число В10. Перевести его в двоичную систему счисления – значит представить в виде:

 

Задача заключается в нахождении коэффициентов b1, b2, b3 и т.д.

Умножив число B на 2 получим

Умножив дробную часть В1 на 2 получим

                                          и т.д. до тех пор, пока дробная часть не станет равной 0 или не получим требуемое число двоичных разрядов.

Пример 1. Перевести десятичное число B=0,45 в двоичную систему счисления.

2В=0,90                 В1=0,90                     b1=0

1=1,80                В2=0,80                     b2=1  0,4510=0,01112

2=1,60                В3=0,60                     b3=1

3=1,20                В4=0,20                     b4=1

Перевод можно выполнить и  в столбик.

0,

45

*2

b1

=0,

90

*8

b2

=1,

80

*2

b3

=1,

60

*2

b4

=1,

20

*2

b5

=0,

40


  0,4510=0,01112

Пример 2.

Перевести десятичное число В=0,45 в восьмеричную систему счисления

0,

45

*8

3,

60

*8

4,

80

*8

6,

40

  0,4510=0,3468

Пример 3. Перевести двоичное число В=0 1101 в десятичную систему счисления (1010=10102)

0,

1101

1010

в1=8

1000,

0010

1010

в2=1

0001,

0100

1010

в3=2

0010,

1000

1010

в4=5

0101

0000

                  0,11012=0,812510


В случае если исходное число состоит из целой и дробной частей каждая часть переводится отдельно, а затем они суммируются.

Пример 1. Перевести число 35,510 в двоичную систему счисления

Перевод целой части    Перевод дробной части

0,

5

*2

1

0

35

2

1

17

2

1

8

2

0

4

2

0

2

2

0

1

74

8

2

9

8

1

1

  0,510=0,12

        3510=1000112

 В итоге 35,510=100011,12

Пример 2. Перевести число 74,510 в восьмеричную систему счисления

0,

5

*8

4

0

7410=1128     0,510=0,48

В итоге  74,510=112,48

Перевод чисел из восьмеричной системы счисления в двоичную и обратно основан на использовании соотношения 23=8. Поэтому перевод восьмеричного числа в двоичную систему счисления осуществляется путем замены каждой цифры восьмеричного числа ее двоичным эквивалентом - 3-х разрядным двоичным числом (триадой).

Пример. Перевести восьмеричное число А8=341,058 в двоичную систему счисления

341,058

011 100 001, 000 101

341,058=011 100 001,000 1012

Для перевода двоичного числа в восьмеричную систему счисления число нужно разбить на триады влево и вправо от запятой и каждую триаду заменить ее восьмеричным эквивалентом.

Пример. Перевести двоичное число 1101101,1101 в восьмеричную систему счисления

  001 101 101, 110 1002

   1     5     5       6     4  1101101,11012=155,648

Перевод шестнадцатеричного числа в двоичную систему счисления основан на соотношении 24=16 и осуществляется путем представления каждой цифры числа в виде четырех разрядного двоичного числа (тетрады).

Пример. Перевести шестнадцатеричное число 5A7B,6E в двоичную систему счисления

5A7B,6E16

     5A7B,6E16=0101 1010 0111 1011,0110 11102

0101 1010 0111 1011 0110 1110

Для перевода двоичного числа в шестнадцатеричную систему счисления число нужно разбить на тетрады влево и вправо от запятой и каждую тетраду заменить ее шестнадцатеричным эквивалентом.

Пример. Перевести двоичное число 1110101111,01101112 в шестнадцатеричную систему счисления

 3     А     F     6      Е   1110101111,011011102=3AF,6E16

Следует отметить, что помимо систем счисления в ЦВМ используются различные коды, например “2-10” код. Для представления десятичного числа в “2-10” коде каждую цифру числа представляют в виде тетрады.

Пример. Представить число 563,9110 в “2-10” коде

   5      6       3       9       1  10

0101 0110 0011 1001 0001 563,9110=0101 0110 0011,1001 00012-10

2.5. Формы представления числовой информации

Существует две формы представления чисел: естественная или с фиксированной запятой (точкой) и нормальная или с плавающей запятой.

Представление чисел с фиксированной запятой характеризуется тем, что положение запятой фиксируется перед каким-либо разрядом, например, перед старшим разрядом. В этом случае для машинного изображения  числа Х должно выполняться условие

     (2.11)

т.е. числа имеют вид правильных дробей.

В этом смысле число Х будет представлено в виде , где К масштабный коэффициент, величина которого удовлетворяет условию (2.11). Так как числа бывают положительные и отрицательные, то формат (разрядная сетка) разбивается на знаковую часть и поле числа (рис. 2.8а). В знаковую часть записывается информация о знаке. Обычно знак положительного числа «+» изображается символом 0, а знак отрицательного числа «-» изображается символом 1.

Диапазон представимых чисел составляет от  до , где n - количество разрядов без знаковой части

0

1

2

3

4

5

6

7

8

9

10

11

 

1

1

0

1

1

0

1

1

1

1

1

0

0

0

0

0

0

1

1

0

0

0

1

1

0

1

Рис. 2.8. Представление чисел в форме с фиксированной запятой.

Задача выбора масштабного коэффициента К усложняется в связи с необходимостью сохранять соответствие разрядов всех чисел, с которыми оперирует компьютер.

Пусть разрядная сетка ЦВМ содержит 12 двоичных разрядов (рис. 2.8а). Надо определить масштабный коэффициент для чисел  и

Для того, чтобы выполнить условие (2.11) необходимо число, большее по абсолютному значению, записать в виде . Отсюда  (рис.2.8б), что соответствует величине масштабного коэффициента . Число Х2 должно войти в разрядную сетку с сохранением соответствия разрядов, т.е. . Следовательно,  или  (рис. 2.8 в).

Из данного примера видно, что представление чисел в форме с фиксированной запятой может привести к погрешности представления. Так, для числа Х2 абсолютная погрешность представления оценивается величиной части числа, не уместившейся в разрядную сетку, т.е. величиной . В некоторых случаях очень малые числа представляются в машине изображением, называемым машинным нулем. Если в результате какой-либо операции  появится число, по абсолютному значению большее единицы, то возникает переполнение разрядной сетки, что нарушает нормальное функционирование ЦВМ.

Представления чисел в форме с плавающей запятой характеризуется тем, что число представляется в нормальной форме

,      (2.12)

где m – мантисса числа х; р - порядок числа х.

Такое представление числа неоднозначно. Например, десятичное число 485,00 можно записать различными способами:

Для определенности обычно вводят некоторые ограничения. Наиболее распространено и удобно для распространения в ЭВМ ограничение вида

   ,      (2.13)

где q – основание системы счисления. Из этого следует, что мантисса должна быть правильной дробью, первая цифра которой отлична от нуля:  Мантиссу и порядок q –ичного числа принято записывать в системе с основанием q, а само основание в десятичной системе.

Форма представления чисел, для которой справедливо условие (2.13) называется нормализованной. Поскольку в этом случае абсолютное значение мантиссы находится в пределах  где n – количество разрядов изображения мантиссы без знака. Поскольку положение разрядов числа в разрядной сетке машины не постоянно, такую форму представления чисел называют также формой представления с плавающей запятой. Формат машинного изображения числа с плавающей запятой должен содержать знаковые части и поля для числа (мантиссы) и порядка (рис. 2.9а). Кодирование знаков остается таким же, как и при представлении чисел с фиксированной запятой.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

1

1

0

1

1

0

1

1

1

1

0

0

0

1

0

1

0

1

1

0

0

0

0

1

1

1

1

0

0

0

1

1

Рассмотрим пример записи чисел в форме с плавающей запятой. Пусть требуется записать в разрядную сетку ЦВМ двоичные числа . Эти числа следует представить в нормализованном виде, т.е. при выполнении условия (2.13):

Поскольку для изображения порядка выделено пять цифровых разрядов и один разряд для знака, машинные изображения порядков:

машинные изображения их мантисс соответственно:

Представление чисел Х1 и Х2 в разрядной сетке показано на рис. 2.9 б,в соответственно.

В современных ЦВМ используется оба способа представления чисел, каждый из которых имеет свои достоинства и недостатки. Представление чисел в форме с фиксированной запятой хотя и доставляет некоторые трудности при программировании, связанные с введением масштабов, позволяет упростить схемы АЛУ и повысить его быстродействие, так как арифметические операции над числами выполняются без предварительных действий (выравнивания порядков).

Пример. Сложить два двоичных положительных числа 0,0000011 и 0,0000111

0,0000011

+

0,0000111

0,0001010

(310)

(710)

1010
Представление чисел с плавающей запятой, хотя и обеспечивает максимальную точность представления, но усложняет схемы АЛУ, так как при сложении (вычитании) требует подготовительной операции – выравнивания порядков.

Пример. Сложить два двоичных нормализованных положительных числа  и . Разность порядков слагаемых здесь равна трем, поэтому перед сложением мантисса первого числа сдвигается на три разряда вправо

    

    

    

Результат получился нормализованным. В противном случае его бы следовало нормализовать в соответствии с условием (2.13).

2.6. Прямой, обратный и дополнительный коды и их использование при выполнении арифметических операций

В большинстве компьютеров с целью упрощения конструкции АЛУ операция вычитания не используется. Она заменяется операцией сложения путем замены знака вычитаемого на противоположный и прибавления его к уменьшаемому:

В связи с этим для машинного изображения отрицательных чисел используют прямой, дополнительный и обратный коды.

Положительные числа в прямом, обратном и дополнительном кодах изображаются одинаково – двоичными кодами с цифрой 0 в знаковом разряде (см., например, рис. 2.8в).

Отрицательные числа в прямом, обратном и дополнительном кодах имеют разное изображение. Рассмотрим эти коды и их применение на примере отрицательных чисел, представленных в форме с фиксированной запятой.

  1.  Прямой код числа получается, если в знаковый разряд поместить цифру 1, а в разряды числовой части числа  - двоичный код его абсолютной величины.
  2.  Обратный код получается инвертированием (заменой на обратные значения) всех цифр двоичного кода абсолютной величины числа, включая разряд знака: нули заменяются единицами, а единицы – нулями.

Пример. Число: -1

Код модуля числа (в однобайтовом формате) 0,0000001

Обратный код          1,1111110

Представление числа в разрядной сетке показано на рис. 2.10

1

1

1

1

1

1

1

0

Рис. 2.10.

Пример. Число –127

Код модуля числа  0,1111111

Обратный код числа 1,0000000. Представление числа в обратном коде показано на рис. 2.11

1

0

0

0

0

0

0

0

Рис. 2.11

  1.  Дополнительный код получается образованием обратного кода с последующим прибавлением единицы к его младшему разряду.

Пример. Представление числа –1 в дополнительном коде показано на рис. 2.12

1

1

1

1

1

1

1

1

Рис. 2.12

Представление числа –127 в дополнительном коде показано на рис. 2.13

1

0

0

0

0

0

0

1

Рис. 2.13

Обычно отрицательные десятичные числа при вводе в машину автоматически преобразуются в обратный или дополнительный двоичный код и в таком виде хранятся и участвуют в операциях. При выводе таких чисел из машины происходит обратное преобразование в отрицательные десятичные числа.

Использование различных способов изображения отрицательных чисел в ЦВМ обуславливает целый ряд особенностей выполнения операции алгебраического сложения двоичных чисел.

При сложении обратных кодов чисел Х1 и Х2 имеют место четыре основных и два особых случая.

  1.  Х1>0 и X2>0. При суммировании складываются все разряды, включая разряд знака.

Пример

Десятичная запись  Двоичные коды

0

0000101

+

0

0001001

0

0001110

 (5)

 +

 (9)

         (14)

  1.  Х1>0, X2<0 и |X2|>X1

Пример

Десятичная запись  Двоичные коды

0

0000011

+

1

1110101

1

1111000

   3

       +

 -10

  -7

При переводе обратного кода (обр) в прямой (пр) получим:

  1.  1111000обр=1  0000111пр= -710

  1.  Х1>0, X2<0 и |X2|<X1

Пример

Десятичная запись  Двоичные коды

0

0001010

+

1

1111100

0

0000110

+1

0

0000111

 10

       +

 -3

  7

Полученный непосредственно сразу неверный результат (число 6) исправляется путем переноса единицы из знакового разряда в младший разряд суммы. При этом получается правильный результат – число 710

  1.  Х1<0 и X2<0

Пример.

Десятичная запись  Двоичные коды

1

1111100

+

1

1111000

1

1110100

+1

1

1110101

  -3

       +

  -7

 -10

Полученный непосредственно сразу неверный результат (обратный код числа –1110) исправляется путем переноса единицы из знакового разряда в младший разряд суммы.  

При выполнении операции может появиться число, старшие разряды которого не помещаются в отведенной для него области памяти – возникает переполнение разрядной сетки формата числа. Рассмотрим два возможных случая переполнения.

  1.  Х1>0 , X2>0 и S=X1+X22n-1, где n – количество разрядов формата числа (для однобайтового формата n=8, 2n-1=27=128)

Пример

Десятичная запись  Двоичные коды

0

1000001

+

0

1100001

1

0100010

 65

       +

 97

 162

Здесь имеет место переполнение разрядной сетки: семи разрядов цифровой части недостаточно для размещения восьмиразрядной суммы (16210=101000102), поэтому старший разряд суммы оказывается в знаковом разряде и знак суммы оказывается несовпадающим со знаком слагаемых, что является признаком переполнения разрядной сетки.

  1.  Х1<0, X2<0 и S=|X1|+|X2|2n-1

Пример

Десятичная запись  Двоичные коды

1

1000000

+

1

0100000

0

1100000

+1

 -63

       +

 -95

 -158

Здесь также знак суммы не совпадает со знаками слагаемых, что является признаком переполнения разрядной сетки.

При сложении дополнительных кодов чисел Х1 и Х2 имеют место те же четыре основных и два особых случая.

1. Х1>0 и X2>0. Аналогично случаю 1 для обратных кодов.

2. Х1>0, X2<0 и |X2|>X1.

Пример.

Десятичная запись Двоичные коды

0

0000011

+

1

1110110

1

1111001

  3

       -

 10

 -7

При переводе дополнительного (доп) кода в прямой (пр) получим:

3. Х1>0, X2<0 и |X2|<Х1

Пример

Десятичная запись Двоичные коды

0

0001010

+

1

1111101

0

0000111

 10

       -

 3

 7

Единица переноса из знакового разряда отбрасывается.

  1.  Х1<0, X2<0

Пример

Десятичная запись Двоичные коды

1

1111101

+

1

1111001

1

1110110

 -3

       +

 -7

 -10

Случаи переполнения разрядной сетки аналогичны случаям переполнения для обратных кодов.

Сравнение использования обратного и дополнительного кодов показывает, что преобразование отрицательного числа в обратный код занимает меньше времени, однако время выполнения сложения в дополнительных кодах меньше, чем в обратных, так как в этом случае отсутствует необходимость переноса единицы из знакового разряда в младший разряд результата.

2.7. Основы алгебры логики.

Алгебра логики – наука, которая занимается логическими функциями, описанием работы и синтезом с их помощью схем различных устройств ЦВМ. Алгебра логики имеет дело с высказываниями. Высказывания могут быть истинными или ложными. Если высказывание истинно, то значение истинности равно 1, если ложно -0. Высказывания могут быть простые и сложные, которые образуются из простых с помощью элементарных логических операций. Простые высказывания обычно называются также логическими переменными, сложные высказывания - логическими функциями.

Основные элементарные логические операции:

  1.  Логическое отрицание. Обозначается чертой над логической переменной. Например  читается “не Х”.

Каждая логическая операция характеризуется таблицей истинности, которая показывает значение функции при всех значениях переменных. В данном случае таблица истинности содержит одну переменную, т.е.

Х

0  1

1  0

Изображение логического элемента “НЕ” на структурной схеме показано на рис. 2.14а.

Рис. 2.14. Изображение основных логических элементов.

а) элемент «НЕ»; б) элемент «ИЛИ»; в) элемент «И»

  1.  Логическое сложение (дизъюнкция). Обозначается значком V. Например Х1VХ2 читается как “Х1 или Х2”.Результаты логического сложения истинен (1) коли хотя бы одна из переменных (Х1 или X2) истинна (1)

Таблица истинности

Х1

Х2

Х1VХ2

0

0

1

1

0

1

0

1

0

1

1

1

Изображение логического элемента “ИЛИ” на структурной схеме показано на рис.2.14 б.

3) Логическое умножение (конъюнкция). Обозначается значком ^. Например Х1^Х2 читается “Х1 и Х2”. Результат логического умножения истинен (1), только тогда, когда обе переменных истинны (1)

Таблица истинности

Х1

Х2

Х12

0

0

1

1

0

1

0

1

0

0

0

1

Изображение логического элемента “И” на структурной схеме показано на рис.2.14в:

Основные законы алгебры логики:

  1.  Переместительный

  

  1.  Сочетательный

 

  1.  Распределительный

 

  1.  Отрицания

  

Справедливость любого закона может быть показана с помощью таблицы истинности.

Покажем справедливость последнего закона

Х1

Х2

0

0

1

1

0

1

0

1

0

0

0

1

1

1

1

0

1

1

0

0

1

0

1

0

1

1

1

0

Из таблицы видно, что при всех сочетаниях значений логических переменных Х1 и Х2 значения логических функций  и  совпадают. Следовательно, эти логические функции тождественны, т.е. закон справедлив.

Основные формулы, используемые при упрощении логических функций

    

     

   

   

Синтез схемы одноразрядного двоичного сумматора с двумя входами (логического полусумматора).

Составим таблицу работы сумматора в соответствии с двоичной таблицей сложения

Х1

Х2

S

P

0

0

1

1

0

1

0

1

0

1

1

0

0

0

0

1

Здесь Х1 и Х2 – входы (слагаемые), S – сумма, P – перенос в следующий (старший) разряд.

Запишем логические функции S и P из условий их истинности:

 

Рис. 2.15. Структурная схема логического полусумматора

Структурная схема логического полусумматора показана на рис. 2.15. Упростим логическую функцию S

Обозначим , тогда

Структурная схема логического полусумматора после упрощения (минимизации) логической функции S, показана на рис.2.16. Эта схема в отличие от предыдущей (рис.2.15) содержит на 2 элемента меньше.


Рис. 2.16. Структурная схема логического полусумматора после

упрощения логической функции S.

На рис. 2.17 показано условное обозначение логического одноразрядного полусумматора.

Рис. 2.17. Условие изображение одноразрядного полусумматора

Схема логического многоразрядного сумматора состоит из ряда одноразрядных сумматоров, у которых, кроме, младшего, имеются 3 входа (2 слагаемых и 1 перенос из предыдущего сумматора). На рис. 2.18 показана схема 4-х разрядного сумматора. Работа сумматора иллюстрируются на примере сложения двоичных чисел Х1=110 и Х2=11. при этом S=1001.

Рис. 2.18. Условное изображение 4-х разрядного сумматора

Вопросы для самоконтроля

  1.  Сформулируйте различия АВМ и ЦВМ.
  2.  Поясните принцип решения обыкновенных дифференциальных уравнений на АВМ.
  3.  Из каких основных устройств состоит ЦВМ?
  4.  Сформулируйте общие принципы построения ЦВМ.
  5.  В чем заключаются принципы программного управления и однородности памяти?
  6.  Что такое команда, система команд?
  7.  Опишите основной цикл процесса обработки команд.
  8.  Что такое позиционная система счисления?
  9.  Сформулируйте правило перевода чисел из одной системы счисления в другую.
  10.  Что такое бит, байт, полуслово, слово, двойное слово?
  11.  Поясните принцип представления чисел в форме с фиксированной запятой, его преимущества и недостатки.
  12.  Поясните принцип представления чисел в форме с плавающей запятой, его преимущества и недостатки.
  13.  Переведите десятичное число 135,656 в двоичную систему счисления с точностью до пяти знаков после запятой.
  14.  Переведите восьмеричное число 345,766 в двоичную систему счисления.
  15.  Сформулируйте правила выполнения операций сложения в разных системах счисления.
  16.  Сформулируйте законы алгебры-логики.
  17.  Как вы понимаете минимизацию логических функций?
  18.  Докажите с помощью таблицы истинности тождественность логических функций .

Тестовые задания

  1.  В какой системе счисления может оказаться записанным число 305,7?

а) в двоичной;   б) в четверичной;  в) в восьмеричной.

  1.  Определите в какой системе счисления справедливо равенство 21+24=100?

а) в пятеричной;  б) в шестеричной;  в) в восьмеричной.

  1.  Запишите двоичные числа в возрастающем порядке: 1101; 1010; 1011; 1001.
  2.  Определите в какой системе счисления десятичное число 59 эквивалентно числу 214:

а) в пятеричной;  б) в шестеричной;  в) в восьмеричной.

  1.  Найдите десятичные представления двоичных чисел, записнных в обратном коде: 1  1101000; 0  1100101; 1  1010101.

Тест по дисциплине

  1.  При квантовании по уровню непрерывного сигнала образуется:

а) дискретный сигнал непрерывного аргумента;

б) непрерывный сигнал дискретного аргумента;

в) дискретный сигнал дискретного аргумента.

  1.  При дискретизации во времени и квантовании по уровню непрерывного сигнала образуется:

а) дискретный сигнал непрерывного аргумента;

б) непрерывный сигнал дискретного аргумента;

в) дискретный сигнал дискретного аргумента.

  1.  Сколько различных символов, закодированных байтами, содержится в сообщении: 1001001100011101000100101110111100010101

а) 10;  б) 20;  в) 40.

  1.  Сколько двоичных последовательностей можно составить из пяти символов?

а) 32;  б) 25;  в) 10.

  1.  Имеются два события. Энтропия максимальна, если:

а) вероятность одного из событий равна нулю;

б) вероятность одного из событий равна единице;

в) события равновероятны.

  1.  Определите в какой системе счисления справедливо равенство 22+44=110?

а) в пятеричной; б) в шестеричной;  в) в восьмеричной

  1.  Расположите следующие числа в порядке возрастания: 7778; 1011111112; 2FF16; 50010.
  2.  Найдите десятичные представления двоичных чисел, записанных в дополнительном коде: 1  1101001; 0  1010101; 1  111001 и запишите их в убывающем порядке.
  3.  Определите в какой системе счисления выполнено сложение

 76

       +

 57

 65

        132

а) в восьмеричной; б) в десятичной; в) в шестнадцатеричной.

  1.  Расположите следующие числа в порядке убывания: 7778; 1011111112; 2FF16; 50010.

Ответы на тесты по главам

По главе 1: 1 б); 2 б); 3 а); 4 а); 5 а).

По главе 2: 1 в); 2 а); 3 1001, 1010, 1011, 1101; 4 а); 5  –23, +26, -42.

Список рекомендуемой литературы

  1.  А.Я. Савельев. Основы информатики. М. Изд. МГТУ им. Н.Э. Баумана. 2009.
  2.  С.В. Симонович и др. Информатика. Издательский дом «Питер». 2010.

PAGE  1


X

+

Xj

Fξ(X,ti)

1

1

ΔX

Xi+1

X

 

+

Xi

fξ(X,ti)

ti

X

X(t)

t

τ1

τ1

X1  X2   X3  X4   X5  X6

X(t)

t

τ1

τ

τ1

Rxx(τ1)

Rxx(τ)

τк

τ

0,05

1

Rxx(τ)

Х

0,05

fξ(X,ti)

y3

y2

y1

X3

X2

X1

Y(t)

X(t)

Y

X

t

t

0

δt

δt1             δt*

Rxy(δt1)

Rxy(δt)

δt1

δt1

δt1

2T

T

0

y3

y2

y1

X3

X2

X1

Y(t)

X(t)

Y

X

t

t

δt*

δt*

δt*

Z(t)

Y(t)

X(t)

Нелинейный

преобразователь

Линейный

фильтр

Генератор

шума

F(xj, ti)

xi

max

X

T

0

t

X

Xmin

Xmax

X

T

0

t

t

X

Xmin

Xmax

X

T

0

t

t

Xmin

Xmax

X

T

0

t

Xmin

X(t)

а)

б)

в)

г)

Рис. 1.10

U

Uo

t

Х

t

UАМ

t

Рис. 1.11 Непрерывная амплитудная модуляция

а)

б)

в)

X

t

б)

UАИМ

t

в)

Рис. 1.12 Амплитудно-импульсная модуляция

U

ho

t

τио

а)

То

1/2

1/6

1/3

P1

P2

P3

a)

1/2

1/2

2/3

1/3

Р1

Р2=1/3

Р3=1/6

б)

Рис. 1.13

1

2

3

УПТ

-Kу

Uвых

Ug

g

Uвх

Z0

Z1

УПТ

-Kу

Uвых=- EMBED Equation.3  Uвх

Ug

g

Uвх

R0

R1

i0

i1

УПТ

-Kу

Uвых= EMBED Equation.3  

Uвх1

R0

R1

Uвх2

Uвых= EMBED Equation.3  

УПТ

-Kу

Uвх

c

R

УПТ

-Kу

Uвых= EMBED Equation.3   EMBED Equation.3  

Uвх1

c

R1

Uвх2

R2

Uвых

-1

Uвх

К

Uвых

-1

Uвх2

К1

Uвх1

К2

-1

Uвых

- EMBED Equation.3  

Uвх

К

Uвых

-1

Uвх2

К1

Uвх1

К2

- EMBED Equation.3  

г)

а)

в)

б)

д)

Рис 2.2

Х(0)

X

Сп

m

х(0)

-1

-1

3

EMBED Equation.3  

-1

2

EMBED Equation.3  

EMBED Equation.3  

Kд/m

cп/m

-1

1

EMBED Equation.3  

-1

-1

3

EMBED Equation.3  

-1

2

EMBED Equation.3  

EMBED Equation.3  

Kд/m

cп/m

-1

1

а)

EMBED Equation.3  

EMBED Equation.3  

EMBED Equation.3  

Kд/m

cп/m

- EMBED Equation.3  

-1

1

Рис. 2.3

в)

б)

x

t

x(0)

Kдп

Kдп

Рис 2.4

x

t

T

t

ti

xi

Рис. 2.5

Рис. 2.6. Общая схема компьютера

Процессор

Программы, данные

Адреса

Результаты

Результаты

Вывод

Команда

Результат

КОП

       УУ

Исходные числа

             АЛУ

Ввод

Программы

ЗУ

Данные

Программы

Программы, данные

а)

Номер разряда

б)

в)

Номер разряда

Знак мантиссы

Поле мантиссы

Знак порядка

Поле порядка

Мантисса

Порядок

а)

б)

 EMBED Equation.3  

[ EMBED Equation.3  ]

в)

 EMBED Equation.3  

 EMBED Equation.3  

Рис. 2.9. Представление чисел в форме с плавающей запятой

Поле числа

Знаковая часть

Дополнительный код числа -1010

Дополнительный код числа -710

перенос отбрасывается

Дополнительный код числа -310

Обратный код числа -1010

Обратный код суммы

Обратный код числа -310

Обратный код числа -310

Обратный код числа -710

Обратный код числа -1010

Переполнение

Обратный код числа -6310

Обратный код числа -9510

Переполнение

Дополнительный код числа -1010

Дополнительный код числа -710

Дополнительный код числа -310

перенос отбрасывается

1

&

Х1VX2

Х1

Х

Х2

Х2

Х1

Х1ΛX2

 EMBED Equation.3  

a)

б)

в)

EMBED Equation.3  

EMBED Equation.3  

P

S

Х1

1

 EMBED Equation.3  

&

&

&

Х2

 EMBED Equation.3  

EMBED Equation.3  

EMBED Equation.3   EMBED Equation.3  

P

S

1

&

EMBED Equation.3  

&

Х2

Х1

        S

        P

n

c

X2

X1

        S

        P

        S

        P

        S

        P

        S

        P

1

0

1

1

1

0

0

0

1

0

1

1

0

0

1

X1

X2

X1

X2

X1

X2

X1

X2

  1.  

 

А также другие работы, которые могут Вас заинтересовать

31870. Здоров’я людини. Здоровий спосіб життя 77.5 KB
  Вважається, що здоров’я – це нормальний стан організму, який характеризується оптимальною саморегуляцією, повною узгодженістю при функціонуванні всіх органів та систем, рівновагою поміж організмом та зовнішнім середовищем при відсутності хворобливих проявів. Тому основною ознакою здоров’я є здатність до значної пристосованості організму до впливів різноманітних чинників зовнішнього
31872. ЭНДОСКОПИЧЕСКАЯ ДИАГНОСТИКА И ЛЕЧЕНИЕ ГАСТРОЭЗОФАГЕАЛЬНОЙ РЕФЛЮКСНОЙ БОЛЕЗНИ 2.34 MB
  Ацидометрия и исследование моторнодвигательной функции пищевода и желудка. Необходимость дальнейшего изучения различных сторон этиопатогенеза данного заболевания не вызывает сомнений так как до конца не определены вопросы диагностики и выбор оптимального метода лечения в связи с чем целесообразным представляется исследование морфофункционального статуса пищевода у больных данным заболеванием при неэффективности проводимого лечения. В доступной зарубежной и отечественной литературе нет единого мнения о причинах способствующих...
31873. Культурологическая семантика названий улиц и их влияние на формирование культурного фона и мировоззрения человека 108 KB
  Синявского весь мир: глава о советском языке в его книге имеет именно такой подзаголовок: Переименованный мир The Renmed World 1 . Оба процесса и переименования и перепереименования несут значительную культурноидеологическую нагрузку и несомненно создают определенный культурноидеологический мир определенную систему ценностей для тех поколений которые приходят в этот мир без груза прошлых названий и соответственно прошлых миров и систем. Отверженные обиженные разочаровавшиеся они поехали за американской мечтой...
31874. Использование трудовых ресурсов в СПК «Новый путь» Шахунского района Нижегородской области 1.66 MB
  Кроме того это объясняется тем что при возрождаемой конкуренции все большее значение приобретает результативность труда все заметнее сказываются на итогах деятельности как потери понесенные вследствие упущений так и выигрыш полученный от реализации резервов роста производительности труда и повышения эффективности производства. Затраты труда на единицу этих продуктов увеличились почти вдвое что связано в основном со снижением продуктивности животных урожайности культур. Увеличение этого продукта и особенно его основной части – вновь...
31875. Багатозначні слова. Пряме й переносне значення слова 36.5 KB
  Пряме й переносне значення слова Тести Варіант 1 1. Лексичне значення слова вивчає: а лексикографія; б лексикологія; в лексика; г лексема. Як називаються значення слова які виникають під впливом різних мовних ситуацій: а прямі; б гіперболічні; в похідні; г полісемічні.
31877. Техническое обоснование разработки компьютерной сети и анализ исходных данных 183 KB
  1 Техническое обоснование разработки компьютерной сети и анализ исходных данных Бухгалтерия и отдел кадров формирует комплексный бухгалтерский отчёт о деятельности предприятия полученной прибыли и произведённых затратах.2 – Распределение РС по комнатам и отделам Номер комнаты Площадь помещения м2 Наименование отдела Наименование пользователей в сети Количество РС шт Количество возможных РС шт 412 84 Главный бухгалтер GlvBuh 1 2 Продолжение таблицы 1.2 Номер комнаты Площадь помещения м2 Наименование отдела...
31878. ЭЛЕКТРОННЫЕ КЛЮЧИ 1.08 MB
  В качестве нелинейных приборов с управляемым сопротивлением в электронных ключах используются полупроводниковые диоды транзисторы фототранзисторы тиристоры оптроны электронные лампы.1 Диодные ключи Цель работы – исследование статических и динамических параметров и характеристик диодных ключей. На рис.1 а показаны типичные статические ВАХ германиевого Gе и кремниевого Si диодов а на рис.