99590

Информация и информатика шпаргалка

Шпаргалка

Информатика, кибернетика и программирование

Понятие информации.Информационные процессы и системы. Качество и количество информации. Уровни передачи информации. Мера информации. Мера информации семантического уровня. Мера информации прагматического уровня. Качество информации. Виды и формы представления информации. Представление информации в цифровых автоматах. Выполнение арифметических операций над целыми числами

Русский

2016-09-25

1.33 MB

0 чел.

Понятие информации

Информационные процессы и системы

Информатика

Качество и количество информации

Уровни передачи информации

Мера информации

Мера информации семантического уровня

Мера информации прагматического уровня

Качество информации

Виды и формы представления информации

Представление информации в цифровых автоматах

Системы счисления (СС)

Непозиционные СС

Позиционные СС

Перевод из одной СС в другую

Перевод целых чисел

Перевод правильных дробей

2, 8 и 16-чная СС

Правила выполнения арифметических операций

Двоично-десятичная СС

Представление числовой информации в ЭВМ

Выполнение арифметических операций над целыми числами

Дополнительный код

Обратный код

Смещенный код и код Грея

Запись вещественного числа в ЭВМ.

Понятие информации.

Вся жизнь человека связана с накоплением и обработкой информации, которую он получает из окружающего мира, используя органы чувств. Как научная категория «информация» представляет собой предмет изучения для самых различны дисциплин: информатика, физика, философия, кибернетика…

Не смотря на это строго научного определения информации пока не существует, а вместо него используют понятие об информации.

Понятие отличается от определения тем, что разные дисциплины в различных областях науки и техники вкладывают в него различный смысл с тем, чтобы оно в наибольшей степени соответствовало предметам и задачам дисциплины.

Имеется много определений понятия информация. С философской – отражение реального мира. В частном или прикладном случае: сведения, объект переработки.

Первоначально смысл слова «информация» трактовался как нечто присущее человеческому сознанию. Знания, сведения, сообщения, известия, передаваемые людьми определенным способом.

Затем смысл слова стал расширяться и обобщаться, и под информацией стали понимать способность отражать одним реальным объектом другие, а сам факт отображения означает присутствие в нем информации об отображаемом объекте, т.е. как только состояние одного объекта находится в соответствии с состоянием с состоянием другого, то значит, что один отражает другой, содержит информацию и о нем.

Например: стрелка спидометра и скорость, напряжение на клеммах тахогенератора и скорость вращения вала двигателя.

Особенностью информации является то, что она проявляется при взаимодействии объектов, причем обмен информацией совершается между теми объектами, которые образуют организованную структуру или систему.

Элементами этой системы могут быть как люди, так и человек-устройство, или два устройства.

Таким образом, понятие «информация» обычно предполагает наличие двух объектов: источника и приемника информации. От источника к приемнику Информация передается в виде сигналов: электрических, свет, звук и другие, которые распространяются в определенной среде.

Сигнал – физический процесс, несущий сообщение или информацию о событии или состоянии объекта наблюдения. Различают аналоговую и дискретную информации.

Аналоговая – непрерывная;

Дискретная – в виде последовательных сигналов.

Из вышесказанного следует:

1: Информация объективна, ибо это свойство материи.

2: Информация проявляется в виде сигналов и лишь при взаимодействии объектов.

3: Одна и та же информация различными получателями может быть интерпретирована по-разному, в зависимости от настроек приемника.

Основные функции информации.

  1. Познавательная. Цель – получение новой информации. Этапы ее реализации: синтез (производство), представление, хранение, восприятие (употребление).
  2. Коммутативная. Функция общения. Реализуется через передачу или распределение информации.
  3. Управленческая. Цель – формировать необходимое или желаемое поведение управляемого объекта или системы. Эта функция непрерывно связана с двумя первыми.

Информационные процессы и системы:

В автоматических (чисто технических) и автоматизированных (человек-машина) информация используется для выработки управляющих воздействий. В этих системах можно выделить этапы прохождения информации, каждый из которых характеризуется определенным действием. Последовательность действий, выполненных с информацией, называетсяинформационным процессом.Системы, реализующие информационные процессы называютсяинформационными системами.

Основные этапы прохождения информации в системах:

  1. Сбор
  2. Подготовка (преобразование)
  3. Передача
  4. Обработка
  5. Хранение
  6. Воспроизведение

Сбор – целенаправленное извлечение и анализ информации об объекте или процессе. Цель – выделить полезную информацию.

Подготовка - например, преобразование аналоговой в цифровую. Результат – получаем сигнал в удобной для передачи форме.

Обработка – преобразование информации средствами информационной техники или человеком. Результат – информация в иных формах, либо содержащая какой-либо конечный результат.

С появлением ЭВМ появилось понятие «данные» и «обработкаданных»

Если поставляемая информация извлекается из какого либо объекта или процесса, а выходная применяется для целенаправленного изменения того же объекта или процесса, причем абонентом, который использует эту информацию для выбора основных управляющих воздействий, является человек, то такая автоматизированная информационная система называетсяавтоматизированной системой управления (АСУ).

Управление и информация – основные понятия кибернетики.

Кибернетика – Наука об общих законах получения, хранения, передачи и обработки информации. Современная кибернетика состоит из ряда разделов, представляющих собой самостоятельные научные направления. Ее основой являются:

  1. Теория информации
  2. Теория алгоритмов
  3. Теория автоматов
  4. Теория управления

Кибернетика разрабатывает общие принципы создания различных систем управления. Основное техническое средство для решения этих задач – ЭВМ. Поэтому появление кибернетики как науки связанно с созданием ЭВМ.

Понятие «Кибернетика» как научный термин ввел французский физик Андре Мари Ампер в первой половинеXIX века. Основоположником кибернетики считается американский математик Ноберт Винер. В 1948 году он опубликовал книгу «Кибернетика, или управление и связь в животном мире и машине».

Основные законы кибернетики:

  1. Всякое управление есть целенаправленный процесс.
  2. Всякое управление есть информационный процесс, который состоит из:
    1. Процессов сбора информации
    2. Процессов обработки информации
    3. Процессов хранения и передачи информации
    1. Всякое управление обычно осуществляется в замкнутом контуре.

Информатика.

Достаточно долго основным средством для обработки и передачи информации был человеческий мозг, язык, слух человека.

Затем появилась письменность. С изобретением электричества (конец 19 века) появились телефон, телеграф, радио. Все это позволило передавать и накапливать информацию в другом виде и большем объеме.

Развитие науки и промышленности (ХХ век), рост объемов поступающей информации привели к тому, что человек оказался не в состоянии воспринимать и перерабатывать все для него предназначенное. Возникла необходимость классифицировать информацию по темам, организовывать ее хранение, обеспечивать доступ и защиту и так далее… Исследования, которые позволили разрешить возникшие проблемы стали называть информатикой. Таким образом,информатика – научная дисциплина, изучающая структуру и общие свойства информации. Достаточно долго информатика являлась базой библиотечного дела.

С появлением ЭВМ появилась новая промышленная отрасль: средства и методы электронной обработки информации. Информация стала товаром. Проведение любого эксперимента связано с получением информации, которую нужно принять, записать, преобразовать к удобному для анализа виду. Затем полученные данные нужно обработать, а результаты представить в удобном для исследования виде (графики, таблицы, чертежи).

Таким образом, мы выделили задачи, которые являются общими для всех наук при обработке информации при помощи ЭВМ. Научным фундаментом для их решения стала новая наукаинформатика. В этом смысле слово «информатика» вновь появилось в научной среде.

Informatique =information +automatique (французский)

Итого,информатика – это отрасль науки, которая изучает структуру и общие свойства научной информации, а так же вопросы, связанные с ее сбором, хранением, поиском, переработкой, распространением и использованием в различных сферах человеческой деятельности. Как комплексная научная дисциплина, информатика связана с:

  1. Философией и психологией (через учение об информации и теорию познания)
  2. Математикой (через теорию математического моделирования, дискретную математику, математическую логику и теорию алгоритмов)
  3. Лингвистикой (через учение о формальных языках и знаковых системах)
  4. Кибернетикой (через теорию информации и теорию управления)
  5. Физикой и химией, электроникой и радиотехникой (через материальную часть ЭВМ и информационных систем).

Количество и качество информации

Уровни передачи информации

При реализации информационных процессов, для передачи информации используются различные знаки или символы естественного или искусственного (формального) языка, позволяющие выразить ее в некоторой форме, называемойсообщением.

Сообщение – форма представления информации в виде последовательности символов, знаков, используемых для ее передачи. Сообщение как совокупность знаков с точки зрения семиотики (наука, которая исследует свойства знаков и знаковых систем) может изучаться на трех уровнях:

  1. Синтаксическом (рассматриваются внутренние свойства сообщений)
  2. Семантическом (внешние свойства) – здесь анализируются отношения между знаками, действиями, качествами, то е рассматривается смысловое содержание сообщения и его отношение к источнику информации.
  3. Прагматическом (внешние свойства) – рассматривается потребительское содержание сообщения и его отношение к получателю.

Проблем уровней передачи информации.

Синтаксический: проблемы касаются создания теоретических основ построения информационных систем с целью повышения их надежности и эффективности использования. Это чисто технические проблемы совершенствования методов передачи сообщений и их материальных носителей (сигналов). Здесь рассматриваются проблемы доставки получателю сообщений, как совокупности знаков, учитывая при этом тип носителя и способ представления информации, скорость передачи и обработки, размерность кодов представления информации, надежность и точность преобразования этих кодов, полностью абстрагируясь от смыслового содержания и его целевого назначения. На синтаксическом уровне обычно информацию называютданными,так как смысловая сторона при этом не имеет значения.

Современная теория информации в основном исследует проблемы именно этого уровня. Здесь есть понятиеколичество информации, которое является мерой частоты употребления знаков, которая никак не отражает смысла передаваемых сообщений.

Теорияинформации – раздел кибернетики, в котором математическими методами изучают способы измерения количества информации, содержащейся в каких-либо сообщениях, и способы передачи информации.

Семантический: проблемы связаны с учетом смысла передаваемой информации. Здесь рассматриваются смысловые связи, выявляется смысл и содержание информации. Эти проблемы достаточно сложны, так как содержание информации больше зависит от получателя, чем от семантики сообщения, представленного на каком-либо языке.

Прагматический: интересуют последствия от получения и использование информации потребителем. Проблема связана с определением ценности и полезности использования информации, при выработке потребителем решения для достижения поставленной цели. Сложность в том, что для различных получателей одна и та же информация может иметь разную ценность.

Мера информации.

Для каждого из трех рассмотренных случаев существуют свои подходы к измерению количества информации и свои меры информации.

Мера информации синтаксического уровня. Так как здесь информация обезличена, нет ее смыслового отношения к объекту, данная мера дает возможность оценки информационных потоков для различных по своей природе объектов: системы связи, системы управления, вычислительные машины и так далее.

Для измерения информации на синтаксическом уровне вводят два параметра данных: 1) Объем данных – «V» –объемный подход

2) Количество информации – «I» –вероятностный (энтропийный) подход

Объемный подход - любое сообщение состоит из совокупности символов данного алфавита. Если принять сообщение из одного символа за единицу, то объём равен количеству символов в этом сообщении. Так как существуют разные алфавиты, то и различны единицы измерения. Двоичные системы:биты, десятичные: диты.

Энтропийный (вероятностный) подход – основан на том, что факт получения информации связан с уменьшением неопределённости (или энтропии) системы. То е количество информации в сообщении определяется как мера уменьшения неопределённости состояния данной системы после получения сообщения. Здесь под неопределенностью определяется, насколько мало известно наблюдателю о данной системе. Получаемая информация снижает энтропию системы. Таким образом, при энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо опыта неопределённости. При этом в качестве меры неопределенности вводится энтропия – «H», кол-во информации:

Напр – априорная энтропия о состоянии исследуемой системы.

Напс – апостериорная энтропия о состоянии исследуемой системы.

Априори – понятие, характеризующее значение до опыта или испытания и не зависимое от него.

Апостериори – происходящее из опыта или испытания.

В случае, когда в ходе испытания имевшееся неопределенность снята, то есть получен конкретный результат, Напс=0, тоIапр.

Рассмотрим в качестве исследуемой системы дискретный источник информации, имеющий конечное множество состояний {ai}.

В теории информации все множество состояний системы называют абстрактным алфавитом (или алфавитом источника сообщения). Отдельные состоянияai называются буквами или символами алфавита. В каждый момент времени система может принять какое-то значение «ai». Различные состояния реализуются вследствие выбора их источника и выбираются они хаотично. В общем случае источник характеризуется всей совокупностью состояний с вероятностью «p» их появлений, составляющими в сумме единицу.

Меру неопределенности выбора состояния источника можно рассматривать и как меру количества информации, получаемой при полном устранении неопределенностей относительно состояния источника. Эта мера должна удовлетворять ряду естественных условий, одним из которых является необходимость монотонного возрастания количества получаемой информации с увеличением возможностей выбора, то есть числаN возможных состояний источника. При этом недопустимые состояния, вероятность которыхpi=0 не должны учитываться, так как они не меняют неопределенности.

Отсюда, казалось бы, что за меру неопределенности можно было бы взять число состоянийN, предположив равновероятность состояний, но это не так.

ПриN=1 неопределенность отсутствует, и такая мера бы давала значение 1, а должен быть 0. Поэтому в качестве меры неопределенности источника с равновероятными состояниями приняли логарифм.

Эта мера была предложена американским учёным Рольфом Хартли в началеXX века. Основание логарифма здесь не имеет принципиального значения и определяет только масштаб или единицу измерения.Биты – основание два.Наты – основаниеe.Диты – основание десять. Так как в основном используется двоичная система, логарифм по основанию два.

Например, для снятия неопределенности в ситуации из двух равновероятных событий нужен один опыт и, следовательно, один бит информации. Четыре равновероятных – 2. Восемь – 3. То есть, количеств информации равно степени, в которую нужно возвести число 2, чтобы получить число равновероятных вариантов выбора.

Но равновероятных событий практически не бывает. Американский ученый Клод Шеннон обобщил понятие меры неопределенностиH на случай, когда энтропия зависит не только от числа состояний, но и от вероятности их появленияPi.

Этоэнтропия дискретного источника, которая представляет собой неопределенность, приходящуюся в среднем на одно состояние. В случае равновероятных состояний, когда , формула Шеннона преобразуется в формулу Хартли. Используя эти две формулы, можно определить избыточностьD источника сообщенийA, которая показывает, насколько рационально применяются символы данного алфавита:

Hmax – максимально возможная энтропия по формуле Хартли, Н(А) – по Шеннону. Суть данной меры заключается в том, что при равновероятном выборе ту же информационную нагрузку на знак можно обеспечить, используя алфавит меньшего объема, чем в случае с неравновероятным выбором. Пример: сравним русский и латинский алфавит. На основании эксперимента определены вероятности использования букв:H(рус)=4.35 бит на символ.H(лат)=4.03 бит на символ. Это по Шеннону.

По Хартли:

Hmax(рус) =log233 = 5 бит на символ

Нmax(лат) =log227 = 4.75 бит на символ

Следовательно,D(рус)=0.13,D(лат)=0.15 неравномерность распределения букв латинского алфавита, чем у источника русского алфавита.

Мера информации семантического уровня.

Для измерения смыслового содержания информации, то есть её количества на семантическом уровне, наибольше распространение получилатезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Действительно, для понимания и использования полученной информации получатель должен обладать определенным запасом знаний. Полное незнание предмета не позволяет извлечь полезную информацию из принятого сообщения. По мере роста знаний по предмету растет и кол-во полезной информации, извлекаемой из сообщения.

Если назвать имеющиеся у получателя знания о данном предмете тезаурусом, то количество информации, содержащееся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса под воздействием данного сообщения.

Тезаурус – совокупность сведений, которой располагает пользователь или система.

Таким образом, количество семантической информации, извлекаемой из поступающих сообщений, зависит от степени подготовленности его тезауруса.

S – смысловое содержание информации.

Sp – тезаурус пользователя.

В случаеS=Sp мы получаем наибольшее кол-во информации

(максимуму соответствует значениеSp)

Таким образом количество семантической информации в сообщений является величиной относительной. Относительной мерой количества семантической информации может служитькоэффициентсодержательностиC.

I – кол-во получаемой информации

Vg – объем информации.

Мера информации прагматического уровня.

Она определяет полезность (ценность) информации для достижения пользователем поставленной цели и является также величиной относительной.

Одним из первых к этой проблеме обратился академик Харкевич, который занимался теорией информации в первой половинеXX века. Он предложил принять за меру ценности информации такое ее количество, которое необходимо для достижения поставленной цели, то есть рассчитать приращение вероятности достижения поставленной целиI=log2P1log2P2=лог по 2 п1 на п2.

Гдеp1 – вероятность достижения после получения информации, аp2 – до получения.

1 случай:p1=1/2,p2=1/2.I=0

2 случай:p1=1/2,p2=1/6,I=-1,58

3 случай:p1=1/2p2=4/6,I=0,42

В примере 2 получена отрицательная ценность информации, которая увеличивает исходную неопределенность и уменьшает вероятность достижения цели. Это –дезинформация.

Качество информации.

Эффективность применения и качество работы любых систем во многом определяются качеством информации, на основе которых вырабатываются управляющие решения.

Выделяютвнутренние и внешние качества информации.

Внутренние –  содержательность. Это свойство присуще собственно информации и сохраняющиеся при переносе в другую систему.

Внешние– защищенность. Оно присуще для определенной системы.

Содержательность – совокупность сведений о конкретном объекте, системе или процессе, которые содержатся в сообщениях и воспринимаются получателем. Она отражает семантическую ёмкость информации и в основном используется для выработки и принятия управляющего воздействия.

Содержательность определяется значимостью икумулятивностью.

Значимость подразделяется наполноту и идентичность.Полнота характеризуется мерой достаточности информации для принятия правильного решения. Эта мера относительная, так как как неполная, так и избыточная информация снижают эффективность принимаемых пользователем решений.Идентичность – заключается в соответствии содержательной информации состоянию объекта. Нарушение идентичности связано с техническим старением информации.

Кумулятивность – способность небольшим объемом информации отображать действительность. Кумулятивность подразделяется наизбирательность и гомоморфизм.Гомоморфизм – свойство содержательной информации, связанное с достаточно полным отражением действительности наименьшим количеством символов.Избирательность то же, что и гомоморфизм, но с учетом квалификации, опыта и других свойств конкретного потребителя.

Защищенность подразделяется насохранность, достоверность и конфиденциальность.Сохранность – свойство информации, которое характеризуется степенью готовности определенных данных к целевому использованию.Достоверность – степень соответствия в пределах заданной точности инфомрации ее истинному значению. Она связана с системой контроля и защиты информации, которые должны обеспечить отсутствие ошибок.Конфиденциальность – характеризуется как достаточностью, так и скрытностью информации. Требуемый уровень конфиденциальности достигается путем дополнительных преобразований информации.

Виды и формы представления информации в информационных системах.

Все многообразие окружающей нас информации можно классифицировать по различным признакам. Например, область возникновения – отражает процессы явления неодушевленной природы. Такую информацию называют элементарной (механической). Процессы животного и растительного мира – биологической. Человеческого общества – социальной. Используемые человеком – личная, массовая, специальная.

Информация может быть как объективно, так и субъективной. Объективная – отражает явления природы. Субъективная - создается людьми и отражает и взгляды на объективные явления.

В автоматизированных информационных системах выделяютструктурную (преобразующую), заключенную в ее элементах управления, алгоритмах, программах переработки;содержательную (специальную, измерительную, научно-техническую), которая извлекается из сообщений или команд. Первая связана с качеством информационных процессов в системе, вторая – как правило, с внешним целевым эффектом. В настоящее время во всех вычислительных системах информация представляется с помощью электрических сигналов. При этом возможно две формы представления:аналоговая и дискретная. Если в аналоговой величины могут принимать любые значения в определенном диапазоне и их количество бесконечно велико, то в дискретной форме величины могут принимать лишь вполне определенные значения, каждая из которых, например, соответствует одной из цифр представляемой величины.

Сиськи

В отличие от непрерывной, количество значений дискретной всегда конечно. Очевидно, что при использовании непрерывной формы представления информации, для создания вычислительной машины потребуется меньшее количество устройств, так как каждая величина представляется одним, а не несколькими сигналами, но такие устройства будут сложнее, так как они должны будут уметь различать значительно большее число состояний сигналов.

Такая форма представления используется, например, ваналоговыхвычислительныхмашинах (АВМ). Эти машины в основном предназначены для решения задач моделирования процессов и систем, анализа и синтеза их работы. Однако из-за сложности технической реализации устройств для выполнения логических операций, длительного их хранения и точного измерения, АВМ не могут эффективно решать задачи, связанные с хранением и обработкой больших объёмов информации, что легко реализуется при использовании цифровой (дискретной) формы представления.

ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ В ЦИФРОВЫХ АВТОМАТАХ.

СИСТЕМЫ СЧИСЛЕНИЯ

Системысчислениясовокупность приемов и правил наименования и обозначения чисел, позволяющих установить взаимно-однозначное соответствие между любым числом и его представлением в виде конечного числа символов. В любой системе счисления выбирается алфавит (совокупность символов, слов или знаков), с помощью которого в результате каких-либо операций можно представить любое количество. Изображение любого количества называетсячислом, а символы алфавита –цифрами, которые должны быть разными, а значение каждого из них должно быть известно.

Системы счисления можно разделить нанепозицинноные ипозиционные

НЕПОЗИЦИОННЫЕ СИСТЕМЫ СЧИСЛЕНИЯ.

Ее примером может являться римская система счисления.

ПОЗИЦИОННЫЕ СИСТЕМЫ СЧИСЛЕНИЯ

В ней значение цифры определяется ее местоположение в изображении числа. Упорядоченный набор символовA0,A1An, используемые для представления любых чисел, называют ееалфавитом, а число символов алфавитаp=n+1 –основаниесистемысчисления (p-ичная система). Основание позиционной системы – количество различных чисел, используемых для отображения чисел. Наиболее употребляемая – десятичная. При записи числа в позиционной системе счисления целая часть от дробной отделяется точкой или запятой и является началом отсчета. За основание системы счисления можно принять любое натуральное число и приP>10 используются латинские буквы.

Запись любого числа в позиционной системе счисления выглядит так:

Ap=anpn+an-1pn-1+…+ao+a-1p-1+…a-mp-m

m,n – число целых и дробных разрядов. Изображение любого числа А вp-ичной системе счисления является последовательность цифр аi.

Отсюда видно, что с уменьшением основания системы счисления уменьшается число используемых цифр, но возрастает кол-во разрядов

35=310510=2В12=438=12000112

Арифметические действия над цифрами в любой позиционной системе счисления производятся по одним и тем же правилам. При этом только нужно пользоваться соответствующими для этих систем таблицами сложения и умножения. В любой позиционной системе счисления с любым основаниемp умножение на числоpm (m - целое) сводится к переносу запятой умножаемого наm разрядов вправо или влево в зависимости от знакаm. Например:

111*21=1110 7*2=14

Системы счисления используют для построения на их основе различных кодов для передачи, хранения и преобразования информации.

Кодсистема условных знаков или символов для представления различной информации. Любому дискретному сообщению можно приписать какой-либо порядковый номер. Измерения аналоговой величины приводит так же к числовому представлению информации. Передача или хранение сообщений при этом сводятся к передаче или хранению чисел, которые можно выразить в какой-либо системе отсчета. Таким образом, будет получен один из кодов основанный на данной системе счисления, и каждому разряду можно поставить в соответствие какой-либо электрический параметр, например, амплитуду сигнала.

P=1235=2B12

P=435=2034

P=235=1000112

Очевидно, что чем больше основание систем счисления, тем меньшее число разрядов требуется для его представления. Но в этом случае существенно повышаются требования к аппаратуре формирования и распознавания сигналов. С точки зрения компромисса между этими показателями оптимальной будет система счисления с основанием 3, и незначительно ей уступают 2-чная и 4-чная. Предпочтение отдается двоичной в силу простоты её физической реализации.

Докажем:

С ростом основания СС и логические элементы вычислительных устройств должны иметь большее число устойчивых состояний. С учетом этого в качестве показателя эффективности может быть выбрано число, равное произведению количества различных символов «q» на количество разрядовN. Введем коэффициент эффективностиc=q*N, который называютпоказателем экономичности системы. Наиболее эффективной будет система, обеспечивающая минимум значения «c». Примем, что каждый разряд числа представлен не одним элементом с «q» устойчивыми состояниями, а «q» элементами, каждый из которых имеет одно устойчивое состояние. Тогда показатель «c» определит условное количество оборудования, которое нужно иметь для представления чисел в данной системе. Максимальное число, которое можно записать вq-чной системе счисления:Amax=qN-1. Следовательно:

Для любой системы:

Будем считать «q» непрерывной величиной (а не дискретной). Значение «с» рассмотрим как функцию от «q». Если за единицу измерения оборудования принять один элемент с одним устойчивым состоянием, до для сравнения двух систем счисления можно ввести относительный показательF, позволяющий сравнить любую систему счисления с двоичной.

Проанализировав функцию на экстремум, получим минимум этой функции.q=2,72

С точки зрения затрат на оборудования наиболее экономичной является СС с основанием 3.

ПЕРЕВОД ИЗ ОДНОЙ СИСТЕМЫ СЧИСЛЕНИЯ В ДРУГУЮ

Пусть известна запись числа А в системе счисленияp.

(переписать понятие Аp формулой в тетради)

Ap=anpn+an-1pn-1+…+a0+a-1p-1+…+a-mp-m

Требуется найти запись этого же числа в системе счисления с основаниемt.

Ограничимся случаем положительных чисел, так как перевод любого числа сводится к переводу его модуля и приписыванию числу нового знака. При переводе изp-чной вd-чную нужно учитывать, средствами какой арифметики будет осуществлен перевод, то есть в какой системе счисления (p илиd –чной) должны быть выполнены все необходимые для перевода операции.

Пусть этот перевод осуществляется средствамиd-чной арифметики. Тогда перевод Аp в Аd выполняется по правилу замещения, которое предусматривает вычисление полинома дляp-ичной системы вd-ичной системе счисления. То есть, для полученияd-ичного изображения п-ичного полинома необходимо все цифрыai  и числоp заменитьd-ичными изображениями и выполнить арифметические операции вd-ичной системе счисления. Чаще всего правило замещения используют для преобразования чисел из любой системы счисления в десятичную.

Конкретизируем это правило. Перевод в десятичную систему числа А, записанного вp-ичной системе счисления сводится к вычислению многочлена средствами десятичной арифметики. При переводе следует придерживаться правила сохранения точности изображения числа в разных системах счисления. Здесь под точностью понимается значение единицы самого младшего разряда, который используется в записи числа. Для перевода Аp в Аd средствамиp-чной арифметики используется правило деления для целой части и умножения для дробной.

Перевод целых чисел

Aр=anpn+…+a0

Аd=bndn+…+b0

Так как Аp = Аd, то можно записать:

Aр =bndn+…+b0

Нам необходимо найти цифрыbi вd –чной системе счисления. Для определенияb0 разделим равенство наb, причем в левой части выражения пользуемся правиламиp-чной арифметики, так как запись числа Аp вp-чной системе известно. Выделим целую и дробную часть от деления

Ap/d = {Ap/d}цел+ {Ap/d}дроб

Дробная часть равна

{Ap/d}дроб = остаток /d

Перепишем правую часть выражения следующим образом

Ap = bndn-1+ bn-1dn-2+ … + b0/ d

Отсюда видно, что остаток от деления будет равен

остаток /d =b0 /db0 является остатком от деления.

Обозначим {Аp/d}цел = Ар*, которое будет равноAp* =bndn-2+bn-1dn-3+ … +b1/d

и применим к этому выражению ту же самую процедуру, в результате чего найдемb1, и так далее. Этот процесс продолжается до тех пор, пока целая часть от деления не станет равной нулю.

{Api}цел = 0

Так как все операции осуществляются в системе счисления с основаниемp, то в этой же системе будут получены искомые коэффициентыbi,поэтому и необходимо записать вd-чной системе счисления.

Правило деления чаще всего используется для перевода целых чисел из десятичной в любую другую систему счисления.

Еще раз сформулируем это правило:Для перевода целого числа Аp изp-чной вd-чную систему необходимо разделить Аp нацело или с остатком на числоd, записанное в той же системе счисления. Затем с неполным частным выполняется та же операция и так далее, пока последнее неполное частное не станет равным нулю. Представлением числа Аp вd-чной системе будет последовательность остатков от деления, изображенныхd-чной цифрой и записанных в порядке, обратном порядку их получения. Пример:

7510{?}16

75/16=4(11)4/16=0(4)7510=4B16

Перевод правильных дробей

В этом случае выражение для Аp и Аd будут выглядеть:

Ap= a-1p-1 + a-2p-2 + … + a-mp-m

Ad= b-1d-1 + b-2d-2 + …+b-md-m

гдеai иbi – цифрыp-чной иd-чной систем.

Приравняем выражения.Ad =Ap =b-1d-1 +b-2d-2 + … +b-md-m

Для определенияb-1 умножим обе части равенства на числоd, при этом в левой части пользуемсяp-чной арифметикой.Ap*d

Выделим в Аp*d целую и дробную часть. Учитывая, чтоbi меньше или равнаd-1 и больше или равна 0, приравняем между собой целые и дробные части. В результате чего получим:

{Ap*d}цел=b-1

К оставшейся правой дробной части применим тот же алгоритм, в результате него найдемb-2, и так далее, пока дробная часть произведения не станет равной нулю или не будет достигнута требуемая точность представления числа вd-чной системе счисления.

Так как все операции выполняются вp-чной системе, то в этой же системе будут найдены коэффициентыbi, поэтому их необходимо будет записатьd-чной цифрой. Чаще всего это правило используется для преобразования правильных дробей из десятичной в любую другую СС. Таким образом, представление дробной части числа Аp вd-чной системе будет последовательность целых частей полученных произведений, записанных в порядке их получения и изображенныхd-чной цифрой. Если требуемая точность перевода числа Аp составляетj знаков после запятой, то предельная абсолютная погрешность равняется выражению 3)

Пример.

Перевести 0.2 в двоичную систему счисления.

0.2*2=0.4 (0)

0.4*2=0.8 (0)

0.8*2=1.6 (1)

0.6*2=1.2 (1)

И так далее.

Если десятичная дробь является точным числом, то в результате перевода в двоичную систему получаем периодическую дробь. (0.0011)2 здесь в скобках указан период дроби.

Перевести 0.36 в 8-чную.

0.36*8=2.88 (2)

0.88*8=7.04 (7)

0.04*8=0.32 (0)

А8=0.270 с заданной точностью.

Особое внимание заслуживает случай перевода изp-чной вd-чную, когда основание связаны равенствомp=dk , где к – положительное число.

Правила перевода:

В исходнойd-чной записи числа переводим изd-чной вp-чную, разряды объединяются вправо и влево от точки в группы длинойk. Если нужно левее старшей и правее младшей значащих цифр добавляем нужное кол-во нулей. И каждая группа  записывается однойp-чной цифрой.

Обратный перевод изp вd: каждая цифра изp-чной заменяется ееd-чным изображением.

(01212112)4 = 199616

2-чная, 8-чная и 16-чная системы счисления.

Именно они используются в ЭВМ, так как имеют ряд преимуществ перед другими системами.Их реализация – иметь устройство с двумя устойчивыми состояниями, что дает возможность использования булевой алгебры для выполнения логических операций над информацией. Так же легко реализуются арифметические операции.

Единственный недостаток – быстрый рост числа разрядов для записи больших чисел. В случае ручного кодирования информации составления программ на машинном языке используют 8-чную и 16-чную систему счисления.

В этих системах числа считаются достаточно легко и требуют соответственно в три (для восьмеричной) и в 4 (для шестнадцатеричной) раза больше разрядов, чем для 2-чной. При этом перевод осуществляется так же достаточно просто.

Правила выполнения арифметических операций.

В 2-чной 8-чной и 16-чной системах такие, как и в 10-чной, только нужно пользоваться своими для каждой системы таблицами сложения и умножения.

Двоично-десятичная система.

Она используется в том случае, когда основная часть операций связана не с обработкой и хранением вводимой информации, а с её вводом и выводом на какие-либо индикаторы с десятичным представлением полученных результатов. Например, калькуляторы, кассовые аппараты. В двоично-десятичной системе десятичные цифры от 0 до 9 представляются как 0000 и 1001, то есть двоичным эквивалентом десяти первых 16-чных цифр.

Преобразование из двоично-десятичной в десятичную систему и обратно выполняется путем прямой замены четырех двоичных цифр одной десятичной. Две двоично-десятичные цифры составляют один байт. Таким образом, с помощью одного байта в двоично-десятичной системе можно представить числа от 0 до 99 (если это рассмотреть как 8-разрядное двоичное число – то диапазон от 0 до 255). Используя один байт для представления каждых двух десятичных цифр можно формировать двоично-десятичные числа с любым требуемым числом десятичных разрядов. Например, 1001 0101 0011 1000 – если его рассматривать как двоичное, то его десятичный эквивалент 38200. Это в несколько раз больше десятичного эквивалента двоично-десятичного числа (9538). Сложение двоично-десятичных чисел, имеющих один десятичный разряд, выполняется так же, как и сложение четырехразрядных двоичных чисел без знака за исключением случая, когда результат превышает 9 (1001). В этом случае необходимо производить коррекцию, которая осуществляется прибавлением к полученному результату двоичного кода числа 6 (0110). Например, 5+9=140101+1001=11101110+0110=101000001 0100

Если первоначальное двоичное сложение или прибавление корректирующего числа приводит к возникновению переноса, то при сложении многоразрядных двоично-десятичных чисел перенос осуществляется в следующий десятичный разряд.

1889+6376=8256

0001 1000 1000 1001 + 0110 0011 0111 0110 = 0111 1011 1111 1111

0111 1011 1111 1111 + 0000 0110 0110 0110 = 1000 0010 0110 0101

Представление числовой информации в ЭВМ

Информация в памяти ЭВМ записывается в форме цифрового двоичного кода. Для этого в ней имеются ячейки памяти и регистры для хранения двоичной информации. Большинство ячеек имеет одинаковую длинуn для храненияn-битной двоичной информации. Бит – один двоичный разряд. Информация, хранящаяся в такой ячейке, называется словом, состоящим из одного байта информации. Ячейки памяти и регистры состоят из элементов памяти, каждый из которых может находиться в одном из двух устойчивых состояний. Например, конденсатор заряжен или разряжен, транзистор открыт или закрыт, высокое или низкое сопротивление элемента, элемент намагничен или размагничен, и так далее. Одно из физических состояний создает высокий уровень выходного сигнала, а второе – низкий. Один из уровней принимаем за 1, а второй за 0 (или наоборот). Память ЭВМ состоит из конечной последовательности слов, а слова – из конечной последовательности битов. Так как объем, представляемый в машине информации, ограничивается ее памятью, то числовая информация представляется с определенной точностью, зависящей от архитектуры памяти данной ЭВМ.

В ЭВМ применяются две формы представления двоичных чисел: естественная (с фиксированной точкой) и нормальная (с плавающей точкой). В форме с фиксированной точкой все числа изображаются последовательностью цифр с постоянным положением этой точки, отделяющей целую часть от дробной. В этом случае разрядная сетка выглядит так:

знак

2m

20

.

2-1

2-n

Первый (старший) бит определяет знак числа. Если в результате выполнения какой-либо операции получится число, выходящее за пределы разрядной сетки – это приводит к ошибке. В современных ЭВМ естественная форма представления чисел используется как вспомогательная и только для целых чисел.

С плавающей точкой каждое число изображается в виде двух групп цифр: мантиссы и порядка, причем абсолютная величина мантиссы должна быть меньше единицы, а порядок – целым числом.

где М – мантисса,s – порядок,p – основание системы счисления.

Выполнение арифметических операций над целыми числами.

Целые числа в ЭВМ могут представлятьсябез знакаи со знаком. Без знака – обычно занимают в памяти ЭВМ один или два байта. В однобайтовом диапазон – от 0 до 255, в двухбайтовом – от 0 до 65535.

Целые числа со знаком обычно занимают один, два или четыре байта. Диапазон: в однобайтовом от -127 до +127, в двухбайтовом  от -32767 +32767.

Применяются три формы кодирования целых чисел со знаком –прямой, обратный и дополнительный коды.Прямойкод – он отличается от двоичного тем, что в нем отводится один, как правило старший разряд отводится под знак, а оставшиеся разряды – для записи значащих цифр. Если знаковый разряд 0 – число положительно. Если 1 – отрицательно. Для прямого кода:

Здесьaзн – значение знакового разряда,n – разрядность кода.

Допустим, есть число 11012

(-1)1*(1*22+0*21+1*20)=5

Дополнительный код. Использование чисел со знаком (использование прямого кода) усложняет структуру ЭВМ, ибо операция сложения двух чисел с разными знаками должна быть заменена операцией вычитания меньшего из большего с последующим присвоением результату знака большей величины. В современных ЭВМ отрицательные числа представляются в виде дополнительного (или обратного) кодов, в результате чего операция вычитания заменяется на обычное сложение, чем существенно упрощается арифметико-логическое устройство машины.

Смысл перевода (на примере десятичных чисел):

Пусть ЭВМ оперирует с двухразрядыми десятичными числами, и нужно сложить два числа. Х1=84,X2= -32. Заменим код отрицательного числа на его дополнение до 100.

Хдоп=100-32=68. Теперь сложим Х1 + Хдоп = 84 + 68 = 152. Учитывая, что ЭВМ работает с двумя десятичными разрядами, конечный результат будет 52. Истинное значение получается потому, что при формировании дополнительного кода (Хдоп) мы сначала прибавляем 100, а затем 100 вычитаем, отбрасывая единицу старшего разряда. Таким образом, дополнение М можно высчитать по формуле:

Гдеp – основание системы счисления,n – величина разрядной сетки,k – отрицательное число.

Дополнение числа можно получить и без вычитания. Перепишем выражение:

Здесь величина (pn– 1) состоит изn цифр (p - 1). Поэтому величину (pn - 1 – к) можно получить путем образования дополнений до (p – 1) для каждой из цифр числа «k» в отдельности, а искомое дополнение получится суммированием этого числа с единицей. Так как в двоичной системе дополнение цифр до единицы соответствует их инверсным значениям, то получается простое правило получения дополнения для двоичных чисел.

  1. Получить инверсию заданного числа ( 0 на 1, 1 на 0 заменить),
  2. Образовать дополнительный код заданного числа путем прибавления 1 к инверсии этого числа.

Проверка правильности результата: Сумма исходного числа и его дополнительного кода должна быть равна 0. Старший бит дополнительного кода так же выполняет функцию знака. При этом положительные числа в дополнительном коде изображаются так же, как и в прямом, с цифрой 0 в старшем разряде. Для дополнительного кода справедливо следующее выражение:

Например, получим десятичную запись отрицательного числа, представленную в дополнительном коде:

10112A10 = 1*(-23) + 0*22 + 1*21 + 1*20 = -5

ОБРАТНЫЙ КОД

Также используется для представления отрицательных чисел. Он получается инвертированием всех цифр двоичного кода абсолютной величины числа (модуля числа). Отметим, что все операции с отрицательными числами выполняются в формате машинного слова. Это значит, что к двоичному числу слева дописываются нули до нужного количества разрядов. Например, для 8-миразрядного машинного слова 00000001: 11111110.  (данное число является модулем числа -1)

Приведем пример к данной формуле:

10102 – обратный код

A10 = 1*(-23+ 1) +[0*22 + 1*21 +0*20] = -5

Для положительных чиселaзн=0, и представление числа полностью совпадает с прямым и дополнительным кодом. Таким образом, положительные числа в прямом, обратном и дополнительном кодах изображаются одинаково, то есть двоичными кодами в нулем в знаковом разряде. Обычно отрицательные десятичные числа при вводе в машину автоматически преобразуются в обратный или дополнительный двоичный код, и в таком виде хранятся и участвуют в различных операциях. При выводе таких чисел происходит обратное преобразование в отрицательные десятичные.

Выполнение арифметических операций (сложение и вычитание)

Как уже отмечали, вместо операции «вычитание» производится сложение обратных или дополнительных кодов.

При сложении двух чиселX иY имеет место четыре основных и два особых случая.

  1. XY > 0

При суммировании складываются все разряды, включая разряд знака.

  1. X > 0  Y < 0   |X|<|Y|

3 + (-10) = (-7) (-10)1110101  00000011+11110101=11111000(обратный код -7)

  1. X > 0  Y < 0   |X|>|Y|

10 + (-3) = 7            (-3)11111100           00001010 + 11111100 = 00000110 + 1 = 00000111

Машина исправляет полученный изначально некорректный результат (6 вместо 7) переносом единицы из знакового разряда в младший разряд суммы.

  1. X < 0  Y < 0

(-3) + (-7) = (-10)               11111100 + 11111000 = 11110100 + 1 = 11110101

Полученный первоначально некорректный результат -11 вместо -10 машина исправляет переносом единицы из знакового разряда в младший разряд суммы. При переводе результата в прямой код биты цифровой части (то е без знаковой) числа инвертируются.

Рассмотрим два случая переполнения.

XY > 0

       65 + 97 = 162        01000001+ 01100001 = (1)0100010

Здесь происходит несовпадение знака суммы и знаков слагаемых.

XY < 0

(-63) + (-95) = (-158)                 11000000 + 10100000 = (0)1100000

Здесь так же знак суммы не совпадает со знаками слагаемых, что свидетельствует о переполнении разрядной сетки.

XY > 0X +Y ≤ 215

X = 1594Y = 17563X+Y=19157

0000 0110 0011 1010 + 0100 0100 1001 1011 = 0100 1010 1101 0101

|X| < |Y|

X = 1594Y = -17563X+Y=-15969

0000 0110 0011 1010 + 1011 1011 0110 0101 = 1100 0001 1001 1111

|X| > |Y|

X = 17536Y = -1594X+Y=15969

0100 0100 1001 1011 + 1111 1001 1100 0110 = 0011 1110 0110 0001

В последнем случае перенос не учитывается!

X Y < 0          |X| + |Y| < 215

X = -1594Y = -17563X+Y=-19157

1111 1001 1100 0110 + 1011 1011 0110 0101 = 1011 0101 0010 1011

Перенос опять же не учитывается!

  1. X>0Y>0   |X|+|Y|>215

X = 17563Y = 19157

0100 0100 1001 1011 + 0100 1010 1101 0101 = 1000 1111 0111 0000

Ответ некорректен ввиду переполнения разрядной сетки. Инвертируем ( +1)

  1. X<0Y<0   |X|+|Y|>215

X = -17563     Y = -19157

1011 1011 0110 0101 + 1011 0101 0010 1011 = 0111 0000 1001 0000

Ответ некорректен ввиду переполнения разрядной сетки.

В 5 и 6 случаях ограниченная разрядность чисел приводит к искажению не только величины, но и знака результата. Это исправляется добавлением к результату (случай 5) или вычитанием из него (случай 6) числа 216.

Для обеспечения корректности вычислений перед суммированием необходимо анализировать знаки слагаемых и результаты. Разные знаки слагаемых или совпадение знаков слагаемых со знаком суммы свидетельствует о том, что результат правильный.

Для контроля за выполнением арифметических операций в процессоре содержатся два индикатора: переноса и переполнения. Каждый индикатор принимает либо 0, либо 1. Таким образом, после завершения арифметической операции, в которой происходит перенос в старший бит, индикатор переполнения принимает значение 1. Нет переноса – значение 0. Аналогично работает индикатор переполнения.

Таким образом, пользователь имеет возможность контролировать правильность выполнения арифметических операций.

СМЕЩЕННЫЙ КОД И КОД ГРЕЯ.

Смещенный код (или двоичный код с избытком) используется для упрощения операций над порядками чисел с плавающей запятой. Он формируется:

  1. Выбирается длина разрядной сеткиn.
  2. Последовательно записываются все возможные кодовые комбинации в обычной двоичной системе счисления.
  3. Кодовая комбинация с единицей в старшем разряде (её значение 2n-1) выбирается для представления числа 0.
  4. Все последующие комбинации с единицей в старшем разряде представляют числа 1, 2, 3 и так далее соответственно, а предыдущие: -1, -2, -3 и так далее.

Представимn=3

№ кодовой комбинации

Код с избытком

Десятичное значение

7

111

3

6

110

2

5

101

1

4

100

0

3

011

-1

2

010

-2

1

001

-3

0

000

-4

Из таблицы видно, что числа 3 и -3 в формате со смещением для 3-х разрядной сетки представляются соответственно 111 и 001. Для 4-х разрядной: 1011 и 0101.

Очевидно, что различия между двоичным кодом с избытком (или смещенным кодом) и двоичным дополнительным кодом состоит в противоположности знаковых битов, а разность значений кодовых комбинаций. Разность значений кодовых комбинаций в обычном двоичном коде и двоичном коде с избытком, например для 3-х и 4-х разрядных сеток, равна 4 и 8. Например, число 7 в обычном двоичном коде: 111, а 111 в коде с избытком соответствуют числу +3. Отсюда 7 – 3 = 4.

Число 1 в обычном коде 001, а 001 в коде с избытком: -3. Отсюда 1 – (-3) = 4.

В связи с этим смещенный код для 3-х разрядной сетки называют двоичным кодом с избытком 4. Для 4-хразрядной – с  избытком 8. Дляn-разрядной сетки: с избытком 2n-1

Смещенный код используется для упрощения операций над порядками чисел с плавающей запятой. Каким образом, будет показано позже.

В случае 8-ми разрядного порядка используется код с избытком 128. При этом порядок принимает значения от -128 до +127. Такое представление позволяет работать с порядками к с целыми числами без знака.

Код Грея используется в различных преобразовательных устройствах. Его цель – разрешить проблемы, связанные с возможностью одновременного изменения нескольких разрядов кодового числа. Особенностью кода Грея является то, что в немсоседние кодовые комбинации различаются только в одном разряде.

Десятичное число

Двоичный код

Код Грея

0

0000

0000

1

0001

0001

2

0010

0011

3

0011

0010

4

0100

0110

Правило перевода из кода Грея в обычный двоичный код:

  1. Первая единица со стороны старших разрядов остается без изменения.
  2. Последующие цифры 0 или 1 остаются без изменения, если число единиц им предшествующих четно и инвертируется, если не четно.

Например, при решении вопросов позиционирования использование кода Грея позволяет свести к единице младшего разряда погрешность при считывании информации с датчиков положения.

Имеем число в коде Грея 1011. Переводим в обычный код:

  • Первая слева цифра 1 остается без изменений.
  • Вторую цифру (0) инвертируем, так как перед ней одна единица.
  • Третья цифра (1) опять инвертируется, так как перед ней одна единица.
  • Четвертую цифру оставляем без изменений, так как перед ней две единицы.

Таким образом числу 1011 в коде Грея соответствует число 1101.

ЗАПИСЬ ВЕЩЕСТВЕННОГО ЧИСЛА В ЭВМ

Любое вещественное числоN с основаниемP можно записать в виде:

ЗдесьM – мантисса,S – порядок числа. Это представление числа с плавающей точкой, гдепорядок определяет, на сколько разрядов нужно осуществить сдвиг относительно данной точки. Очевидно, что если точка стоит перед первой значащей цифрой, то при ограниченной величине разрядной сетки мы получаем максимальную точность числа, следовательно, мантисса должна быть правильно дробью (М<1), у которой первая цифра после точки отлична от нуля. Для двоичной системы счисления, а=1 и при соблюдении условия М = 0, 1… она называетсянормализованной.

Нормализованная мантисса в двоичной системе счисления всегда представляется десятичным числомn в диапазоне 0,5 ≤n < 1. В машинах вещественные числа, как правило, представляются в трех форматах:одинарном, двойном и расширенном, имеющих одинаковую структуру.

n-1

Знак  мантиссы

n-2

порядок (смещенный код)

>

<

Нормализованная мантисса (абсолютная величина)

0

(там, куда указывают > < Уланов обозначал звездочку внизу на стыке этих двух ячеек, но мое бедное знание Ворда не позволяет иллюстрировать это)

Задание порядка в смещенном коде позволяет производить операции над ними как над беззнаковыми числами, что упрощает операции сравнения, сложения и вычитания порядков, а так же операции сравнения самих нормализованных чисел.

В одинарном формате нормализованные числа записываются в память следующим образом: в 15-м бите первого машинного слова записывается знак мантиссы. С 7-го по 14-й бит первого слова – порядок. Мантисса занимает оставшиеся 23 бита в двух словах, однако в операциях участвует 24 бита мантиссы, так как старший разряд мантиссы нормализованного числа не хранится (он всегда равен единице), то есть имеет местоскрытый разряд, который при аппаратном выполнении операций автоматически восстанавливается и учитывается. Порядок числа также учитывает скрытый старший разряд мантиссы.

Двоичная точность – 64-хразрядное нормализованное число с 11-ти разрядным смещенным порядком и 53-хразрядной мантиссой (52 выделенные + 1 скрытый). Расширенный формат: 80-тиразрядное число.

Примеры представления числа

Имеем число:

При этом порядок представляется двоичным кодом с избытком 128:

-310= (-3 + 128) = 12510= 011111012

0

0

1

1

1

1

1

0

1

1

0

0

1

1

0

0

1

1

0

0

1

1

0

0

1

1

0

0

1

1

0

Последний учитываемый разряд мантиссы округляется

Порядок 610 = (6+128)=100001102

Выполнение арифметических действий над вещественными числами.

При алгебраическом сложении и вычитании чисел, представленных в формате с плавающей точкой, сначала выравниваются порядки слагаемых, при этом мантисса числа с меньшим порядком сдвигается в своем регистре вправо на кол-во разрядов, равное разности порядков операндов. После каждого сдвига порядок увеличивается на единицу. В результате одноименные разряды чисел располагаются в соответствующих разрядах обоих регистров, после чего мантиссы складываются или вычитаются. В случае необходимости полученный результат нормализуется посредством сдвига мантиссы влево на?? ////. При каждом сдвиге влево порядок уменьшается на единицу.

Для упрощения расчетов порядок представлен в обычной двоичной форме.

Сложить два нормализованных числа:

0,1011*10-1

0,11011*1010

Разность между порядками равна 3, поэтому перед сложением мантисса первого числа сдвигается вправо на 3 разряда.

0,0001011*1010 + 0,11011*1010= 0,11101111*1010

При умножении порядки складываются, а мантиссы умножаются.

При делении из порядка делимого вычитается порядок делителя, а над мантиссами совершается обычная операция деления.


 

А также другие работы, которые могут Вас заинтересовать

68730. Средневековая философия Запада и Востока – это прежде всего философия общества, для которого характерно господство теологии и религии 41.5 KB
  Характерной чертой средневековой философии является meoцентризм обращение к Богу его сущности как первопричины и первоосновы мира. Бог создал мир из ничего. государственность которая основана на любви к себе доведенной до абсолюта презрения к Богу и град божий – духовную общность которая основана...
68731. Хронические расстройства питания у детей раннего возраста 110.5 KB
  Известно что хронические расстройства питания у детей могут проявляться в виде в различных формах в зависимости от характера нарушений трофики и возраста: Группировка гипотрофий: Дети первых двух лет жизни:I. Гипотрофия хроническое расстройство питания с дефицитом массы тела относительно роста.
68732. Античная Греция: институт проксении 34 KB
  В отношениях между полисами и их гражданами особую роль выполнял такой институт как проксении своеобразный вид гостеприимства. Проксения существовала между отдельными лицами родами племенами и целыми государствами. Проксеном являлся гражданин одного полиса оказывавший услуги гражданам или официальным лицам...
68733. Сущность, задачи и структура финансовой политики государства 21.1 KB
  Сущность задачи и структура финансовой политики государства Финансовая политика совокупность целенаправленных действий с использованием финансовых отношений финансов. Задачами финансовой политики является:обеспечение условий для формирования максимально возможных финансовых ресурсов...
68734. Хирургическая операция. Оперативная хирургическая техника 27.93 KB
  Хирургические инструменты. Абсолютные когда отказ от операции приведет к ухудшению состояния или смерти. А абсолютные к экстренной операции жизненные когда отказ от операции приведет к ухудшению состояния или к смерти в настоящий момент: асфиксии острые кровотечения острые...
68736. Служба охраны труда на предприятии, её структура, права и обязанности 32 KB
  Служба охраны труда предприятия либо работник на которого возложены эти обязанности руководствуются следующими документами: − типовым положением о службе охраны труда на предприятии; − квалификационными характеристиками должностей начальника отдела охраны труда и инженера по охране труда.
68737. Соотношение понятий и функций: СО и реклама, СО и пропаганда, СО и маркетинг, СО и паблисити, СО и реклама 38 KB
  Реклама разновидность массовой коммуникации в которой создаются и распространяются тексты однонаправленного и неличного характера оплаченные идентифицированным рекламодателем и адресованные аудитории с целью побудить ее к нужному выбору.
68738. Внешние запоминающие устройства (ВЗУ) предназначены для долговременного хранения и транспортировки информации 15.06 KB
  Магнитные носители основаны на свойстве материалов находиться в двух состояниях: «не намагничено»-«намагничено», кодирующие 0 и Запись происходит при помощи мгнитной головки. Из-за контакта головки с поверхностью носителя через некоторое время носитель приходит в негодность.