39038

Количество информации. Мера Хартли и мера Шеннона

Научная статья

Информатика, кибернетика и программирование

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Тем не менее только на основе априорной информации мы не можем точно сказать какое именно число очков выпало в результате конкретного подбрасывания. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться.

Русский

2013-09-30

80.5 KB

27 чел.

Количество информации. Мера Хартли и мера Шеннона.

Понятие энтропии источника.

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Пусть источником информационных сообщений является обыкновенный игральный кубик, о котором у нас есть некоторая априорная информация: очевидно, что в результате его подбрасывания может выпасть от одного до шести очков. Тем не менее, только на основе априорной информации мы не можем точно сказать, какое именно число очков выпало в результате конкретного подбрасывания. Таким образом, можно сказать, что в наших знаниях о состоянии кубика есть неопределенность. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться. Суть меры Хартли заключается в том, что она оценивает количество поступающей информации в зависимости от того, насколько меньше неопределенности стало в наших знаниях о состоянии источника информационного сообщения.

Как же количественно оценивать изменение неопределенности? Рассмотрим три информационных сообщения о количестве выпавших на кубике очков:

  1.  «выпало меньше ста»;
  2.  «выпало пять или шесть»;
  3.  «выпало ровно пять».

Изначально мы знаем, что результат подбрасывания кубика – от одного до шести очков, то есть имеет место неопределенность относительно шести возможных состояний. Первое сообщение не изменяет наших представлений о кубике, то есть мы по-прежнему можем ожидать на выпавшей грани любое количество очков от одного до шести. Получив второе сообщение, мы все еще не уверены, сколько очков было выброшено, но теперь наша неопределенность имеется только относительно двух состояний (пять очков или шесть). А если бы мы получили не второе, а третье информационное сообщение, то наши знания о результате выпадения кубика стали бы полностью определены. Таким образом, третье сообщение полностью устраняет неопределенность относительно шести возможных состояний кубика.

С обыденной точки зрения ясно, что третье сообщение наиболее информативно. Кроме того, мы видим, что «информативность» сообщения зависит от того, насколько меньше становится количество тех состояний источника (в данном случае, кубика), в которых он еще может находиться. Мера Хартли измеряет количество информации в сообщении как разницу между той неопределенностью, которая была до поступления информации и той, которая сохранилась после ее поступления. При этом в качестве меры неопределенности Хартли предложил использовать величину , где N – количество возможных состояний источника, a – масштаб неопределенности, о котором будет сказано чуть позже. Возвращаясь к нашему примеру с игральным кубиком, получаем следующие результаты измерения количества информации для каждого из трех сообщений (Qисх – обозначает неопределенность до поступления информационного сообщения, Qкон – после, I – количество информации):

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало меньше ста»

0

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало пять или шесть»

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало ровно пять»

Следует помнить, что третье информационное сообщение оценивается в предположении, что оно пришло вместо, а не после второго.

Вернемся теперь к параметру a. Для фиксированного значения a количество информации выражается конкретным числом a-ичных единиц информации. Например, при a=2, получаем двоичные единицы (биты), при a=3 – троичные, при a=10 – десятичные (диты) и т.п. Какое значение параметра a выбрать, обычно определяется свойствами передающей информацию среды. Ячейка памяти компьютера технически может находиться в одном из двух устойчивых состояний: 0 и 1, поэтому обычно информацию измеряют в двоичных единицах, битах. Если бы удалось получить для одной ячейки памяти три устойчивых состояния, то информация измерялась бы преимущественно в троичных единицах. Очевидно, что в этом случае, такое же количество информации занимало бы меньше единиц, то есть ячеек памяти. Рассмотрим, например, передачу информации о символе русского алфавита. Источник информации в этом случае имеет 32 возможных состояния. Практическую ценность имеет информационное сообщение, которое полностью устраняет неопределенность в наших знаниях о переданном символе (ну какой смысл передавать сообщения типа «это “а”, а может и “б”»?!). Поэтому количество переданной информации должно быть равно  бит. Таким образом, количество информации об одном символе русского алфавита равно 5 битам. В десятичных единицах для хранения и передачи такого же количества информации потребовалось бы  дита, то есть оказалось бы достаточно всего две десятичных ячейки памяти.

Как только что было сказано, на практике рассматривают только такие информационные сообщения, которые полностью устраняют неопределенность в наших знаниях о текущем состоянии источника. Предположим теперь, что источник последовательно изменяет свое состояние в течение k раз и после каждого изменения посылает об этом информационное сообщение. Например, кубик подбрасывается несколько раз, или имеет место передача слова, составленного из русских букв. Поскольку последующее состояние никак не зависит от предыдущего состояния источника, то общее количество всех возможных вариантов в этом случае равно . Тогда информация, необходимая для того, чтобы полностью описать k-кратное изменение состояния источника, равна  - эта формула приводилась на лекции.

На лекции также упоминалось свойство аддитивности меры Хартли. Если один источник принимает N возможных состояний, а другой M возможных состояний, то для полного описания состояний пары указанных источников потребуется количество информации равное .

Перейдем теперь к рассмотрению меры Шеннона. Рассмотрим следующий пример. Пусть проводится шахматный турнир, где играют Г. Каспаров и обычный человек, например преподаватель по информационным системам. Турнир состоит из 3 партий. Каждая сыгранная партия имеет три возможных исхода: «Каспаров выиграл» (К),  «Каспаров проиграл» (П) и «Сыграли вничью» (Н). С точки зрения меры Хартли количество полной информации о результатах турнира равно  троичных единицы. Однако можно ли назвать сообщение «ККК» так уж впечатляюще информативным? Для нас и так ясно, что сильнейший шахматист планеты скорее всего окажется победителем каждой из трех партий. Наоборот, сообщение «ППП» произведет немалую сенсацию. Суть меры Шеннона в том, что в качестве априорной информации она позволяет учитывать не только количество возможных состояний источника N, но и вероятность выпадения каждого из состояний. Как и Хартли, Шеннон предлагал измерять количество информации в зависимости от того, как много неопределенности в наших знаниях устраняется полученным сообщением. Совокупность N состояний источника с присвоенными ими априорными вероятностями образует ансамбль состояний U:

, ,

Меру неопределенности выбора дискретным источником состояния из ансамбля U называют энтропией источника информации (или энтропией конечного ансамбля). Шеннон предложил измерять ее следующим образом:

Что же показывает энтропия? Она дает среднее значение (оценку) неопределенности, существующей относительно выбора источником одного из своих состояний. В нашем примере турнир теоретически может закончиться самыми непредсказуемым образом, однако мы знаем, что Каспаров играет лучше обычного любителя шахмат, поэтому полагаем, что неопределенность результатов описанного турнира невелика. Если предположить, что вероятности распределяются следующим образом:

,

тогда энтропия источника (среднее значение неопределенности исхода матча) будет равна:

Таким образом, общая мера неопределенности исхода всего турнира равна тр. ед.

Каково практическое применение меры Шеннона? Поскольку в данном случае мы используем в качестве априорной информации дополнительные сведения (вероятности выпадения состояний), то можно предположить, что неопределенность в выборе состояния источника в смысле Шеннона должна быть меньше неопределенности в смысле Хартли. Следовательно, на устранение неопределенности в выборе одного состояния в среднем потребуется меньшее количество информации, чем в случаях, когда статистическая информация не используется. Поэтому мера Шеннона показывает, что в тех случаях, когда вероятности выпадения состояний существенно различаются, передачу информации можно использовать более эффективно. Эти вопросы более глубоко изучаются в теории кодирования.

На лекции было сказано о соотношении между мерой Шеннона и мерой Хартли. В тех случаях, когда источник может с равной вероятностью оказаться в любом из своих состояний, количество информации Шеннона равно количеству информации Хартли. Можно показать, что мера Шеннона – это обобщение меры Хартли на случай неравномерного выпадения состояний источника.


 

А также другие работы, которые могут Вас заинтересовать

36344. Как определяется шаг интегрирования по времени при моделировании САУ с помощью ПК 22.59 KB
  Как определяется шаг интегрирования по времени при моделировании САУ с помощью ПК. Применительно к простому интегратору он может быть представлен таким образом: В конечных приращениях то же самое можно записать в виде: где T – постоянная интегрирования звена; Xn Yn – соответственно вход и выход звена на nм шаге расчета; t – величина интервала времени в течение которого входное воздействие считается постоянным. Суммирование интегрирование выходного параметра производится через интервалы времени t=S в связи с чем этот интервал получил...
36345. Классификация САПР по уровню и комплексной автоматизации проектирования 32.83 KB
  Классификация САПР по уровню и комплексной автоматизации проектирования. Сложность объекта проектирования. Уровень и комплексность автоматизации проектирования. Первые три признака отражают особенности объекта проектирования.
36346. Микропроцессорные средства автоматического контроля и регулирования. К микропроцессорным средствам автоматического контроля и регулирования относятся локальные регуляторы и программно-логические контроллеры 14.13 KB
  К микропроцессорным средствам автоматического контроля и регулирования относятся локальные регуляторы и программнологические контроллеры. Автоматические регуляторы с типовыми законами регулирования: релейными П ПД ПИ ПИД. Эти регуляторы составляют основную группу используемых в современных системах автоматизации. Несмотря на широкое использование ПК и ПЛК автоматические регуляторы являются достаточно распространенными средствами автоматизации в составе локальных систем контроля и регуля.
36347. Назначение и правила выполнения схемы автоматизации технологических процессов 26.05 KB
  Назначение и правила выполнения схемы автоматизации технологических процессов. Схемы автоматизации разрабатывают в целом на технологическую инженерную систему или ее часть технологическую линию блок оборудования установку или агрегат. Схему автоматизации допускается совмещать со схемой соединений монтажной выполняемой в составе основного комплекта марки ТХ по ГОСТ 21. На схеме автоматизации изображают: 1 технологическое и инженерное оборудование и коммуникации трубопроводы газоходы воздуховоды автоматизируемого объекта...
36348. Общие сведения о графических и буквенно-цифровых условных обозначениях элементов схем автоматизации 34.36 KB
  преобразователей и приборов устанавливаемых по месту принято единое графическое обозначение в виде окружности или овала в зависимости от объёма вписываемых буквенных обозначений. В отличии от обозначений приборов исполнительные механизмы изображают кругом меньшего диаметра: Регулирующий орган изображают аналогично трубопроводной арматуре Для получения полного обозначения прибора или средства автоматизации в его УГО в виде круга или овала вписывают буквенное условное обозначение которое и определяет назначение вфполняемые функции...
36349. Функциональная схема АСУ ТП. Состав и назначение основных узлов 22.46 KB
  Все кто непосредственно отвечает за операционное управление процессом. РУ ручное управление. ДУ дистанционное управление. ЛУ локальное управление.
36352. Корреляционный, факторный и регрессионный методы анализа 18.32 KB
  Корреляционный факторный и регрессионный методы анализа Методами корреляционного факторного и регрессионного анализа получают статические модели объекта с помощью которых устанавливаются количественные связи между переменными в установившихся режимах. С помощью факторного анализа оценивается влияние различных факторов технологического процесса на его результат.В начале методами факторного анализа выбирся наиб.