39038

Количество информации. Мера Хартли и мера Шеннона

Научная статья

Информатика, кибернетика и программирование

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Тем не менее только на основе априорной информации мы не можем точно сказать какое именно число очков выпало в результате конкретного подбрасывания. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться.

Русский

2013-09-30

80.5 KB

27 чел.

Количество информации. Мера Хартли и мера Шеннона.

Понятие энтропии источника.

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Пусть источником информационных сообщений является обыкновенный игральный кубик, о котором у нас есть некоторая априорная информация: очевидно, что в результате его подбрасывания может выпасть от одного до шести очков. Тем не менее, только на основе априорной информации мы не можем точно сказать, какое именно число очков выпало в результате конкретного подбрасывания. Таким образом, можно сказать, что в наших знаниях о состоянии кубика есть неопределенность. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться. Суть меры Хартли заключается в том, что она оценивает количество поступающей информации в зависимости от того, насколько меньше неопределенности стало в наших знаниях о состоянии источника информационного сообщения.

Как же количественно оценивать изменение неопределенности? Рассмотрим три информационных сообщения о количестве выпавших на кубике очков:

  1.  «выпало меньше ста»;
  2.  «выпало пять или шесть»;
  3.  «выпало ровно пять».

Изначально мы знаем, что результат подбрасывания кубика – от одного до шести очков, то есть имеет место неопределенность относительно шести возможных состояний. Первое сообщение не изменяет наших представлений о кубике, то есть мы по-прежнему можем ожидать на выпавшей грани любое количество очков от одного до шести. Получив второе сообщение, мы все еще не уверены, сколько очков было выброшено, но теперь наша неопределенность имеется только относительно двух состояний (пять очков или шесть). А если бы мы получили не второе, а третье информационное сообщение, то наши знания о результате выпадения кубика стали бы полностью определены. Таким образом, третье сообщение полностью устраняет неопределенность относительно шести возможных состояний кубика.

С обыденной точки зрения ясно, что третье сообщение наиболее информативно. Кроме того, мы видим, что «информативность» сообщения зависит от того, насколько меньше становится количество тех состояний источника (в данном случае, кубика), в которых он еще может находиться. Мера Хартли измеряет количество информации в сообщении как разницу между той неопределенностью, которая была до поступления информации и той, которая сохранилась после ее поступления. При этом в качестве меры неопределенности Хартли предложил использовать величину , где N – количество возможных состояний источника, a – масштаб неопределенности, о котором будет сказано чуть позже. Возвращаясь к нашему примеру с игральным кубиком, получаем следующие результаты измерения количества информации для каждого из трех сообщений (Qисх – обозначает неопределенность до поступления информационного сообщения, Qкон – после, I – количество информации):

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало меньше ста»

0

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало пять или шесть»

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало ровно пять»

Следует помнить, что третье информационное сообщение оценивается в предположении, что оно пришло вместо, а не после второго.

Вернемся теперь к параметру a. Для фиксированного значения a количество информации выражается конкретным числом a-ичных единиц информации. Например, при a=2, получаем двоичные единицы (биты), при a=3 – троичные, при a=10 – десятичные (диты) и т.п. Какое значение параметра a выбрать, обычно определяется свойствами передающей информацию среды. Ячейка памяти компьютера технически может находиться в одном из двух устойчивых состояний: 0 и 1, поэтому обычно информацию измеряют в двоичных единицах, битах. Если бы удалось получить для одной ячейки памяти три устойчивых состояния, то информация измерялась бы преимущественно в троичных единицах. Очевидно, что в этом случае, такое же количество информации занимало бы меньше единиц, то есть ячеек памяти. Рассмотрим, например, передачу информации о символе русского алфавита. Источник информации в этом случае имеет 32 возможных состояния. Практическую ценность имеет информационное сообщение, которое полностью устраняет неопределенность в наших знаниях о переданном символе (ну какой смысл передавать сообщения типа «это “а”, а может и “б”»?!). Поэтому количество переданной информации должно быть равно  бит. Таким образом, количество информации об одном символе русского алфавита равно 5 битам. В десятичных единицах для хранения и передачи такого же количества информации потребовалось бы  дита, то есть оказалось бы достаточно всего две десятичных ячейки памяти.

Как только что было сказано, на практике рассматривают только такие информационные сообщения, которые полностью устраняют неопределенность в наших знаниях о текущем состоянии источника. Предположим теперь, что источник последовательно изменяет свое состояние в течение k раз и после каждого изменения посылает об этом информационное сообщение. Например, кубик подбрасывается несколько раз, или имеет место передача слова, составленного из русских букв. Поскольку последующее состояние никак не зависит от предыдущего состояния источника, то общее количество всех возможных вариантов в этом случае равно . Тогда информация, необходимая для того, чтобы полностью описать k-кратное изменение состояния источника, равна  - эта формула приводилась на лекции.

На лекции также упоминалось свойство аддитивности меры Хартли. Если один источник принимает N возможных состояний, а другой M возможных состояний, то для полного описания состояний пары указанных источников потребуется количество информации равное .

Перейдем теперь к рассмотрению меры Шеннона. Рассмотрим следующий пример. Пусть проводится шахматный турнир, где играют Г. Каспаров и обычный человек, например преподаватель по информационным системам. Турнир состоит из 3 партий. Каждая сыгранная партия имеет три возможных исхода: «Каспаров выиграл» (К),  «Каспаров проиграл» (П) и «Сыграли вничью» (Н). С точки зрения меры Хартли количество полной информации о результатах турнира равно  троичных единицы. Однако можно ли назвать сообщение «ККК» так уж впечатляюще информативным? Для нас и так ясно, что сильнейший шахматист планеты скорее всего окажется победителем каждой из трех партий. Наоборот, сообщение «ППП» произведет немалую сенсацию. Суть меры Шеннона в том, что в качестве априорной информации она позволяет учитывать не только количество возможных состояний источника N, но и вероятность выпадения каждого из состояний. Как и Хартли, Шеннон предлагал измерять количество информации в зависимости от того, как много неопределенности в наших знаниях устраняется полученным сообщением. Совокупность N состояний источника с присвоенными ими априорными вероятностями образует ансамбль состояний U:

, ,

Меру неопределенности выбора дискретным источником состояния из ансамбля U называют энтропией источника информации (или энтропией конечного ансамбля). Шеннон предложил измерять ее следующим образом:

Что же показывает энтропия? Она дает среднее значение (оценку) неопределенности, существующей относительно выбора источником одного из своих состояний. В нашем примере турнир теоретически может закончиться самыми непредсказуемым образом, однако мы знаем, что Каспаров играет лучше обычного любителя шахмат, поэтому полагаем, что неопределенность результатов описанного турнира невелика. Если предположить, что вероятности распределяются следующим образом:

,

тогда энтропия источника (среднее значение неопределенности исхода матча) будет равна:

Таким образом, общая мера неопределенности исхода всего турнира равна тр. ед.

Каково практическое применение меры Шеннона? Поскольку в данном случае мы используем в качестве априорной информации дополнительные сведения (вероятности выпадения состояний), то можно предположить, что неопределенность в выборе состояния источника в смысле Шеннона должна быть меньше неопределенности в смысле Хартли. Следовательно, на устранение неопределенности в выборе одного состояния в среднем потребуется меньшее количество информации, чем в случаях, когда статистическая информация не используется. Поэтому мера Шеннона показывает, что в тех случаях, когда вероятности выпадения состояний существенно различаются, передачу информации можно использовать более эффективно. Эти вопросы более глубоко изучаются в теории кодирования.

На лекции было сказано о соотношении между мерой Шеннона и мерой Хартли. В тех случаях, когда источник может с равной вероятностью оказаться в любом из своих состояний, количество информации Шеннона равно количеству информации Хартли. Можно показать, что мера Шеннона – это обобщение меры Хартли на случай неравномерного выпадения состояний источника.


 

А также другие работы, которые могут Вас заинтересовать

5590. Основы металлургического производства. Курс лекций 1.85 MB
  Лекция. Основы металлургического производства. Производство чугуна Основы металлургического производства Современное металлургическое производство и его продукция Современное металлургическое производство представляет собой комплекс различных произ...
5591. Сила, масса, импульс. Момент силы и импульса 44.5 KB
  Сила, масса, импульс. Момент силы и импульса. Причина изменения состояния тела, т.е. появление ускорения связана с понятием силы. Сила - векторная величина, она является также количественной мерой воздействия на выбранное нами тело со стороны д...
5592. Экономические ресурсы 63.5 KB
  Экономические ресурсы Выполнение основной цели деятельности предприятий - создание товаров и услуг, удовлетворяющих потребности людей, увеличение прибыли — предполагает использование экономических ресурсов. Пол экономическими ресурсами мы...
5593. Измерение расстояния по времени прохождения сигнала 416 KB
  Измерение расстояния по времени прохождения сигнала Рассмотрим три метода измерения расстояния, основанные на определении времени прохождения сигнала между объектом и приемником. Два из них - лазерные, один - ультразвуковой. Первый метод...
5594. Сравнительные исследования и анализ нововременных концепций времени 95 KB
  Что такое время. Этот вопрос с давних пор волновал человека. Ибо время постоянно присутствует в нашей жизни, определяет ее ход. На вопрос: что такое время? - мыслители разных эпох отвечали по-разному. В одну эпоху господствовала одна т...
5595. Яйца и яичные продукты. Технологические характеристики и химический состав яиц 120 KB
  Вводная часть. Яйца содержат большинство известных питательных веществ и являются низкокалорийным продуктом (2 яйца - 180 калорий). В яйцах содержится полноценный и легкоусвояемый набор белков, поэтому они полезны в качестве гарнира. Можно пода...
5596. Сенсорная алалия как лексико-грамматическое нарушение речи 78 KB
  Алалия относится к разряду органических речевых нарушений центрального характера. В настоящее время термином алалия принято обозначать тяжелое нарушение речи, обусловленное недоразвитием или поражением речевых областей в левом доминантном...
5597. Обеспечение качества воздушной среды. Защита от вредных веществ и обеспечение параметров микроклимата 193.5 KB
  Обеспечение качества воздушной среды. Защита от вредных веществ и обеспечение параметров микроклимата. Причины и характер загрязнения воздушной среды. Действие вредных веществ загрязнителей воздушной среды на человека. Нормирование...
5598. Международная торговля и торговая политика. Перспективы их развития 196 KB
  Почему государства торгуют? Что составляет основу торговли между странами? В общем виде международная торговля является средством, с помощью которого страны могут развивать специализацию, повышать производительность своих ресурсов и таким о...