39038

Количество информации. Мера Хартли и мера Шеннона

Научная статья

Информатика, кибернетика и программирование

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Тем не менее только на основе априорной информации мы не можем точно сказать какое именно число очков выпало в результате конкретного подбрасывания. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться.

Русский

2013-09-30

80.5 KB

28 чел.

Количество информации. Мера Хартли и мера Шеннона.

Понятие энтропии источника.

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Пусть источником информационных сообщений является обыкновенный игральный кубик, о котором у нас есть некоторая априорная информация: очевидно, что в результате его подбрасывания может выпасть от одного до шести очков. Тем не менее, только на основе априорной информации мы не можем точно сказать, какое именно число очков выпало в результате конкретного подбрасывания. Таким образом, можно сказать, что в наших знаниях о состоянии кубика есть неопределенность. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться. Суть меры Хартли заключается в том, что она оценивает количество поступающей информации в зависимости от того, насколько меньше неопределенности стало в наших знаниях о состоянии источника информационного сообщения.

Как же количественно оценивать изменение неопределенности? Рассмотрим три информационных сообщения о количестве выпавших на кубике очков:

  1.  «выпало меньше ста»;
  2.  «выпало пять или шесть»;
  3.  «выпало ровно пять».

Изначально мы знаем, что результат подбрасывания кубика – от одного до шести очков, то есть имеет место неопределенность относительно шести возможных состояний. Первое сообщение не изменяет наших представлений о кубике, то есть мы по-прежнему можем ожидать на выпавшей грани любое количество очков от одного до шести. Получив второе сообщение, мы все еще не уверены, сколько очков было выброшено, но теперь наша неопределенность имеется только относительно двух состояний (пять очков или шесть). А если бы мы получили не второе, а третье информационное сообщение, то наши знания о результате выпадения кубика стали бы полностью определены. Таким образом, третье сообщение полностью устраняет неопределенность относительно шести возможных состояний кубика.

С обыденной точки зрения ясно, что третье сообщение наиболее информативно. Кроме того, мы видим, что «информативность» сообщения зависит от того, насколько меньше становится количество тех состояний источника (в данном случае, кубика), в которых он еще может находиться. Мера Хартли измеряет количество информации в сообщении как разницу между той неопределенностью, которая была до поступления информации и той, которая сохранилась после ее поступления. При этом в качестве меры неопределенности Хартли предложил использовать величину , где N – количество возможных состояний источника, a – масштаб неопределенности, о котором будет сказано чуть позже. Возвращаясь к нашему примеру с игральным кубиком, получаем следующие результаты измерения количества информации для каждого из трех сообщений (Qисх – обозначает неопределенность до поступления информационного сообщения, Qкон – после, I – количество информации):

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало меньше ста»

0

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало пять или шесть»

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало ровно пять»

Следует помнить, что третье информационное сообщение оценивается в предположении, что оно пришло вместо, а не после второго.

Вернемся теперь к параметру a. Для фиксированного значения a количество информации выражается конкретным числом a-ичных единиц информации. Например, при a=2, получаем двоичные единицы (биты), при a=3 – троичные, при a=10 – десятичные (диты) и т.п. Какое значение параметра a выбрать, обычно определяется свойствами передающей информацию среды. Ячейка памяти компьютера технически может находиться в одном из двух устойчивых состояний: 0 и 1, поэтому обычно информацию измеряют в двоичных единицах, битах. Если бы удалось получить для одной ячейки памяти три устойчивых состояния, то информация измерялась бы преимущественно в троичных единицах. Очевидно, что в этом случае, такое же количество информации занимало бы меньше единиц, то есть ячеек памяти. Рассмотрим, например, передачу информации о символе русского алфавита. Источник информации в этом случае имеет 32 возможных состояния. Практическую ценность имеет информационное сообщение, которое полностью устраняет неопределенность в наших знаниях о переданном символе (ну какой смысл передавать сообщения типа «это “а”, а может и “б”»?!). Поэтому количество переданной информации должно быть равно  бит. Таким образом, количество информации об одном символе русского алфавита равно 5 битам. В десятичных единицах для хранения и передачи такого же количества информации потребовалось бы  дита, то есть оказалось бы достаточно всего две десятичных ячейки памяти.

Как только что было сказано, на практике рассматривают только такие информационные сообщения, которые полностью устраняют неопределенность в наших знаниях о текущем состоянии источника. Предположим теперь, что источник последовательно изменяет свое состояние в течение k раз и после каждого изменения посылает об этом информационное сообщение. Например, кубик подбрасывается несколько раз, или имеет место передача слова, составленного из русских букв. Поскольку последующее состояние никак не зависит от предыдущего состояния источника, то общее количество всех возможных вариантов в этом случае равно . Тогда информация, необходимая для того, чтобы полностью описать k-кратное изменение состояния источника, равна  - эта формула приводилась на лекции.

На лекции также упоминалось свойство аддитивности меры Хартли. Если один источник принимает N возможных состояний, а другой M возможных состояний, то для полного описания состояний пары указанных источников потребуется количество информации равное .

Перейдем теперь к рассмотрению меры Шеннона. Рассмотрим следующий пример. Пусть проводится шахматный турнир, где играют Г. Каспаров и обычный человек, например преподаватель по информационным системам. Турнир состоит из 3 партий. Каждая сыгранная партия имеет три возможных исхода: «Каспаров выиграл» (К),  «Каспаров проиграл» (П) и «Сыграли вничью» (Н). С точки зрения меры Хартли количество полной информации о результатах турнира равно  троичных единицы. Однако можно ли назвать сообщение «ККК» так уж впечатляюще информативным? Для нас и так ясно, что сильнейший шахматист планеты скорее всего окажется победителем каждой из трех партий. Наоборот, сообщение «ППП» произведет немалую сенсацию. Суть меры Шеннона в том, что в качестве априорной информации она позволяет учитывать не только количество возможных состояний источника N, но и вероятность выпадения каждого из состояний. Как и Хартли, Шеннон предлагал измерять количество информации в зависимости от того, как много неопределенности в наших знаниях устраняется полученным сообщением. Совокупность N состояний источника с присвоенными ими априорными вероятностями образует ансамбль состояний U:

, ,

Меру неопределенности выбора дискретным источником состояния из ансамбля U называют энтропией источника информации (или энтропией конечного ансамбля). Шеннон предложил измерять ее следующим образом:

Что же показывает энтропия? Она дает среднее значение (оценку) неопределенности, существующей относительно выбора источником одного из своих состояний. В нашем примере турнир теоретически может закончиться самыми непредсказуемым образом, однако мы знаем, что Каспаров играет лучше обычного любителя шахмат, поэтому полагаем, что неопределенность результатов описанного турнира невелика. Если предположить, что вероятности распределяются следующим образом:

,

тогда энтропия источника (среднее значение неопределенности исхода матча) будет равна:

Таким образом, общая мера неопределенности исхода всего турнира равна тр. ед.

Каково практическое применение меры Шеннона? Поскольку в данном случае мы используем в качестве априорной информации дополнительные сведения (вероятности выпадения состояний), то можно предположить, что неопределенность в выборе состояния источника в смысле Шеннона должна быть меньше неопределенности в смысле Хартли. Следовательно, на устранение неопределенности в выборе одного состояния в среднем потребуется меньшее количество информации, чем в случаях, когда статистическая информация не используется. Поэтому мера Шеннона показывает, что в тех случаях, когда вероятности выпадения состояний существенно различаются, передачу информации можно использовать более эффективно. Эти вопросы более глубоко изучаются в теории кодирования.

На лекции было сказано о соотношении между мерой Шеннона и мерой Хартли. В тех случаях, когда источник может с равной вероятностью оказаться в любом из своих состояний, количество информации Шеннона равно количеству информации Хартли. Можно показать, что мера Шеннона – это обобщение меры Хартли на случай неравномерного выпадения состояний источника.


 

А также другие работы, которые могут Вас заинтересовать

67702. Управление формированием операционной прибылью 1.32 MB
  Целью курсовой работы является изучение теоретических вопросов, раскрывающих понятие операционной прибыли, а также расчет показателей, связанных с данным понятием. Основными задачами является: раскрытие понятия операционной прибыли, изучение операционного левериджа, исследование способа управления формированием операционной прибыли.
67703. Формирование аристократической модели государственной службы в России в XV-XVII вв 46.54 KB
  Актуальность выбора темы определяется тем что для успешного реформирования института государственной службы в РФ понимание истории и традиций государственной службы России является не менее важным чем изучение опыта иностранных государств членов ЕС США и других развитых стран мира в сфере построения государственного управления.
67704. Расчет передающего устройства радиовещания 1.3 MB
  Рассчитать передающее устройство радиовещания. Данное устройство предназначено для передачи речевых и музыкальных программ. Мощность сигнала в антенне – 25 кВт. рабочая частота – 120 МГц Нагрузка – несимметричный фидер с волновым сопротивлением 50 Ом. КПД фидера равен 0.85.
67706. Проектирование предмета фототехники (на примере фотоаппарата) 538.09 KB
  Актуальность темы курсовой работы обосновывается тем, что фототехника в настоящее время является единственным средством для получения снимков, которые используются не только при создании личных семейных архивов и творчестве, но и в науке. Объект курсовой работы – фотоаппарат «Смена 8М».
67707. Расчет и оптимизация конструкции охладителей для силовых транзисторов 375.78 KB
  Напряжение на выходе второго канала электронного блока питания ЭБП: 63В Номинальный ток нагрузки первого канала ЭБП: 07А Номинальный ток нагрузки второго канала ЭБП: 3А Нестабильность входного напряжения первого канала ЭБП: 25 Нестабильность...
67708. Понятие и предмет гражданского права 115.5 KB
  ГК определяет правовое положение участников гражданского оборота основания возникновения и порядок осуществления права собственности и других вещных прав исключительных прав на результаты интеллектуальной деятельности и приравненные к ним средства индивидуализации интеллектуальных прав...
67709. Анализ финансово-хозяйственной деятельности предприятия 574 KB
  В современных социально-экономических условиях залогом успешного ведения деятельности хозяйствующего субъекта является его устойчивое финансовое состояние, которое выступает индикатором конкурентоспособности предприятия. В связи с этим из большего потока информации, циркулирующей на предприятии...
67710. Анализ технологического процесса как объекта управления и автоматизации 11.18 MB
  В качестве технологического показателя эффективности на стадии эксплуатации является близость концентрации целевого компонента реакции к оптимальному значению, которые определяются на стадии проектирования. Отличие этих величин друг от друга обусловлено наличием возмущающих воздействий различного рода.