39038

Количество информации. Мера Хартли и мера Шеннона

Научная статья

Информатика, кибернетика и программирование

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Тем не менее только на основе априорной информации мы не можем точно сказать какое именно число очков выпало в результате конкретного подбрасывания. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться.

Русский

2013-09-30

80.5 KB

27 чел.

Количество информации. Мера Хартли и мера Шеннона.

Понятие энтропии источника.

Рассмотрение предложенных способов измерения количества информации удобно начать с примера. Пусть источником информационных сообщений является обыкновенный игральный кубик, о котором у нас есть некоторая априорная информация: очевидно, что в результате его подбрасывания может выпасть от одного до шести очков. Тем не менее, только на основе априорной информации мы не можем точно сказать, какое именно число очков выпало в результате конкретного подбрасывания. Таким образом, можно сказать, что в наших знаниях о состоянии кубика есть неопределенность. С поступлением новой информации о результате подбрасывания эта неопределенность может уменьшаться. Суть меры Хартли заключается в том, что она оценивает количество поступающей информации в зависимости от того, насколько меньше неопределенности стало в наших знаниях о состоянии источника информационного сообщения.

Как же количественно оценивать изменение неопределенности? Рассмотрим три информационных сообщения о количестве выпавших на кубике очков:

  1.  «выпало меньше ста»;
  2.  «выпало пять или шесть»;
  3.  «выпало ровно пять».

Изначально мы знаем, что результат подбрасывания кубика – от одного до шести очков, то есть имеет место неопределенность относительно шести возможных состояний. Первое сообщение не изменяет наших представлений о кубике, то есть мы по-прежнему можем ожидать на выпавшей грани любое количество очков от одного до шести. Получив второе сообщение, мы все еще не уверены, сколько очков было выброшено, но теперь наша неопределенность имеется только относительно двух состояний (пять очков или шесть). А если бы мы получили не второе, а третье информационное сообщение, то наши знания о результате выпадения кубика стали бы полностью определены. Таким образом, третье сообщение полностью устраняет неопределенность относительно шести возможных состояний кубика.

С обыденной точки зрения ясно, что третье сообщение наиболее информативно. Кроме того, мы видим, что «информативность» сообщения зависит от того, насколько меньше становится количество тех состояний источника (в данном случае, кубика), в которых он еще может находиться. Мера Хартли измеряет количество информации в сообщении как разницу между той неопределенностью, которая была до поступления информации и той, которая сохранилась после ее поступления. При этом в качестве меры неопределенности Хартли предложил использовать величину , где N – количество возможных состояний источника, a – масштаб неопределенности, о котором будет сказано чуть позже. Возвращаясь к нашему примеру с игральным кубиком, получаем следующие результаты измерения количества информации для каждого из трех сообщений (Qисх – обозначает неопределенность до поступления информационного сообщения, Qкон – после, I – количество информации):

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало меньше ста»

0

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало пять или шесть»

Априорная информация

«Выпало число очков от одного до шести»

Сообщение

Qисх

Qкон

I

«Выпало ровно пять»

Следует помнить, что третье информационное сообщение оценивается в предположении, что оно пришло вместо, а не после второго.

Вернемся теперь к параметру a. Для фиксированного значения a количество информации выражается конкретным числом a-ичных единиц информации. Например, при a=2, получаем двоичные единицы (биты), при a=3 – троичные, при a=10 – десятичные (диты) и т.п. Какое значение параметра a выбрать, обычно определяется свойствами передающей информацию среды. Ячейка памяти компьютера технически может находиться в одном из двух устойчивых состояний: 0 и 1, поэтому обычно информацию измеряют в двоичных единицах, битах. Если бы удалось получить для одной ячейки памяти три устойчивых состояния, то информация измерялась бы преимущественно в троичных единицах. Очевидно, что в этом случае, такое же количество информации занимало бы меньше единиц, то есть ячеек памяти. Рассмотрим, например, передачу информации о символе русского алфавита. Источник информации в этом случае имеет 32 возможных состояния. Практическую ценность имеет информационное сообщение, которое полностью устраняет неопределенность в наших знаниях о переданном символе (ну какой смысл передавать сообщения типа «это “а”, а может и “б”»?!). Поэтому количество переданной информации должно быть равно  бит. Таким образом, количество информации об одном символе русского алфавита равно 5 битам. В десятичных единицах для хранения и передачи такого же количества информации потребовалось бы  дита, то есть оказалось бы достаточно всего две десятичных ячейки памяти.

Как только что было сказано, на практике рассматривают только такие информационные сообщения, которые полностью устраняют неопределенность в наших знаниях о текущем состоянии источника. Предположим теперь, что источник последовательно изменяет свое состояние в течение k раз и после каждого изменения посылает об этом информационное сообщение. Например, кубик подбрасывается несколько раз, или имеет место передача слова, составленного из русских букв. Поскольку последующее состояние никак не зависит от предыдущего состояния источника, то общее количество всех возможных вариантов в этом случае равно . Тогда информация, необходимая для того, чтобы полностью описать k-кратное изменение состояния источника, равна  - эта формула приводилась на лекции.

На лекции также упоминалось свойство аддитивности меры Хартли. Если один источник принимает N возможных состояний, а другой M возможных состояний, то для полного описания состояний пары указанных источников потребуется количество информации равное .

Перейдем теперь к рассмотрению меры Шеннона. Рассмотрим следующий пример. Пусть проводится шахматный турнир, где играют Г. Каспаров и обычный человек, например преподаватель по информационным системам. Турнир состоит из 3 партий. Каждая сыгранная партия имеет три возможных исхода: «Каспаров выиграл» (К),  «Каспаров проиграл» (П) и «Сыграли вничью» (Н). С точки зрения меры Хартли количество полной информации о результатах турнира равно  троичных единицы. Однако можно ли назвать сообщение «ККК» так уж впечатляюще информативным? Для нас и так ясно, что сильнейший шахматист планеты скорее всего окажется победителем каждой из трех партий. Наоборот, сообщение «ППП» произведет немалую сенсацию. Суть меры Шеннона в том, что в качестве априорной информации она позволяет учитывать не только количество возможных состояний источника N, но и вероятность выпадения каждого из состояний. Как и Хартли, Шеннон предлагал измерять количество информации в зависимости от того, как много неопределенности в наших знаниях устраняется полученным сообщением. Совокупность N состояний источника с присвоенными ими априорными вероятностями образует ансамбль состояний U:

, ,

Меру неопределенности выбора дискретным источником состояния из ансамбля U называют энтропией источника информации (или энтропией конечного ансамбля). Шеннон предложил измерять ее следующим образом:

Что же показывает энтропия? Она дает среднее значение (оценку) неопределенности, существующей относительно выбора источником одного из своих состояний. В нашем примере турнир теоретически может закончиться самыми непредсказуемым образом, однако мы знаем, что Каспаров играет лучше обычного любителя шахмат, поэтому полагаем, что неопределенность результатов описанного турнира невелика. Если предположить, что вероятности распределяются следующим образом:

,

тогда энтропия источника (среднее значение неопределенности исхода матча) будет равна:

Таким образом, общая мера неопределенности исхода всего турнира равна тр. ед.

Каково практическое применение меры Шеннона? Поскольку в данном случае мы используем в качестве априорной информации дополнительные сведения (вероятности выпадения состояний), то можно предположить, что неопределенность в выборе состояния источника в смысле Шеннона должна быть меньше неопределенности в смысле Хартли. Следовательно, на устранение неопределенности в выборе одного состояния в среднем потребуется меньшее количество информации, чем в случаях, когда статистическая информация не используется. Поэтому мера Шеннона показывает, что в тех случаях, когда вероятности выпадения состояний существенно различаются, передачу информации можно использовать более эффективно. Эти вопросы более глубоко изучаются в теории кодирования.

На лекции было сказано о соотношении между мерой Шеннона и мерой Хартли. В тех случаях, когда источник может с равной вероятностью оказаться в любом из своих состояний, количество информации Шеннона равно количеству информации Хартли. Можно показать, что мера Шеннона – это обобщение меры Хартли на случай неравномерного выпадения состояний источника.


 

А также другие работы, которые могут Вас заинтересовать

27387. Анализ и синтез 18.71 KB
  Способность к аналитикосинтетической деятельности находит свое выражение не только в умении выделять элементы того или иного объекта его различные признаки или соединять элементы в единое целое но и в умении включать их в новые связи увидеть их новые функции. Так как работу по формированию у детей логического приема сравнения лучше начать с первых уроков математики то в качестве объектов можно сначала использовать предметы или рисунки с изображением предметов хорошо им знакомых в которых они могут выделить те или иные признаки опираясь...
27388. Методика преподавания русского языка 36 KB
  Как и любая другая наука методика русского языка имеет свой предмет. Методика русского языка призвана изучить закономерности формирования умений и навыков в области языка усвоения систем научных понятий по грамматике и по другим разделам науки о языке. Методика русского языка изучает уровни знаний умений и навыков учащихся на разных ступенях обучения выясняет причины успехов или неудач в обучении исследует типичные ошибки речевые орфографические и пр.
27389. Место курса «Русский язык» в учебном плане 76 KB
  Это обусловлено тем что русский язык является государственным языком Российской Федерации родным языком русского народа средством межнационального общения. Осознание единства звукового состава слова и его значения. Установление числа и последовательности звуков в слове. Сопоставление слов различающихся одним или несколькими звуками.
27390. Коммуникативно-познавательная основа русского языка 80 KB
  Коммуникативный принцип предусматривает: осмысление и реализацию основной функции языка быть средством общения; развитие умения ориентироваться в ситуациях общения понимать цель и результат общения собеседников контролировать и корректировать свою речь в зависимости от ситуации общения; знакомство с различными системами общения устными и письменными речевыми и неречевыми; формирование представления о тексте как результате продукте речевой деятельности; развитие у учащихся желания потребности создавать собственные тексты...
27391. Психолого-педагогические основы методики обучения грамоте 69 KB
  Что же собой представляет метод обучения В литературе существуют различные подходы к определению этого понятия: 1это способ деятельности учителя и учащихся; 2совокупность приемов работы; 3путь по которому учитель ведет учащихся от незнания к знанию; 4 система действий учителя и учащихся и т.Овладение грамотой – первый этап школьного обучения детей в течение которого у них должны быть сформированы начальные навыки чтения и письма. Перекодировка о которой сказано выше является главным предметом методики обучения грамоте поэтому...
27392. В методике выделяют три этапа формирования навыка чтения: аналитический, синтетический и этап автоматизации 48 KB
  Аналитический этап характеризуется тем что все три компонента процесса чтения в деятельности чтеца разорваны и требуют от ребенка отдельных усилий по произведению конкретных операций: увидеть гласную букву соотнести ее со слогомслиянием подумать куда надо причитать буквы вне слияния озвучить каждый увиденный графический слог т. Однако учитель должен помнить что каждому ребенку свойствен свой темп в развитии вообще и в овладении навыком чтения в частности.Синтетический этап предполагает что все три компонента чтения синтезируются т.
27394. Принципы русской орфографии 35 KB
  Морфологическийединообразие написания морфем все случаи безуд гл оглушеине или озвончение согл традиционное произношение Решение орфогрфической задачи по морфологическому принципу состоит в том чтобы реюбенок зналд образ слова кот искажен фонетически 2. Традиционный Относятся все лсоварные слова правописание жиши чаща чущуИспользовать принципы запоминания 4. Принцип дифференциации значений лексический грамматический смысловой КомпаниякампанияподжегподжогСлова омофоны 5. Принцип аббревиации Практически не изуч в нач школе...
27395. Морфемика – изучает состав слова 96 KB
  Развитие интереса детей к языку через состав слова. Выяснение как сделаны слова в р. Вопрос о причинах ошибок которые допускают дети при разборе слова по составу специально изучали психологи Л.