50969

ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА

Лекция

Информатика, кибернетика и программирование

Количество информации и избыточность. Пусть и случайные величины с множествами возможных значений Количество информации при наблюдении случайной величины с распределением вероятностей задается формулой Шеннона: Единицей измерения количества информации является бит который представляет собой количество информации получаемое при наблюдении случайной величины имеющей два равновероятных значения. При равномерном распределении количество информации задается формулой Хартли: . Имеются два источника информации алфавиты и...

Русский

2014-02-03

431 KB

3 чел.

Лекция №4

Тема: ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.

1. ИНФОРМАЦИОННАЯ МЕРА ШЕННОНА.

 1.1.  Количество информации и избыточность.

Дискретные системы связи - системы, в которых как реализации сообщения, так и реализации сигнала представляют собой последовательности символов алфавита, содержащего конечное число элементарных символов.  

Пусть  и  - случайные величины с множествами возможных значений  

Количество информации  при наблюдении случайной величины  с распределением вероятностей задается формулой Шеннона:

Единицей измерения количества информации является бит, который представляет собой количество информации, получаемое при наблюдении случайной величины, имеющей два равновероятных значения.

При равномерном распределении  количество информации задается формулой Хартли:

.

Справедливы следующие соотношения:

1)

2)  

3)  если  и  - независимы.

Избыточностью называется

Рассмотрим примеры.

 Пример 1. Имеются два источника информации, алфавиты и распределения вероятностей которых заданы матрицами:

 

Определить, какой источник дает большее количество информации, если

1)  2)

 Решение. Для первого источника при равновероятном распределении воспользуемся формулой Хартли. Для  и  имеем

Следовательно, источник с тремя символами дает большее количество информации. Для второго случая воспользуемся формулой Шеннона:

с учетом условия задачи имеем

С другой стороны,

Поскольку

  то

 Пример 2. Источник сообщений выдает символы из алфавита   с вероятностями     Найти количество информации и избыточность.

 Решение. По формуле Шеннона

(бит).

По определению избыточности

 


1.2. Энтропия непрерывных сообщений

Непрерывные системы передачи информации - системы, в которых как реализации сообщения, так и реализации сигнала на конечном временном интервале  представляют собой некоторые непрерывные функции времени.

Пусть  - реализации непрерывного сообщения на входе какого-либо блока схемы связи,  - реализация выходного сообщения (сигнала),  - плотность вероятности ансамбля входных сообщений,  - плотность вероятности ансамбля выходных сообщений

Формулы для энтропии  непрерывных сообщений получаются путем обобщения формул для энтропии дискретных сообщений. Если  - интервал квантования (точность измерения), то при достаточно малом  энтропия непрерывных сообщений

где  По аналогии

Пример 1. По линии связи передаются непрерывные амплитудно-модулированные сигналы  распределенные по нормальному закону с математическим ожиданием  и дисперсией

Определить энтропию  сигнала при точности его измерения  

 Решение. По условию плотность вероятности сигнала

Подставляя числовые значения, получаем

дв. ед.

2. УСЛОВНАЯ ЭНТРОПИЯ И ВЗАИМНАЯ ИНФОРМАЦИЯ

2.1. Дисктретные системы передачи информации.

Условной энтропией величины  при наблюдении величины  называется

Справедливы соотношения:

 

Взаимной информацией величин  и  называется

Справедливы следующие соотношения:

  

 

Если  и независимы, то =0.

При расчетах условной энтропии и взаимной информации удобно пользоваться следующими соотношениями теории вероятностей:

1) теорема умножения вероятностей ;

2) формула полной вероятности  

3) формула Байеса

Рассмотрим пример.

 Пример 1. Дана матрица

,  .

Определить:      

 Решение. По формуле полной вероятности имеем:  

   

Следовательно,

 

По теореме умножения

  

  

 

Следовательно,

Аналогично

 

 

2.2. Непрерывные системы передачи информации.

 Пусть  - реализации непрерывного сообщения на входе какого-либо блока схемы связи,  - реализация выходного сообщения (сигнала),  - одномерная плотность вероятности ансамбля входных сообщений,  - одномерная плотность вероятности ансамбля выходных сообщений,  - совместная плотность вероятности,  - условная плотность вероятности

при известном  Тогда для количества информации  справедливы следующие соотношения:

 

,

 

Здесь  - взаимная информация между каким-либо значением входного и значением выходного сообщений,   - средние значения условной информации,  - полная средняя взаимная информация.

Условная энтропия определяется по формуле:

 

Когда  и  статистически связаны между собой, то

При независимых  и

Полная средняя взаимная информация определяется формулой:

Рассмотрим пример.

 Пример 1. На вход приемного устройства воздействует колебание  где сигнал  и помеха  - независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно  и

Определить: 1) количество взаимной информации  которое содержится в каком-либо значении принятого колебания  о значении сигнала  2) полную среднюю взаимную информацию

 Решение. По условию задачи  представляет собой сумму независимых колебаний  и  которые имеют нормальные плотности вероятности. Поэтому

 

1. Количество информации определяется по формуле:

 

2. Полная средняя взаимная информация:

где  - знак усреднения по множеству.

Таким образом,

дв. ед.


 

А также другие работы, которые могут Вас заинтересовать

2428. Економіка і організація виробництва 165.38 KB
  Методологія вивчення дисципліни Економіка і організація виробництва. Основні фонди підприємств авіаційної промисловості і їх використання. Оборотні кошти і матеріально-технічне забезпечення підприємств в умовах ринкової економіки. Собівартість продукції підприємств. Основи ціноутворення. Комерційний розрахунок і фінанси підприємств. Виробничі процеси і принципи їх раціональної організації. Сутність і функції процесу управління виробництвом.
2429. Лексичні одиниці в програмуванні 121 KB
  Лексичний устрій тексту програм. Напередвизначені позначення. Класифікація напередвизначених типів. Алфавіт будь-якої мови програмування є підмножиною символів (літер), представлених у спеціальній таблиці ASCII.
2430. Аналіз табличних даних 157 KB
  Корпоративна система призначається як правило для оперативного управління. Тому для менеджерів-аналітиків, яким необхідно шукати оптимальні рішення, дуже актуальним є застосування підручних програмних засобів. Одним з таких засобів є табличний процесор Excel, що входить у загальнодоступний пакет Microsoft Office.
2431. Способи вираження кількісного складу розчинів 40.22 KB
  Розчинами є плазма крові, слина, шлунковий сік, сеча та інші рідини людського організму. З утворенням розчинів пов’язані процеси засвоєння їжі та виведення із організму продуктів життєдіяльності. У формі розчинів у організм вводиться багато лікарських препаратів. Тому лікареві необхідні знання про величини, що характеризують кількісний склад розчинів.
2432. Сучасні класифікаці психічних розладів. Невротичні розлади 34.5 KB
  МКХ-10 vs DSM-IV. Невротичні розлади: зміст поняття та історія вчення. Теорії етіології та патогенезу. Невротична симпоматика. Класифікація невротичних розладів.
2433. История средних веков. Возникновение мира: мифы и реальность 30.5 KB
  Вспомним статью о возникновении мира и миф о его творении. При всем их различии, у них есть нечто общее. Что? Они оба основаны на предпосылке: Мир имеет начало. Сама идея поиска начала вселенной во времени – далеко не очевидна. Идея творения мира из ничего – христианская идея, и зарождается она где-то в I в. н.э.
2434. Приготування розчинів із заданим кількісним складом 28.2 KB
  Розчини з молекулярним та іонним характером дисперсності розчиненої речовини – справжні розчини – найважливіша складова частина біологічних рідин. Водні розчини електролітів та низькомолекулярних речовин забезпечують постійний осмотичний тиск, активну реакцію середовища.
2435. Фактори психологічного розвитку людини 30 KB
  Нормативні вікові фактори, які знижуються у юнацькому віці. Нормативні історичні фактори, які є майже симетрично протилежними до вікових. Ненормативні фактори. Чим старшою стає людина, тим більше ці фактори на неї впливають.
2436. Соціальні установки 41 KB
  Установки, як ефективний спосіб оцінювання світу. Рольова поведінка та установки. Причина впливу поведінки на установки. Когнітивний дисонанс. Ефект недостатнього виправдання. Причини впливу поведінки на установки в руслі різних теорій.