,        (12)

где – различные плотности распределения вероятности. При статистической независимости X, Y имеем , следовательно .

Формулы (11) и (12) принимаются как различные определения информации. Из формулы (9) следует, что информацию, определенную по формуле (11), можно назвать случайной энтропией [2], а энтропию – средним значением информации I(X/Y).

В каждом из этих двух определений (формулы (11), (12)) содержатся следующие общие свойства информации: информация положительная величина (I > 0) и определена при наличии некоторого условия, асимметрии (). Учитывая это мы можем принять информацию I как определяющую переменную, обладающей двумя указанными свойствами, независимо от способа ее определения. Далее установим дополнительные ее свойства – существование значений определяющих случайную (локальную) и среднюю (глобальную) энтропии как границы интервала нарушения симметрии – самоорганизации.

Энтропия непрерывного сигнала

Строго говоря, энтропия непрерывных сигналов равна бесконечности, так как бесконечны и количество возможных сообщений (ансамбль сообщений является континуумом), и его логарифм. Тем не менее, попробуем обобщить понятие энтропии дискретного сигнала на непрерывный сигнал.

Представим непрерывный сигнал в виде непрерывной случайной величины х. Плотность вероятности которой равна р(х) и заменим его соответствующим дискретным, введя процесс квантования (см. рис. 2). Плотностью вероятности, или плотностью распределения вероятностей случайной величины х называется предел отношения вероятности попадания величины х в интервал (х – ∆х/2, х + ∆х/2) к ∆х при ∆х → 0.

НЕ нашли? Не то? Что вы ищете?

Тогда вероятность к-ого состояния определяется как

       .        

Энтропия непрерывного квантованного сигнала запишется в виде:

       .

При достаточно малых ∆х и гладкой функции р(х) можно считать, что (теорема о среднем)

       .

Тогда в пределе при стремлении ∆х к нулю получим энтропию исходного непрерывного сигнала:

        (13)

так как .

Как и следовало ожидать, при ∆x → 0, энтропия квантованного сигнала → ∞. На первый взгляд, полученный результат может показаться весьма обнадеживающим: если энтропия сигнала неограниченно велика, значит с помощью него можно передавать неограниченное количество информации! Для этого достаточно лишь снять неопределенность, которую он априорно заключает в своем состоянии. Но что значит полностью снять неопределенность? Это значит получить абсолютно точный отсчет значения принятого сигнала. Но ведь этого-то и нельзя осуществить в реальных случаях. Непрерывный сигнал всегда воспринимается приближенно, с ограниченной точностью.

Таким образом, непрерывные сигналы не имеют абсолютной меры энтропии. Поэтому для них вводят понятие относительной энтропии, то есть определяют энтропию непрерывного сигнала х относительно другого непрерывного сигнала, например, x′.

В качестве эталона чаще всего выбирается непрерывный сигнал x′, имеющий равномерный закон распределения в интервале е. Формула (13) для такого сигнала перепишется в виде

       

так как

       

Неопределенность непрерывной величины х характеризуется числом, к которому стремится разность энтропий x и x′:

       

Если положить е = 1 (т. е. стандартная величина (эталон) имеет равномерный закон распределения в единичном интервале), то формула примет вид

Следует помнить, что это неабсолютная мера энтропии непрерывного сигнала. Это – относительная энтропия, где за стандарт взято равномерно распределённая в единичном интервале величина. Иногда её называют дифференциальной е - энтропией. Если выбрать другой закон распределения значений сигнала х', то выражение для относительной энтропии сигнала х также примет другой вид.

Относительная энтропия непрерывного сигнала (или сообщения) (ОЭНС) обладает свойствами, во многом аналогичными свойствам энтропии дискретных сигналов. Но есть и различия. Например, энтропия дискретного сигнала зависит лишь от вероятностей и не зависит от самих значений сигналов (можно сказать, что она зависит от закона распределения сигнала лишь частично). ОЭНС в общем случае зависит от закона распределения почти полностью. Это «почти» – намек на исключение, которое оставляет лишь независимость энтропии от постоянной составляющей сигнала.

Итак, сформулируем первое свойство ОЭНС: ОЭНС не изменится, если к сигналу прибавить неслучайную величину с.

Действительно, если распределение значений сигнала х равно , то распределение сигнала у=х+с равно и энтропия сигнала у определяется выражением

       

Экстремальные свойства энтропии непрерывных сигналов. Пусть задан какой-то ансамбль сообщений или сигналов, о котором известны некоторые параметры. Например, пределы изменения, дисперсия, математическое ожидание.

Напомним, что для приближенного описания случайной величины вводят числовые характеристики – так называемые моменты. Начальный момент первого порядка называется математическим ожиданием [4]:

       ,

где р(х) – функция распределения случайной величины. Для дискретных случайных величин,

       ,

где р(хi) – вероятность появления случайной величины .

Математическое ожидание характеризует центр рассеивания значений случайной величины.

Центральный момент второго порядка называется дисперсией

       .

Дисперсия характеризует степень рассеивания возможных значений случайной величины около её математического ожидания. Корень у = называется квадратичным отклонением.

Требуется подобрать такой закон распределения этого ансамбля, при котором энтропия была бы максимальной. Можно дать следующую физическую интерпретацию этому принципу максимальной энтропии: требуется создать помеху каналу связи противника таким образом, чтобы обеспечить в нем максимум неопределенности. Очевидно, при заданных параметрах наилучший эффект будет достигнут, если выбрать такой закон распределения помехи, при котором энтропия принимает максимальное значение.

Пусть задана ограниченная на непрерывная случайная величина с неизвестной плотностью распределения причем

       .        (14)

Требуется найти аналитическое выражение для , которое дает максимум энтропии, задаваемой функционалом

       .        

Для решения можно использовать один из методов оптимизации при решении задачи нелинейного программирования – метод неопределенных множителей Лагранжа.1

Составляем функционал

       .        

Берем частную производную по и приравниваем ее к нулю (знак интеграла в силу непрерывности подынтегральной функции можно отбросить):

       

тогда

       .        (15)

Из за большого объема этот материал размещен на нескольких страницах:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21