Составители:
Рубрика:
6
Действительно, один разряд может принимать одно из двух значений : 0 и 1, т. е.
N = 2. Тогда I = log
2
2 = 1бит.
Формула Хартли справедлива только тогда, когда каждое из N сообщений
появляется с равной вероятностью. Дело в том, что информацию несет только
сообщение, заранее не известное приемнику этого сообщения. Количество
информации в достоверном (т. е. в заранее известном сообщении), равно нулю.
В общем случае количество информации, содержащейся в одном сообщении,
зависит
от вероятности появления этого сообщения:
Ii = log
2
( 1/ p
i
)
[бит] (2.2)
где
p
i
– вероятность появления i – го сообщения.
Из приведенной формулы видно, что чем менее вероятно полученное
сообщение, тем больше информации оно несет. Если закон распределения
значений измеряемого параметра (в диапазоне изменения этого параметра) не
является равновероятным, получаемые в процессе измерений результаты будут
нести различное количество информации.
2.2 Энтропия
2.2.1 Энтропия источника дискретных сообщений
Для информационной оценки системы “исследуемый объект – средство
измерения” в теории информации введено понятие энтропии. Энтропия – это
среднее количество информации, приходящейся на одно сообщение.
Для получения формулы, позволяющей определить энтропию, рассмотрим
источник информации, который может выдавать N независимых дискретных
сообщений с вероятностями p
1
, p
2
, ..., p
i
, ..., p
N
. Рассмотрим длинную
последовательность из m сообщений ( m >> N ). В соответствии с теорией
вероятности каждое i – тое сообщение появится в такой последовательности m
*
p
i
раз. С учетом того, что каждое i – тое сообщение несет информацию I
1i
= log
2
1/p
i
= – log p
i
, все полученные i –тые сообщения дадут информацию I
mi
= – m
*
p
i*
log
2
p
i
. Общая информация от всех m сообщений будет равна I
m
= – m
*
Σp
i *
log
2
p
i
.
Среднее количество информации, приходящееся на одно сообщение, т. е.
энтропия источника, будет:
H = I
m
/ m = – Σ p
i *
log
2
p
i
[бит]
(2.3)
Эта формула получила название формулы Шеннона.
Действительно, один разряд может принимать одно из двух значений : 0 и 1, т. е. N = 2. Тогда I = log 2 2 = 1бит. Формула Хартли справедлива только тогда, когда каждое из N сообщений появляется с равной вероятностью. Дело в том, что информацию несет только сообщение, заранее не известное приемнику этого сообщения. Количество информации в достоверном (т. е. в заранее известном сообщении), равно нулю. В общем случае количество информации, содержащейся в одном сообщении, зависит от вероятности появления этого сообщения: Ii = log 2 ( 1/ pi ) [бит] (2.2) где pi – вероятность появления i – го сообщения. Из приведенной формулы видно, что чем менее вероятно полученное сообщение, тем больше информации оно несет. Если закон распределения значений измеряемого параметра (в диапазоне изменения этого параметра) не является равновероятным, получаемые в процессе измерений результаты будут нести различное количество информации. 2.2 Энтропия 2.2.1 Энтропия источника дискретных сообщений Для информационной оценки системы “исследуемый объект – средство измерения” в теории информации введено понятие энтропии. Энтропия – это среднее количество информации, приходящейся на одно сообщение. Для получения формулы, позволяющей определить энтропию, рассмотрим источник информации, который может выдавать N независимых дискретных сообщений с вероятностями p1, p2, ..., pi, ..., pN. Рассмотрим длинную последовательность из m сообщений ( m >> N ). В соответствии с теорией вероятности каждое i – тое сообщение появится в такой последовательности m * pi раз. С учетом того, что каждое i – тое сообщение несет информацию I1i = log 2 1/pi = – log pi , все полученные i –тые сообщения дадут информацию Imi = – m*pi*log2 pi . Общая информация от всех m сообщений будет равна Im = – m* Σpi *log 2pi . Среднее количество информации, приходящееся на одно сообщение, т. е. энтропия источника, будет: H = Im / m = – Σ pi * log 2 pi [бит] (2.3) Эта формула получила название формулы Шеннона. 6
Страницы
- « первая
- ‹ предыдущая
- …
- 4
- 5
- 6
- 7
- 8
- …
- следующая ›
- последняя »