ВУЗ:
Составители:
формации, цветной кадр - около 1 Мбайта информации. Телевизионный фильм
продолжительностью 1,5 часа с частотой 25 кадров в секунду - 135 Гбайт.
Количество информации на синтаксическом уровне определяется с по-
мощью понятия неопределенности состояния системы (энтропия системы) по
формуле (1):
)()()(
α
α
α
ββ
HHI
−
= , (1)
где )(
α
β
I - количество информации о системе
α
, полученной в сообще-
нии
β
;
)(
α
H
- мера неосведомленности получателя о системе
α
до полу-
чения сообщения
β
(энтропия системы);
)(
α
β
H - неопределенность состояния системы
α
после получения
сообщения
β
.
В 1928 году американский инженер-связист Хартли предложил меру не-
определенности системы, имеющей n равновероятностных возможных состоя-
ний, вычислять по формуле:
)(log)(
2
nH
=
α
(2)
В случае неравновероятностных состояний системы энтропия системы
определяется по формуле Шеннона:
)(log)(log...)(log)(log)(
1
22222121 i
n
i
inn
ppppppppH
∑
=
−=−−−−=
α
, (3)
где
- вероятность наступления i -го состояния системы.
i
p
Основание логарифма может быть произвольным, так как его смена
приведет только к изменению единицы измерения. Наиболее часто использу-
ются двоичные и десятичные логарифмы. Единицами измерения в этих случаях
будут соответственно бит и дит.
Таким образом, единица измерения информации бит – это такое количе-
ство информации, которое содержит сообщение, уменьшающее неопределен-
ность о системе в два раза.
Одной из особенностей информации является возможность каждым
субъектом воспринимать определенное количество информации. Учитывая это,
одним из способов подсчета количества информации является такой, при кото-
ром ценность или содержательность получаемой от источника информации
есть величина не постоянная, определяемая источником, а зависящая от потре-
бителя информации. Одна и та же информация для разных субъектов может
быть различной. Такими относительными мерами измерения информации яв-
ляются семантическая и прагматическая мера измерения.
29
формации, цветной кадр - около 1 Мбайта информации. Телевизионный фильм
продолжительностью 1,5 часа с частотой 25 кадров в секунду - 135 Гбайт.
Количество информации на синтаксическом уровне определяется с по-
мощью понятия неопределенности состояния системы (энтропия системы) по
формуле (1):
I β (α ) = H (α ) − H β (α ) , (1)
где I β (α ) - количество информации о системе α , полученной в сообще-
нии β ;
H (α ) - мера неосведомленности получателя о системе α до полу-
чения сообщения β (энтропия системы);
H β (α ) - неопределенность состояния системы α после получения
сообщения β .
В 1928 году американский инженер-связист Хартли предложил меру не-
определенности системы, имеющей n равновероятностных возможных состоя-
ний, вычислять по формуле:
H (α ) = log 2 (n) (2)
В случае неравновероятностных состояний системы энтропия системы
определяется по формуле Шеннона:
n
H (α ) = − p1 log 2 ( p1 ) − p2 log 2 ( p2 ) − ... − pn log 2 ( pn ) = −∑ pi log 2 ( pi ) , (3)
i =1
где pi - вероятность наступления i -го состояния системы.
Основание логарифма может быть произвольным, так как его смена
приведет только к изменению единицы измерения. Наиболее часто использу-
ются двоичные и десятичные логарифмы. Единицами измерения в этих случаях
будут соответственно бит и дит.
Таким образом, единица измерения информации бит – это такое количе-
ство информации, которое содержит сообщение, уменьшающее неопределен-
ность о системе в два раза.
Одной из особенностей информации является возможность каждым
субъектом воспринимать определенное количество информации. Учитывая это,
одним из способов подсчета количества информации является такой, при кото-
ром ценность или содержательность получаемой от источника информации
есть величина не постоянная, определяемая источником, а зависящая от потре-
бителя информации. Одна и та же информация для разных субъектов может
быть различной. Такими относительными мерами измерения информации яв-
ляются семантическая и прагматическая мера измерения.
29
Страницы
- « первая
- ‹ предыдущая
- …
- 27
- 28
- 29
- 30
- 31
- …
- следующая ›
- последняя »
