Информатика: гуманитарно-технический аспект. Ишакова Е.Н. - 29 стр.

UptoLike

Составители: 

формации, цветной кадр - около 1 Мбайта информации. Телевизионный фильм
продолжительностью 1,5 часа с частотой 25 кадров в секунду - 135 Гбайт.
Количество информации на синтаксическом уровне определяется с по-
мощью понятия неопределенности состояния системы (энтропия системы) по
формуле (1):
)()()(
α
α
α
ββ
HHI
= , (1)
где )(
α
β
I - количество информации о системе
α
, полученной в сообще-
нии
β
;
)(
α
H
- мера неосведомленности получателя о системе
α
до полу-
чения сообщения
β
(энтропия системы);
)(
α
β
H - неопределенность состояния системы
α
после получения
сообщения
β
.
В 1928 году американский инженер-связист Хартли предложил меру не-
определенности системы, имеющей n равновероятностных возможных состоя-
ний, вычислять по формуле:
)(log)(
2
nH
=
α
(2)
В случае неравновероятностных состояний системы энтропия системы
определяется по формуле Шеннона:
)(log)(log...)(log)(log)(
1
22222121 i
n
i
inn
ppppppppH
=
==
α
, (3)
где
- вероятность наступления i -го состояния системы.
i
p
Основание логарифма может быть произвольным, так как его смена
приведет только к изменению единицы измерения. Наиболее часто использу-
ются двоичные и десятичные логарифмы. Единицами измерения в этих случаях
будут соответственно бит и дит.
Таким образом, единица измерения информации битэто такое количе-
ство информации, которое содержит сообщение, уменьшающее неопределен-
ность о системе в два раза.
Одной из особенностей информации является возможность каждым
субъектом воспринимать определенное количество информации. Учитывая это,
одним из способов подсчета количества информации является такой, при кото-
ром ценность или содержательность получаемой от источника информации
есть величина не постоянная, определяемая источником, а зависящая от потре-
бителя информации. Одна и та же информация для разных субъектов может
быть различной. Такими относительными мерами измерения информации яв-
ляются семантическая и прагматическая мера измерения.
29
формации, цветной кадр - около 1 Мбайта информации. Телевизионный фильм
продолжительностью 1,5 часа с частотой 25 кадров в секунду - 135 Гбайт.
      Количество информации на синтаксическом уровне определяется с по-
мощью понятия неопределенности состояния системы (энтропия системы) по
формуле (1):

                          I β (α ) = H (α ) − H β (α ) ,                                         (1)

      где I β (α ) - количество информации о системе α , полученной в сообще-
           нии β ;
           H (α ) - мера неосведомленности получателя о системе α до полу-
           чения сообщения β (энтропия системы);
           H β (α ) - неопределенность состояния системы α после получения
           сообщения β .
       В 1928 году американский инженер-связист Хартли предложил меру не-
определенности системы, имеющей n равновероятностных возможных состоя-
ний, вычислять по формуле:

               H (α ) = log 2 (n)                                                               (2)

      В случае неравновероятностных состояний системы энтропия системы
определяется по формуле Шеннона:

                                                                            n
      H (α ) = − p1 log 2 ( p1 ) − p2 log 2 ( p2 ) − ... − pn log 2 ( pn ) = −∑ pi log 2 ( pi ) , (3)
                                                                           i =1


       где pi - вероятность наступления i -го состояния системы.
       Основание логарифма может быть произвольным, так как его смена
приведет только к изменению единицы измерения. Наиболее часто использу-
ются двоичные и десятичные логарифмы. Единицами измерения в этих случаях
будут соответственно бит и дит.
       Таким образом, единица измерения информации бит – это такое количе-
ство информации, которое содержит сообщение, уменьшающее неопределен-
ность о системе в два раза.
       Одной из особенностей информации является возможность каждым
субъектом воспринимать определенное количество информации. Учитывая это,
одним из способов подсчета количества информации является такой, при кото-
ром ценность или содержательность получаемой от источника информации
есть величина не постоянная, определяемая источником, а зависящая от потре-
бителя информации. Одна и та же информация для разных субъектов может
быть различной. Такими относительными мерами измерения информации яв-
ляются семантическая и прагматическая мера измерения.

                                                                                                   29