Информационные технологии: Электронный учебник. Рагулин П.Г. - 22 стр.

UptoLike

Составители: 

22
В современных компьютерах наряду с минимальной единицей данныхбитом широ-
ко используется укрупненная единица измерения байт, равная 8 битам.
Определение количества информации на синтаксическом уровне связано с понятием
неопределенности состояния системы (энтропии системы).
Пусть до получения информации получатель мог иметь некоторые предварительные
(априорные) сведения о системе α, что количественно определяет мера неопределенности
состояния системы H(α).
После получения некоторого сообщения β получатель приобрел дополнительную ин-
формацию I
β
(α), уменьшившую его априорную неосведомленность так, что апостериорная
(после получения сообщения β) неопределенность состояния системы стала H(α/β).
Тогда количество информации
I
β
(α) о системе α, полученное в сообщении β, будет оп-
ределяться как:
I
β
(α) = H(α) - H(α/β).
Таким образом, количество информации измеряется изменением (уменьшением) неоп-
ределенности состояния системы. Если конечная неопределенность H(α/β) обратится в нуль,
то первоначальное неполное знание заменится полным знанием и количество информации
равно:
I
β
(α) = H(α).
Иными словами, энтропия системы H(α) может рассматриваться как мера недостающей ин-
формации. Энтропия системы H(α), имеющей N возможных состояний, согласно формуле
Шеннона равна
N
H(α) = - Σ P
i
log P
i
,
i=1
где P
i
- вероятность того, что система находится в i-м состоянии.
Для случая, когда все состояния системы равновероятны, то есть P
i
= 1 / N, ее энтропия
вычисляется как
N
H(α) = - Σ 1/N log 1/N = log N.
i=1
Семантическая мера информации. Для измерения смыслового содержания информа-
ции, то есть ее количества на семантическом уровне, наибольшее признание получила те-
заурусная мера информации, предложенная Ю.И. Шнейдером.
Мера связывает семантические свойства информации со способностью пользователя
воспринимать поступившее сообщение.
Семантические свойства информации отражает тезаурус пользователя как совокуп-
ность сведений о системе, которыми располагает пользователь
.
В зависимости от соотношений между смысловым содержанием информации S* и те-
заурусом пользователя S
п
, изменяется количество семантической информации I
с
, восприни-
маемой пользователем и включаемой им в дальнейшем в свой тезаурус:
при S
п
0 пользователь не воспринимает, не понимает поступающую информацию;
при S
п
° пользователь все знает и поступающая информация ему не нужна.
И в том и в другом случае имеет место I
c
0 .
При разработке информационного обеспечения систем управления следует стремиться
     В современных компьютерах наряду с минимальной единицей данных — битом широ-
ко используется укрупненная единица измерения байт, равная 8 битам.
     Определение количества информации на синтаксическом уровне связано с понятием
неопределенности состояния системы (энтропии системы).
     Пусть до получения информации получатель мог иметь некоторые предварительные
(априорные) сведения о системе α, что количественно определяет мера неопределенности
состояния системы H(α).
     После получения некоторого сообщения β получатель приобрел дополнительную ин-
формацию Iβ(α), уменьшившую его априорную неосведомленность так, что апостериорная
(после получения сообщения β) неопределенность состояния системы стала H(α/β).
     Тогда количество информации Iβ(α) о системе α, полученное в сообщении β, будет оп-
ределяться как:
                                    Iβ(α) = H(α) - H(α/β).
     Таким образом, количество информации измеряется изменением (уменьшением) неоп-
ределенности состояния системы. Если конечная неопределенность H(α/β) обратится в нуль,
то первоначальное неполное знание заменится полным знанием и количество информации
равно:
                                        Iβ(α) = H(α).
Иными словами, энтропия системы H(α) может рассматриваться как мера недостающей ин-
формации. Энтропия системы H(α), имеющей N возможных состояний, согласно формуле
Шеннона равна
                                                 N
                                     H(α) = - Σ Pi log Pi,
                                             i=1


где Pi - вероятность того, что система находится в i-м состоянии.
    Для случая, когда все состояния системы равновероятны, то есть Pi = 1 / N, ее энтропия
вычисляется как
                                        N
                               H(α) = - Σ 1/N log 1/N = log N.
                                      i=1


     Семантическая мера информации. Для измерения смыслового содержания информа-
ции, то есть ее количества на семантическом уровне, наибольшее признание получила те-
заурусная мера информации, предложенная Ю.И. Шнейдером.
     Мера связывает семантические свойства информации со способностью пользователя
воспринимать поступившее сообщение.
     Семантические свойства информации отражает тезаурус пользователя как совокуп-
ность сведений о системе, которыми располагает пользователь.
     В зависимости от соотношений между смысловым содержанием информации S* и те-
заурусом пользователя Sп, изменяется количество семантической информации Iс, восприни-
маемой пользователем и включаемой им в дальнейшем в свой тезаурус:
     ƒ при Sп ≈ 0 пользователь не воспринимает, не понимает поступающую информацию;
     ƒ при Sп → ∞ ° пользователь все знает и поступающая информация ему не нужна.
И в том и в другом случае имеет место Ic ≈ 0 .
     При разработке информационного обеспечения систем управления следует стремиться

                                                 22