ВУЗ:
Составители:
22
В современных компьютерах наряду с минимальной единицей данных — битом широ-
ко используется укрупненная единица измерения байт, равная 8 битам.
Определение количества информации на синтаксическом уровне связано с понятием
неопределенности состояния системы (энтропии системы).
Пусть до получения информации получатель мог иметь некоторые предварительные
(априорные) сведения о системе α, что количественно определяет мера неопределенности
состояния системы H(α).
После получения некоторого сообщения β получатель приобрел дополнительную ин-
формацию I
β
(α), уменьшившую его априорную неосведомленность так, что апостериорная
(после получения сообщения β) неопределенность состояния системы стала H(α/β).
Тогда количество информации
I
β
(α) о системе α, полученное в сообщении β, будет оп-
ределяться как:
I
β
(α) = H(α) - H(α/β).
Таким образом, количество информации измеряется изменением (уменьшением) неоп-
ределенности состояния системы. Если конечная неопределенность H(α/β) обратится в нуль,
то первоначальное неполное знание заменится полным знанием и количество информации
равно:
I
β
(α) = H(α).
Иными словами, энтропия системы H(α) может рассматриваться как мера недостающей ин-
формации. Энтропия системы H(α), имеющей N возможных состояний, согласно формуле
Шеннона равна
N
H(α) = - Σ P
i
log P
i
,
i=1
где P
i
- вероятность того, что система находится в i-м состоянии.
Для случая, когда все состояния системы равновероятны, то есть P
i
= 1 / N, ее энтропия
вычисляется как
N
H(α) = - Σ 1/N log 1/N = log N.
i=1
Семантическая мера информации. Для измерения смыслового содержания информа-
ции, то есть ее количества на семантическом уровне, наибольшее признание получила те-
заурусная мера информации, предложенная Ю.И. Шнейдером.
Мера связывает семантические свойства информации со способностью пользователя
воспринимать поступившее сообщение.
Семантические свойства информации отражает тезаурус пользователя как совокуп-
ность сведений о системе, которыми располагает пользователь
.
В зависимости от соотношений между смысловым содержанием информации S* и те-
заурусом пользователя S
п
, изменяется количество семантической информации I
с
, восприни-
маемой пользователем и включаемой им в дальнейшем в свой тезаурус:
при S
п
≈ 0 пользователь не воспринимает, не понимает поступающую информацию;
при S
п
→ ∞ ° пользователь все знает и поступающая информация ему не нужна.
И в том и в другом случае имеет место I
c
≈ 0 .
При разработке информационного обеспечения систем управления следует стремиться
В современных компьютерах наряду с минимальной единицей данных — битом широ- ко используется укрупненная единица измерения байт, равная 8 битам. Определение количества информации на синтаксическом уровне связано с понятием неопределенности состояния системы (энтропии системы). Пусть до получения информации получатель мог иметь некоторые предварительные (априорные) сведения о системе α, что количественно определяет мера неопределенности состояния системы H(α). После получения некоторого сообщения β получатель приобрел дополнительную ин- формацию Iβ(α), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы стала H(α/β). Тогда количество информации Iβ(α) о системе α, полученное в сообщении β, будет оп- ределяться как: Iβ(α) = H(α) - H(α/β). Таким образом, количество информации измеряется изменением (уменьшением) неоп- ределенности состояния системы. Если конечная неопределенность H(α/β) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации равно: Iβ(α) = H(α). Иными словами, энтропия системы H(α) может рассматриваться как мера недостающей ин- формации. Энтропия системы H(α), имеющей N возможных состояний, согласно формуле Шеннона равна N H(α) = - Σ Pi log Pi, i=1 где Pi - вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны, то есть Pi = 1 / N, ее энтропия вычисляется как N H(α) = - Σ 1/N log 1/N = log N. i=1 Семантическая мера информации. Для измерения смыслового содержания информа- ции, то есть ее количества на семантическом уровне, наибольшее признание получила те- заурусная мера информации, предложенная Ю.И. Шнейдером. Мера связывает семантические свойства информации со способностью пользователя воспринимать поступившее сообщение. Семантические свойства информации отражает тезаурус пользователя как совокуп- ность сведений о системе, которыми располагает пользователь. В зависимости от соотношений между смысловым содержанием информации S* и те- заурусом пользователя Sп, изменяется количество семантической информации Iс, восприни- маемой пользователем и включаемой им в дальнейшем в свой тезаурус: при Sп ≈ 0 пользователь не воспринимает, не понимает поступающую информацию; при Sп → ∞ ° пользователь все знает и поступающая информация ему не нужна. И в том и в другом случае имеет место Ic ≈ 0 . При разработке информационного обеспечения систем управления следует стремиться 22
Страницы
- « первая
- ‹ предыдущая
- …
- 20
- 21
- 22
- 23
- 24
- …
- следующая ›
- последняя »