ВУЗ:
Составители:
Рубрика:
поэтому происходит нарушение этих состояний из-за рассогласования кодов, через которые взаимодействуют объекты. Ино-
гда специально эти помехи создаются. Ярким примером этого явления является криптография – специальное рассекречива-
ние кодов.
3.3.2. ТИПЫ СИГНАЛОВ
Поскольку сигналы служат для перенесения информации в пространстве и времени, то они должны быть устойчивы как
по отношению к течению времени, так и к изменению положения в пространстве. Они делятся на:
1) статические;
2) динамические.
В первом случае сигналы являются стабильными во времени или не меняющимися, хотя бы в каком-то моменте време-
ни.
Ко второму типу относятся сигналы, которые используются для описания динамических полей, например, звук (приме-
няется модуляция и демодуляция).
Понятно, что динамические сигналы преимущественно используются для передачи сигналов, а статические – для хра-
нения.
Сигналы играют в системах особую, очень важную роль. Если энергетические и/или вещественные потоки питают сис-
тему, то
потоки информации
,
переносимые сигналами
,
организуют её функционирование
,
управляют её работой
.
Виннер сказал, что общество простирается до тех пределов, до каких распространяется информация, это относится к
любой системе, т.е. если мы берём систему общества, то она и развивается, и управляется с помощью информационных по-
токов, там, где информация прерывается, то вы уже вне общества.
3.3.3. ПОНЯТИЕ НЕОПРЕДЕЛЁННОСТИ. ЭНТРОПИЯ И ЕЁ СВОЙСТВА
Первым или специфическим понятием теории информации является понятие неопределённости случайного объекта.
Для количественной оценки этой неопределённости было введено понятие, называемое энтропией, т.е.
энтропия
–
это ко-
личественная мера неопределённости
.
Начнём с простейшего варианта события, пусть некоторое событие может произойти с вероятностью 0,99 и не произой-
ти с вероятностью 0,01, а другое событие имеет вероятность соответственно 0,5 и 0,5. Очевидно, что в первом случае резуль-
татом опыта, эксперимента почти наверняка является наступление события, а во втором случае неопределённость так вели-
ка, что от прогноза следует воздержаться.
В качестве меры неопределённости в теории информации было введено понятие, называемое энтропией случайного
объекта или системы.
Если какой-либо объект
А
имеет состояние
А
1
, …,
А
n
а вероятность каждого из этих состояний
p
1
, …,
p
n
, то энтропия
этого события
( )
∑
=
−=
n
k
kk
ppAH
1
log
. (3.8)
Рассмотрим свойства этой энтропии:
1) Если вероятность наступления одного из
n
-событий = 1, то энтропия этого состояния = 0
(
)
0...,,
1
=
n
ppH
, при условии
1=
i
p
.
2) Энтропия достигает своего небольшого значения в том случае, если вероятности
p
1
, …,
p
n
равны между собой, т.е.
(
)
max...,,
1
=
n
ppH
, если:
n
pppp
n
1
...
321
=====
;
∑
=1
i
p
;
np
i
1=
.
3) Если объекты
А
и
В
независимы, то их энтропия равна сумме энтропий каждого объекта
(
)
{
}
{
}
(
)
(
)
BHAHqHpHBAH
mk
+=+=∩
.
4) Если объекты
А
и
В
зависимы, то энтропия их
(
)
(
)
(
)
ABHAHBAH
+=∩
,
т.е. при условии наступления события
А
.
5) Энтропия события
А
≥ энтропии
(
)
BAH
события
А
при событии
В
(
)
(
)
BAHAH
≥
,
т
.
е
.
информация об объекте В всегда уменьшает неопределённость события А
,
если А и В зависимы
,
и не изменяются
,
если
события А и В независимы
.
Вывод:
свойства функционала Н возможно использовать в качестве меры неопределённости
, причём следует от-
метить, что если пойти в обратном направлении, т.е. задать желаемые свойства меры неопределённости и искать обладаю-
Страницы
- « первая
- ‹ предыдущая
- …
- 31
- 32
- 33
- 34
- 35
- …
- следующая ›
- последняя »