ВУЗ:
Составители:
4
Энтропия системы зависимых величин
HXY HX HY X(, ) () ( / )=
+
или HXY HY HX Y(, ) () ( / )=
+
, (1.4)
где H(X)
− безусловная энтропия величины Х;
H(Y)
− безусловная энтропия величины Y;
H(Y/X)
− условная энтропия величины Y относительно величины Х;
H(X/Y)
− условная энтропия величины X относительно Y.
Для независимых величин
HX Y HX(/) ()= и HY X HY(/) ()
=
.
Условная энтропия X относительно Y
)]Y/X(Plog[M)y/x(Plog)y,x(P)Y/X(H
2
ij
ji2ji
−=−=
∑
∑
, (1.5)
где P(x
i
/y
j
) − вероятность значения x
i
величины X при условии, что величина Y
приняла значение y
j
(условная вероятность).
Условная энтропия величины X относительно значения y
j
величины Y
∑
∑
−=
ij
ji2jij
)y/x(Plog)y/x(P)y/X(H
. (1.6)
Условная энтропия Y относительно X
∑∑
−=
ij
ij2ji
)x/y(Plog)y,x(P)X/Y(H . (1.7)
1.1.2. Непрерывные случайные величины
Энтропия непрерывной случайной величины
xlogdx)x(plog)x(p)X(H
22
Δ−−=
∫
∞
∞−
, (1.8)
где p(x) − плотность вероятности случайной величины X;
x
Δ
− шаг ее кванто-
вания, определяющий точность перехода от непрерывной величины к дис-
кретной.
При Δx=1 имеем
дифференциальную или относительную энтропию
∫
∞
∞−
−= dx)x(plog)x(p)X(H
2д
. (1.9)
Энтропия системы непрерывных случайных величин X и Y
yxlogdxdy)y,x(plog)y,x(p)Y,X(H
22
ΔΔ−−=
∫∫
∞
∞−
∞
∞−
, (1.10)
где p(x,y) − совместная (безусловная) плотность вероятности двух случайных
величин X и Y.
Дифференциальная энтропия системы двух случайных величин
Страницы
- « первая
- ‹ предыдущая
- …
- 2
- 3
- 4
- 5
- 6
- …
- следующая ›
- последняя »