Информатика: гуманитарно-технический аспект. Ишакова Е.Н. - 105 стр.

UptoLike

Составители: 

б) количество новых знаний, полученных пользователем;
в) полезность информации для достижения поставленной пользователем
цели;
г) количество символов в сообщении.
4.2.7 Какое количество синтаксической информации содержит сообще-
ние: «блок контроля»:
а) 65 бит; б) 104 бита; в) 13 байт г) 60 бит.
4.2.8 Энтропия системы, имеющей
n не равновероятностных состояний
определяется по формуле:
а) Хартли
)(log)(
1
2 i
n
i
i
ppH
=
=
α
б) Хартли
)(log)(
2
nH =
α
в) Шеннона
)(log)(
1
2 i
n
i
i
ppH
=
=
α
г) Шеннона
)(log)(
2
nH =
α
.
4.2.9 Какие их перечисленных характеристик информации не являются
качественными:
а) объем данных в сообщении;
б) достаточность информации для принятия решения;
в) степень близости информации к реальному состоянию объекта, про-
цесса, явления;
г) отношение количества семантической информации в сообщении к
объему обрабатываемых данных.
4.2.10 Что из перечисленного не характеризует ценность информации:
а) прагматическое свойство, влияющее на поведение того, кто воспри-
нимает информацию;
б) приращение вероятности достижения цели;
в) величина, зависящая от потребителя информации;
г) степень соответствия информации текущему моменту.
4.2.11 Даны числа в разных системах счисления:
X=111
2
, Y=73
8
, Z=3А
16
.
Для этих чисел справедливы соотношения:
а)
X<Y<Z;
б)
Y<X<Z;
в)
Z<X<Y
г)
X<Z<Y.
4.2.12 Разность двух чисел 1203
8
и 231
16
равна:
а) 725
8
105
        б) количество новых знаний, полученных пользователем;
        в) полезность информации для достижения поставленной пользователем
цели;
        г) количество символов в сообщении.

       4.2.7 Какое количество синтаксической информации содержит сообще-
ние: «блок контроля»:
       а) 65 бит; б) 104 бита; в) 13 байт г) 60 бит.

      4.2.8 Энтропия системы, имеющей n не равновероятностных состояний
определяется по формуле:
                               n
        а) Хартли H (α ) = −∑ pi log 2 ( pi )
                              i =1
        б) Хартли H (α ) = log 2 (n)
                                     n
        в) Шеннона H (α ) = −∑ pi log 2 ( pi )
                                   i =1
        г) Шеннона H (α ) = log 2 (n) .

        4.2.9 Какие их перечисленных характеристик информации не являются
качественными:
        а) объем данных в сообщении;
        б) достаточность информации для принятия решения;
        в) степень близости информации к реальному состоянию объекта, про-
цесса, явления;
        г) отношение количества семантической информации в сообщении к
объему обрабатываемых данных.

      4.2.10 Что из перечисленного не характеризует ценность информации:
      а) прагматическое свойство, влияющее на поведение того, кто воспри-
нимает информацию;
      б) приращение вероятности достижения цели;
      в) величина, зависящая от потребителя информации;
      г) степень соответствия информации текущему моменту.

       4.2.11 Даны числа в разных системах счисления: X=1112, Y=738, Z=3А16.
Для этих чисел справедливы соотношения:
       а) X