Основы информационных технологий и автоматизированного проектирования в строительстве. Пеньковский Г.Ф. - 6 стр.

UptoLike

Составители: 

10 11
2. Передача информации. Как видно из схемы передачи информа-
ции (см. рис. 2), процедура передачи включает в себя кодирование и раско-
дирование сигналов, передачу и прием сигналов, передачу сигналов по
каналам связиэлектрическим, электромагнитным, световым, механичес-
ким, звуковым, с помощью провода, световода или без их использования.
3. Переработка информации. В информационных технологиях
переработка
информации осуществляется получателем информации (ад-
ресатом) в соответствии с задачами этих технологий, с применением или
без применения средств автоматизации. В современных технологиях для
этой цели используется вычислительная техника четвертого и пятого
поколений с большой памятью и скоростью проведения операций.
4. Использование информации. Конечной целью всех видов ра-
бот с информацией является ее
использование в конкретных производ-
ственных или политических процессахначиная от создания этих про-
цессов (проектирования), их организации и управления процессами до
получения нужного результата.
5. Хранение информации. Как важный ресурс информационного
общества информация требует бережного отношения к своей сохранно-
сти и готовности к использованию. Фиксируется и хранится информа-
ция на различных
носителях, которые могут быть:
а) бумажнымипечатные издания, рукописные работы;
б) пленочнымикинофильмы, диапозитивы;
в) пластмассовымидиски, пластины;
г) магнитнымидиски, ленты;
д) оптическимилазерные компакт-диски;
е) биологическимив растительном и животном мире.
1.4. Оценка количества и качества информации в технике связи
В статистической теории информации К. Шеннона, используемой
в технике
связи, количество информации оценивается степенью сниже-
ния неопределенности состояния некоторой системы после поступления
в нее соответствующего количества информации.
Неопределенность состояния системы характеризуется заимство-
ванным из молекулярной физики понятиемэнтропией [3, 13].
Количество информации определяется по формуле
)(Э)(Э
)(
ED
DE
J
, (1)
где
)(Э D
исходная энтропия системы;
)(Э E
энтропия системы после
получения сообщения
E
.
Для системы, имеющей N возможных состояний, энтропия опреде-
ляется по формуле
¦
D
N
i
ii
PP
1
log)(Э
, (2)
где
i
P
вероятность того, что система находится в i-м состоянии;
Nполная группа состояний для системы.
В формулах (1) и (2) единицы измерения количества информации и
энтропии зависят от основания логарифма. При основании логарифма
«2» это биты, при основании «e» – наты, при основании «10»диты.
Формулу Шеннона для энтропии (2) можно записать в таком виде:
¦
D
N
i
i
i
P
P
1
1
log)(Э
. (3)
Здесь первый множитель
i
P
характеризует вероятность состояния
системы i и ее возможное изменение после получения информации
E
.
Второй множитель log1/P
i
отражает вероятностную значимость состоя-
ния системы. Чем меньше становится вероятность состояния системы
i
P
после получения сообщения
E
, тем больше значение этого сообщения.
Сложность использования формулы Шеннона для оценки количе-
ства и качества информации состоит в трудности получения вероятност-
ных параметров формулы. В качестве примеров расчета некоторые авто-
ры используют результаты подбрасывания монет, игральных костей или
определения количества голубоглазых девушек среди блондинок, что мало
подходит для сбора статистики в
теории информации.
Структура формул (1) и (2) не претендует на описание всех свойств
информации, описаных ранее. Сам Шеннон [13] говорит об интуитив-
ном происхождении логарифмической записи для числа сообщений. При
этом единицы измерения количества информации и энтропии оказались
зависимыми от математической формы записи. Невозможно дать физи-
ческое толкование этим единицам, как это можно сделать для
всех дру-
гих единиц измерения. Такая запись удобнее в математических преобра-
зованиях, но может быть и другой. Надо отметить, что аналогия между
свойствами информации и поведением молекул в молекулярной физике
принята без специального обоснования и лишь весьма приближенно от-