Основы информационной культуры. Библиография. Вып. 1. Кириленко А.В. - 11 стр.

UptoLike

Составители: 

10
Внутри отдельных научных дисциплин применяются обычно
функциональные определения понятия информации, отражающие те
свойства информации, которые наиболее существенны для данной
дисциплины, и направленные во многом на выявление функций
информации. Вот как, например, определяется информация в учебнике
«Информатика» под редакцией С. В. Симоновича: Информацияэто
продукт взаимодействия данных и адекватных им методов
(Данныеэто
зарегистрированные сигналы)
ГОСТ 7.0-99 «Информационно-библиотечная деятельность,
библиография. Термины и определения» (введен в 2000 г.) дает следующую
формулировку: информациясведения, воспринимаемые человеком и (или)
специальными устройствами как отражение фактов материального или
духовного мира в процессе коммуникации.
3.2. Энтропия и информация.
Одним из наиболее распространенных в мире подходов к определению
понятия
информации в настоящее время является подход, базирующийся на
вероятностно-статистической теории информации К. Шеннона. Этот подход,
возникший в рамках теории связи, таким образом, изначально
функциональный, оказался настолько глубоким, что, фактически, совместил
в себе черты и функционального и философско-методологического
подходов. Идею о взаимосвязи энтропии и информации, которая стала
стержнем теории Шеннона
, развил Л. Бриллюэн.
Американский учёный Клод Шеннон предложил в 1948 г. формулу
определения количества информации, учитывающую возможную
неодинаковую вероятность сообщений в наборе:
где p
i
- вероятности отдельных событий, n - количество возможных
событий, I количество информации. Знак минус в формуле Шеннона не
означает, что количество информации в сообщенииотрицательная
величина. Объясняется это тем, что вероятность p
i
, согласно определению,
меньше единицы, но больше нуля. Так как логарифм числа, меньшего
единицы, т.е. log p
i
- величина отрицательная, то произведение вероятности
на логарифм числа будет положительным. Из формулы Шеннона можно
сделать вывод, что чем меньше вероятность тех или иных явлений или
событий (т. е. чем больше степень их неопределенности), тем большее
количество информации содержится в сообщениях об этих явлениях или
событиях. Само же информационное сообщение уменьшает (
снимает)
неопределенность. Следует подчеркнуть, что под информацией Шеннон
понимал полезные для получателя сигналы. Неполезные сигналы, с точки
зрения Шеннона, это шум, помехи, которые ученый связал с энтропией.
Если сигнал на выходе канала связи является точной копией сигнала на