Информатика 10-11. Книга 1. Теория (с задачами и решениями). Шауцукова Л.З. - 7 стр.

UptoLike

Составители: 

1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику
(телезрителю) от источникаспециалиста-метеоролога посредством канала
связителевизионной передающей аппаратуры и телевизора.
2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.)
воспринимает информацию из внешнего мира, перерабатывает её в определенную
последовательность нервных импульсов, передает импульсы по нервным
волокнам, хранит в памяти в виде состояния нейронных структур мозга,
воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе
своей жизнедеятельности.
Передача информации по каналам связи часто сопровождается воздействием помех,
вызывающих искажение и потерю информации.
1.5. Как измеряется количество информации?
Какое количество информации содержится, к примеру, в тексте романа "Война и
мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука
не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить
количество информации? Важнейшим результатом теории информации является
следующий вывод:
В определенных, весьма широких условиях можно пренебречь качественными
особенностями информации, выразить её количество числом, а также сравнить количество
информации, содержащейся в различных группах данных.
В настоящее время получили распространение подходы к определению понятия
"количество информации", основанные на том, что информацию, содержащуюся в
сообщении, можно нестрого трактовать в смысле её новизны или, иначе,
уменьшения неопределённости наших знаний об объекте. Эти подходы используют
математические понятия вероятности и логарифма.
Подходы к определению количества информации. Формулы Хартли и
Шеннона.
Американский инженер Р. Хартли в 1928 г. процесс получения информации
рассматривал как выбор одного сообщения из конечного наперёд заданного
множества из N равновероятных сообщений, а количество информации I,
содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли: I = log
2
N
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле
Хартли можно вычислить, какое количество информации для этого требуется: I = log
2
100
   1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику
      (телезрителю) от источника — специалиста-метеоролога посредством канала
      связи — телевизионной передающей аппаратуры и телевизора.
   2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.)
      воспринимает информацию из внешнего мира, перерабатывает её в определенную
      последовательность нервных импульсов, передает импульсы по нервным
      волокнам, хранит в памяти в виде состояния нейронных структур мозга,
      воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе
      своей жизнедеятельности.

    Передача информации по каналам связи часто сопровождается воздействием помех,
вызывающих искажение и потерю информации.



            1.5. Как измеряется количество информации?
    Какое количество информации содержится, к примеру, в тексте романа "Война и
мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука
не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить
количество информации? Важнейшим результатом теории информации является
следующий вывод:


В определенных, весьма широких условиях можно пренебречь качественными
особенностями информации, выразить её количество числом, а также сравнить количество
информации, содержащейся в различных группах данных.


    В настоящее время получили распространение подходы к определению понятия
"количество информации", основанные на том, что информацию, содержащуюся в
сообщении, можно нестрого трактовать в смысле её новизны или, иначе,
уменьшения неопределённости наших знаний об объекте. Эти подходы используют
математические понятия вероятности и логарифма.




           Подходы к определению количества информации.          Формулы Хартли и
Шеннона.

    Американский инженер Р. Хартли в 1928 г. процесс получения информации
рассматривал как выбор одного сообщения из конечного наперёд заданного
множества из N равновероятных сообщений, а количество информации I,
содержащееся в выбранном сообщении, определял как двоичный логарифм N.


                          Формула Хартли: I = log2N


    Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле
Хартли можно вычислить, какое количество информации для этого требуется: I = log2100