ВУЗ:
Составители:
1.  Cообщение,  содержащее  информацию  о  прогнозе  погоды,  передаётся  приёмнику 
(телезрителю)  от  источника — специалиста-метеоролога  посредством  канала 
связи — телевизионной передающей аппаратуры и телевизора.  
2.  Живое  существо  своими  органами  чувств (глаз,  ухо,  кожа,  язык  и  т.д.) 
воспринимает информацию из внешнего мира, перерабатывает её в определенную 
последовательность  нервных  импульсов,  передает  импульсы  по  нервным 
волокнам,  хранит  в  памяти  в  виде  состояния  нейронных  структур  мозга, 
воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе 
своей жизнедеятельности.  
Передача информации по каналам связи часто сопровождается воздействием помех, 
вызывающих искажение и потерю информации. 
1.5. Как измеряется количество информации? 
Какое  количество  информации  содержится,  к  примеру,  в  тексте  романа "Война  и 
мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука 
не  даёт  и,  по  всей  вероятности,  даст  не  скоро.  А  возможно  ли  объективно  измерить 
количество  информации?  Важнейшим  результатом  теории  информации  является 
следующий вывод:  
В определенных, весьма широких условиях можно пренебречь качественными 
особенностями информации, выразить её количество числом, а также сравнить количество 
информации, содержащейся в различных группах данных.  
В  настоящее  время  получили  распространение  подходы  к  определению  понятия 
"количество  информации",  основанные  на  том,  что  информацию,  содержащуюся  в 
сообщении,  можно  нестрого  трактовать  в  смысле  её  новизны  или,  иначе, 
уменьшения  неопределённости  наших  знаний  об  объекте.   Эти  подходы  используют 
математические понятия вероятности и логарифма. 
            Подходы  к  определению  количества  информации.   Формулы  Хартли  и 
Шеннона.  
Американский  инженер  Р.  Хартли  в 1928 г.  процесс  получения  информации 
рассматривал  как  выбор  одного  сообщения  из  конечного  наперёд  заданного 
множества  из N равновероятных  сообщений,  а  количество  информации I, 
содержащееся в выбранном сообщении, определял как двоичный логарифм N.  
            Формула Хартли:   I = log
2
N  
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле 
Хартли можно вычислить, какое количество информации для этого требуется: I = log
2
100 
   1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику
      (телезрителю) от источника — специалиста-метеоролога посредством канала
      связи — телевизионной передающей аппаратуры и телевизора.
   2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.)
      воспринимает информацию из внешнего мира, перерабатывает её в определенную
      последовательность нервных импульсов, передает импульсы по нервным
      волокнам, хранит в памяти в виде состояния нейронных структур мозга,
      воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе
      своей жизнедеятельности.
    Передача информации по каналам связи часто сопровождается воздействием помех,
вызывающих искажение и потерю информации.
            1.5. Как измеряется количество информации?
    Какое количество информации содержится, к примеру, в тексте романа "Война и
мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука
не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить
количество информации? Важнейшим результатом теории информации является
следующий вывод:
В определенных, весьма широких условиях можно пренебречь качественными
особенностями информации, выразить её количество числом, а также сравнить количество
информации, содержащейся в различных группах данных.
    В настоящее время получили распространение подходы к определению понятия
"количество информации", основанные на том, что информацию, содержащуюся в
сообщении, можно нестрого трактовать в смысле её новизны или, иначе,
уменьшения неопределённости наших знаний об объекте. Эти подходы используют
математические понятия вероятности и логарифма.
           Подходы к определению количества информации.          Формулы Хартли и
Шеннона.
    Американский инженер Р. Хартли в 1928 г. процесс получения информации
рассматривал как выбор одного сообщения из конечного наперёд заданного
множества из N равновероятных сообщений, а количество информации I,
содержащееся в выбранном сообщении, определял как двоичный логарифм N.
                          Формула Хартли: I = log2N
    Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле
Хартли можно вычислить, какое количество информации для этого требуется: I = log2100
Страницы
- « первая
 - ‹ предыдущая
 - …
 - 5
 - 6
 - 7
 - 8
 - 9
 - …
 - следующая ›
 - последняя »
 
