ВУЗ:
Составители:
> 6,644. Таким  образом,  сообщение  о  верно  угаданном  числе  содержит  количество 
информации, приблизительно равное 6,644 единицы информации.  
Приведем другие примеры равновероятных сообщений:  
1.  при бросании монеты: "выпала решка", "выпал орел";  
2.  на странице книги: "количество букв чётное", "количество букв нечётное".  
Определим теперь, являются ли равновероятными сообщения "первой выйдет из 
дверей  здания  женщина"  и  "первым  выйдет  из  дверей  здания  мужчина".  Однозначно 
ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. 
Если  это,  например,  станция  метро,  то  вероятность  выйти  из  дверей  первым  одинакова 
для  мужчины  и женщины, а  если это  военная  казарма, то  для  мужчины  эта  вероятность 
значительно выше, чем для женщины.  
Для  задач  такого  рода  американский  учёный  Клод  Шеннон  предложил  в 1948 г. 
другую  формулу  определения  количества  информации,  учитывающую  возможную 
неодинаковую вероятность сообщений в наборе.  
                      Формула Шеннона: I = — ( p
1
log
2
 p
1
 + p
2
 log
2
 p
2
 + . . . + p
N
 log
2
 p
N
), 
где p
i
 — вероятность того, что именно i-е сообщение выделено в наборе из N 
сообщений.  
Легко заметить, что если вероятности p
1
, ..., p
N
 равны, то каждая из них равна 1 / N, и 
формула Шеннона превращается в формулу Хартли.  
Помимо  двух  рассмотренных  подходов  к  определению  количества  информации, 
существуют  и  другие.  Важно  помнить,  что  любые  теоретические  результаты 
применимы  лишь  к  определённому  кругу  случаев,  очерченному  первоначальными 
допущениями.  
В  качестве  единицы  информации  Клод  Шеннон  предложил  принять  один  бит
 (англ. bit — binary digit — двоичная цифра).  
Бит в теории информации — количество информации, необходимое для различения двух 
равновероятных сообщений   (типа "орел"—"решка", "чет"—"нечет" и т.п.).  
В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, 
необходимую для хранения одного из двух знаков "0" и "1", используемых для 
внутримашинного представления данных и команд.  
Бит — слишком  мелкая  единица  измерения.  На  практике  чаще  применяется  более 
крупная  единица —  байт
,   равная  восьми  битам.  Именно  восемь  битов  требуется  для 
того,  чтобы  закодировать  любой  из 256 символов  алфавита  клавиатуры  компьютера 
(256=2
8
).  
> 6,644. Таким образом, сообщение о верно угаданном числе содержит количество
информации, приблизительно равное 6,644 единицы информации.
    Приведем другие примеры равновероятных сообщений:
   1. при бросании монеты: "выпала решка", "выпал орел";
   2. на странице книги: "количество букв чётное", "количество букв нечётное".
    Определим теперь, являются ли равновероятными сообщения "первой выйдет из
дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно
ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь.
Если это, например, станция метро, то вероятность выйти из дверей первым одинакова
для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность
значительно выше, чем для женщины.
    Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г.
другую формулу определения количества информации, учитывающую возможную
неодинаковую вероятность сообщений в наборе.
             Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN),
 где pi — вероятность того, что именно i-е сообщение выделено в наборе из N
 сообщений.
    Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и
формула Шеннона превращается в формулу Хартли.
    Помимо двух рассмотренных подходов к определению количества информации,
существуют и другие. Важно помнить, что любые теоретические результаты
применимы лишь к определённому кругу случаев, очерченному первоначальными
допущениями.
    В качестве единицы информации Клод Шеннон предложил принять один бит
(англ. bit — binary digit — двоичная цифра).
Бит в теории информации — количество информации, необходимое для различения двух
равновероятных сообщений (типа "орел"—"решка", "чет"—"нечет" и т.п.).
В вычислительной технике битом называют наименьшую "порцию" памяти компьютера,
необходимую для хранения одного из двух знаков "0" и "1", используемых для
внутримашинного представления данных и команд.
     Бит — слишком мелкая единица измерения. На практике чаще применяется более
крупная единица — байт, равная восьми битам. Именно восемь битов требуется для
того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера
(256=28).
Страницы
- « первая
 - ‹ предыдущая
 - …
 - 6
 - 7
 - 8
 - 9
 - 10
 - …
 - следующая ›
 - последняя »
 
