Конспект лекций по программированию для начинающих. Гладков В.П. - 7 стр.

UptoLike

Составители: 

9
приходим к предельно широкому понятию, для которого нет родового понятия.
Таким понятиям дают описательное определение, перечисляющее все их
существенные признаки, при этом явно указывают противоположные понятия
или предметы, не входящие в их объем.
К таким основным, предельно широким понятиям информатики относятся
понятия: «информация», «исполнитель», «алгоритм», «структура».
2. ИНФОРМАЦИЯ
2.1. Понятие информации
Любое отражение материального мира, которое может быть зафиксировано
живым существом или прибором, несет в себе информацию.
Отражение результатов человеческой деятельности или понимания
окружающего мира может быть представлено в формальном виде, например в
виде наборов букв, цифр или изображений. Такие формальные наборы
называются данными. Данные, полученные от источника информации,
называются сообщениями
. Они становятся информацией в момент
использования. Не всяким данным суждено стать информацией. Информацией
становятся только те сообщения, которые снимают неопределенность,
существующую до их поступления.
Неопределенность можно охарактеризовать количеством возможных
выборов действий в конкретной ситуации, а полученную информацию -
величиной, на которую уменьшилась степень неопределенности. Например,
если необходимо найти дом на известной
улице, где живет Иванов, то
информация о том, что номер искомого дома четный, уменьшает
неопределенность вдвое за счет отброса домов с нечетными номерами. В
данном примере степень неопределенности уменьшилась, но не исчезла совсем.
Для численной оценки неопределенности необходимо выбрать функцию,
которая зависела бы от количества возможных в данной ситуации выборов
. При
этом, если возможен только один выбор, то неопределенность равна нулю
(функция должна обращаться в нуль, так как неопределенность отсутствует).
Например, в ситуации «за весной следует лето» степень неопределенности
равна нулю. Кроме того, с возрастанием количества выборов неопределенность
ситуации должна увеличиваться. Если имеется две ситуации, то степень
неопределенности общей ситуации
должна быть равна сумме степеней
неопределенности исходных ситуаций.
Искомую функцию в 1928 году предложил американский ученый Р.Хартли:
Н=log
2
N, где Н - степень неопределенности ситуации, N - количество
равновозможных выборов в рассматриваемой ситуации.
Если у нас имеется информация о последствиях каждого выбора в данной
ситуации, то выбор способа действий будет не случайным. Если такой
информации нет, то выбор будет случайным. Случайным называют такое
явление, которое может в одних и тех же условиях
произойти или не произойти,
или произойти как-то иначе. Однако при массовом (неоднократном) повторении
                                       9

приходим к предельно широкому понятию, для которого нет родового понятия.
Таким понятиям дают описательное определение, перечисляющее все их
существенные признаки, при этом явно указывают противоположные понятия
или предметы, не входящие в их объем.
   К таким основным, предельно широким понятиям информатики относятся
понятия: «информация», «исполнитель», «алгоритм», «структура».


                           2. ИНФОРМАЦИЯ

                        2.1. Понятие информации
   Любое отражение материального мира, которое может быть зафиксировано
живым существом или прибором, несет в себе информацию.
   Отражение результатов человеческой деятельности или понимания
окружающего мира может быть представлено в формальном виде, например в
виде наборов букв, цифр или изображений. Такие формальные наборы
называются данными. Данные, полученные от источника информации,
называются сообщениями. Они становятся информацией в момент
использования. Не всяким данным суждено стать информацией. Информацией
становятся только те сообщения, которые снимают неопределенность,
существующую до их поступления.
   Неопределенность можно охарактеризовать количеством возможных
выборов действий в конкретной ситуации, а полученную информацию -
величиной, на которую уменьшилась степень неопределенности. Например,
если необходимо найти дом на известной улице, где живет Иванов, то
информация о том, что номер искомого дома четный, уменьшает
неопределенность вдвое за счет отброса домов с нечетными номерами. В
данном примере степень неопределенности уменьшилась, но не исчезла совсем.
   Для численной оценки неопределенности необходимо выбрать функцию,
которая зависела бы от количества возможных в данной ситуации выборов. При
этом, если возможен только один выбор, то неопределенность равна нулю
(функция должна обращаться в нуль, так как неопределенность отсутствует).
Например, в ситуации «за весной следует лето» степень неопределенности
равна нулю. Кроме того, с возрастанием количества выборов неопределенность
ситуации должна увеличиваться. Если имеется две ситуации, то степень
неопределенности общей ситуации должна быть равна сумме степеней
неопределенности исходных ситуаций.
   Искомую функцию в 1928 году предложил американский ученый Р.Хартли:
Н=log2N, где Н - степень неопределенности ситуации, N - количество
равновозможных выборов в рассматриваемой ситуации.
   Если у нас имеется информация о последствиях каждого выбора в данной
ситуации, то выбор способа действий будет не случайным. Если такой
информации нет, то выбор будет случайным. Случайным называют такое
явление, которое может в одних и тех же условиях произойти или не произойти,
или произойти как-то иначе. Однако при массовом (неоднократном) повторении