ВУЗ:
Составители:
г) делится на части; з) принимается; м) упрощается.
1.12. Приведите примеры обработки информации человеком. Что является
результатами этой обработки?
1.13. Приведите примеры информации:
• а) достоверной и недостоверной;
• б) полной и неполной;
• в) ценной и малоценной;
• г) своевременной и несвоевременной;
• д) понятной и непонятной;
• е) доступной и недоступной для усвоения;
• ж) краткой и пространной.
1.14. Назовите системы сбора и обработки информации в теле человека.
1.15. Приведите примеры технических устройств и систем, предназначенных для
сбора и обработки информации.
1.16. От чего зависит информативность сообщения, принимаемого человеком?
1.17. Почему количество информации в сообщении удобнее оценивать не по степени
увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний
о нём?
1.18. Как определяется единица измерения количества информации?
1.19. В каких случаях и по какой формуле можно вычислить количество информации,
содержащейся в сообщении?
1.20. Почему в формуле Хартли за основание логарифма взято число 2?
1.21. При каком условии формула Шеннона переходит в формулу Хартли?
1.22. Что определяет термин "бит" в теории информации и в вычислительной
технике?
1.23. Приведите примеры сообщений, информативность которых можно однозначно
определить.
1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.
г) делится на части; з) принимается; м) упрощается. 1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки? 1.13. Приведите примеры информации: • а) достоверной и недостоверной; • б) полной и неполной; • в) ценной и малоценной; • г) своевременной и несвоевременной; • д) понятной и непонятной; • е) доступной и недоступной для усвоения; • ж) краткой и пространной. 1.14. Назовите системы сбора и обработки информации в теле человека. 1.15. Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации. 1.16. От чего зависит информативность сообщения, принимаемого человеком? 1.17. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём? 1.18. Как определяется единица измерения количества информации? 1.19. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении? 1.20. Почему в формуле Хартли за основание логарифма взято число 2? 1.21. При каком условии формула Шеннона переходит в формулу Хартли? 1.22. Что определяет термин "бит" в теории информации и в вычислительной технике? 1.23. Приведите примеры сообщений, информативность которых можно однозначно определить. 1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.
Страницы
- « первая
- ‹ предыдущая
- …
- 11
- 12
- 13
- 14
- 15
- …
- следующая ›
- последняя »