ИЗМЕРЕНИЕ ИНФОРМАЦИИ, ЕДИНИЦЫ ИЗМЕРЕНИЯ. КОЛИЧЕСТВО ИНФОРМАЦИИ.
4. INFORMACIJOS MATAVIMAS, MATAVIMO VIENETAI. INFORMACIJOS KIEKIS.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ, ЕДИНИЦЫ ИЗМЕРЕНИЯ. КОЛИЧЕСТВО ИНФОРМАЦИИ.
Информация – это сведения, которые можно передать, принять, запомнить.
Получая информацию, мы узнаем что-то новое. Значит, до ее получения мы знали меньше, а стали знать больше. Нельзя ли узнать, сколько приняли информации, на сколько увеличились наши знания, т.е. измерить количество информации?
1. Измерение информации в быту ( информация, как новизна).
• Вы получили какое-то сообщение (например, прочитали статью в любимом журнале). В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации ввы получили? Другими словами, как измерить информацию?
Можно ли сказать, что чем больше статья, тем больше информации она содержит?
Разные люди, получившие одно и то же сообщение, по-разному оценивают количество информации, содержащееся в нем. Это происходит оттого, что знания людей об этих событиях, явлениях до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не получили вовсе. Таким образом, количество информации в сообщении ззависит от того, насколько ново это сообщение для получателя.
При таком подходе непонятно, по каким критериям можно ввести единицу измерения информации. Следовательно, с точки зрения информации как новизны мы не можем оценить количество информации, содержащейся в научном открытии, новом музыкальном стиле, нновой теории общественного развития.
2.Измерение информации в теории информации (информация, как снятая неопределённость)
Для измерения длины, массы, времени придуманы приборы, процедуры и единицы измерения – так, чтобы узнать длину стержня, достаточно приложить к нему линейку. А как узнать количество информации в сообщении, и в каких единицах ее измерять? Ответ на эти вопросы предложил в 1948 К. Шеннон – основатель теории информации – раздела кибернетики, в котором при помощи математических методов изучаются способы измерения количества информации, а также методы ее кодирования при передаче.
Поясним на примере, как измеряют информацию в теории информации. (Смотри пример 3 на стр. 86 в литовском учебнике).Предположим, первый человек загадывает число от 1 до 8, а второй его отгадывает, задавая вопросы, ответом на которые могут быть только ДА или ННЕТ. Второй пытается задать как можно меньше вопросов. Самой примитивной его стратегией является следующая – спросить: это 1?, затем: это 2?, и т.д. В этом случае количество требующихся вопросов будет от 1 до 7. Нельзя ли придумать такие вопросы, чтобы гарантированно прийти к ответу быстрее? Оказывается, можно: это вопросы, по ответам на которые интервал, где искомое число может лежать, каждый раз уменьшается на половину. Спрашивая, напр., это число больше 4? и т.д., в зависимости от ответов, добьемся результата уже после ттрех вопросов.
Количество информации (далее – к.и.), которое дает один из двух возможных равновероятных ответов на вопрос (напр., ДА и НЕТ), называется битом. Значит, в разобранном примере мы с каждым ответом получали один бит информации, и всего – три бита. Даже если мы каким-то образом сможем узнать число с первой попытки, все равно получим 3 бита информации.
Сведения об искомом числе обратно пропорциональны длине интервала: чем он короче, тем больше о числе мы знаем, тем быстрее можем его угадать. При уменьшении интервала вдвое, сведения увеличиваются в два раза. Потому можно сказать, что бит есть к.и., увеличивающий сведения вдвое.
Нетрудно, как видим, узнать к.и. в случае, когда длина всех фигурирующих интервалов кратна двум. Это бывает в случае, когда длина исходного интервала выражается числом 2n. Количество битов тогда будет равно n.
Деля пополам исходный интервал, длину которого нельзя представить в виде степени двойки, будем получать промежуточные интервалы, длины которых выражаются нечетными числами. Такие интервалы приходится делить пополам приблизительно, и число необходимых вопросов может различаться на единицу. Напр., если угадываем число между 1 и 5, то потребуется 2 или 3 вопроса, поскольку ближайшие к пятерке числа, выражающиеся натуральной степенью двойки – это 22 и 23, т.е. 22<5<23.
Таким образом, если длина исходного интервала не может быть представлена в ввиде 2n, то к.и. выражается дробным числом. Изучая информатику, больше придется иметь дело с дискретными вычислительными машинами, потому это дробное число будем заменять ближайшим превышающим его натуральным числом. Напр., будем считать, что к.и., необходимое для отгадывания числа от 1 до 5, равно 3 бита.
Оговоримся, что делить исходный интервал необязательно на две части. Это можно сделать и по-другому, напр. по признаку четности и др. Главное, чтобы каждый вопрос делил все числа интервала на двå равные или приблизительно (на сколько возможно точно) равные части.
В жизни чаще имеем дело не с интервалами чисел, а со множествами, содержащими конечное число возможных ответов на вопрос, но принципы, изложенные выше, остаются в силе. Так, узнав ответ на вопрос: «Под каким знаком зодиака Вы родились?» получим 4 бита информации, т.к. 23<12<24.
В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.
Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество вероятности в сообщении о нем равно 0. Чем невероятнее событие, тем большую информацию о нем несет сообщение.
Лишь при равновероятных ответах ответ ««да» или «нет» несет 1 бит информации.
Бит – минимальная единица измерения информации.
3.Измерение информации в технике.
В технике (информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, символов) часто используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, т.е. связан с его длиной и не учитывает содержания.
Длина сообщения зависит от количества символов, употребляемых для записи сообщения. Например, слово «мир» в русском алфавите записывается тремя знаками, в английском – пятью (peace), а в КОИ-8 – двадцатью четырьмя битами (111011011110100111110010).
В вычислительной технике применяются две стандартные единицы измерения: бит и байт. Однако, прежде чем измерить информацию в битах, вы определяете количество символов в этом сообщении. Нам привычнее работать с символами, машине – с кодами. Каждый символ не случайно кодируется 8-битным кодом. Поэтому для удобства была введена более «крупная» единица информации в технике (преимущественно в вычислительной) – байт. Теперь легче подсчитать количество информации в техническом сообщении – оно совпадает с количеством символом в нем.
В технике (теория кодирования и передачи сообщений) под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Биты используют и для измерения емкости памяти, и скорости передачи сообщений (напр., 19200 бит/с). Существуют более крупные единицы измерения:
1 байт – последовательность из 8 бит (
1 байт = 8 бит ),
1 Кбайт = 1024 байт,
1 Мбайт = 1024 Кбайт,
1 Гбайт = 1024 Мбайт.
К единицам измерения многих физических величин мы привыкли. А бит, байт и т.п. – много это или мало? При использовании современных методов кодирования информации, один символ текста – это один байт. Тогда на странице учебника содержится около 2500 байт информации, а во всем учебнике – около 0.5 Мбайт текста.