Книга: Естествознание. Базовый уровень. 11 класс

§ 10 Информация, вероятность и энтропия

<<< Назад
Вперед >>>

§ 10 Информация, вероятность и энтропия

Быть объектом удивления приятно уже потому, что с этим связан почёт.

Аристотель

Попытаемся найти закономерность в проведённых выше вычислениях. Рассматривая примеры угадывания, мы неоднократно обращали ваше внимание на то, что все возможные варианты были для угадывающего равновероятными. Следовательно, вероятность правильности каждого ответа была равна единице, разделённой на число возможных вариантов. То есть чем больше вариантов, тем меньше вероятность справедливости каждого из них и тем больше вопросов надо задать, чтобы узнать правильный ответ. Мы уже видели, что, для того чтобы выяснить, какой из двух возможных вариантов правилен, надо задать один вопрос, при восьми вариантах – три вопроса, а при тридцати двух – пять вопросов. Если немного подумать, то нетрудно будет сообразить, что при четырёх вариантах достаточно задать два вопроса, при 16 – четыре, а при 64 – шесть. Для большей ясности составим таблицу (табл. 1).

Чем меньше вероятность правильного ответа, тем большую информацию мы получаем, выяснив его. То есть количество информации зависит от «невероятности» полученного сообщения. Чем невероятнее, чем удивительнее кажутся полученные сведения, тем больше информации в них содержится. А эта «невероятность» равна числу возможных вариантов, об истинности которых нам ничего не известно. Теперь остаётся найти формулу для этой зависимости. Посмотрев на таблицу, мы убедимся в том, что число вариантов во всех случаях равно двойке, возведённой в степень, равную полученной информации:

N = 2J.

Следовательно, информация равна степени, в которую надо возвести 2 для того, чтобы получить N, т. е.

J = log2N.

Эта величина называется логарифмом N по основанию 2 или двоичным логарифмом числа N.

Конечно, число возможных вариантов правильного ответа необязательно должно быть целой степенью числа 2. Это не должно нас смущать, потому что количество информации необязательно должно выражаться целым числом.

Таблица 1

Зависимость количества полученной информации от вероятности правильности ответа


Например, если число вариантов равно пятидесяти, то, когда мы узнаем единственный правильный ответ, полученная информация будет равна степени, в которую надо возвести двойку для того, чтобы получить число 50. Нетрудно выяснить, что эта информация будет равна с точностью до третьего знака 5,644 бита.

Полученная формула информации практически в точности соответствует формуле Больцмана для энтропии (§ 8). Напрашивается предположение, что между энтропией и информацией существует большое сходство.

Рассмотрим этот вопрос подробнее. От чего зависит максимальная информация, которую можно получить, установив абсолютно точный ответ на поставленный вопрос? Чем более неопределённым было наше знание, чем меньше была вероятность угадать правильный ответ, тем большую информацию содержит сообщение, из которого мы этот ответ узнаем. По сути, наибольшая информация, которую мы можем получить из сообщения, равна количеству нашего первоначального незнания правильного ответа. Это первоначальное незнание можно измерить энтропией по той же формуле, по которой измеряется информация. Обозначив энтропию буквой Н, получаем:

H = log2N.

Мы видим, что формула такой энтропии совпадает с формулой Больцмана и, так же как и она, выражает степень беспорядка. Только если в термодинамике речь шла о беспорядке в расположении и движении молекул, то в теории информации этот беспорядок характеризует степень нашего незнания, неосведомлённости в данном вопросе, хаотичность и беспорядочность в поиске выбора верного ответа. Энтропия по существу представляет собой отрицательную информацию, и её точно так же можно измерять в битах.

Когда мы получаем сообщение, содержащее неизвестную прежде информацию, энтропия нашего незнания уменьшается. Величина этого уменьшения как раз и определяет количество полученной информации. Если до получения сообщения энтропия как мера нашего незнания была H0, а после его получения стала H1, то содержащаяся в сообщении информация будет равна H0 – H1.

Большая часть экзаменационных тестовых заданий построена так, что требуется выбрать один правильный ответ из четырёх предложенных. Если вам ничего не известно по заданному вопросу и у вас нет никаких предположений о верности любого из вариантов, то энтропия задания для вас равна двоичному логарифму четырёх, т. е. 2. Когда вы узнаете точный ответ, энтропия станет равной нулю, и вы получите два бита информации. Теперь представим себе более сложный вид теста. Предлагается пять вариантов ответов и сообщается, что три из них верны. Количество способов, которыми можно выбрать три варианта из пяти, равно десяти[4]. Энтропия этого задания, следовательно, составляет для вас log2 10, что приблизительно равно 3,3. Как видно, эта энтропия выше, чем в предыдущем случае, и решение этого теста содержит больше информации. Узнав точный ответ, вы получите 3,3 бита. Допустим, что какая-то «добрая душа» подсказала вам, что варианты ответов А и В верны. Если предположить, что вы доверяете этой подсказке, сколько бит информации вы получили? Для этого надо выяснить, какой стала для вас энтропия теста после получения подсказки. Вам теперь известно, что единственный оставшийся правильный ответ надо выбрать из вариантов Б, Г и Д, а следовательно, энтропия равна log2 3, что равняется примерно 1,6. Подсчитаем убыль энтропии, которая будет равна количеству содержащейся в подсказке информации. До получения подсказки энтропия задания была Н0 = 3,3 бита. После её получения она составила H1 = 1,6 бита. Отсюда получаем, что подсказка содержит 3,3 – 1,6 = 1,7 бита информации. Но пока вы продолжаете думать над тестом, другая «добрая душа» подсказывает, что ответ Д неверен. Сколько информации содержится в этом сообщении? Вы теперь не знаете ответа только на варианты Б и Г, один из которых верен, а другой – нет, и вероятность правильности любого ответа равна 1/2. Значит, оставшаяся энтропия теста составляет для вас 1 бит, в то время как до получения второй подсказки она равнялась 1,6 бита. А это означает, что последняя подсказка содержала 0,6 бит информации.

Проверьте свои знания

1. Какая связь существует между полученной информацией и числом необходимых вопросов, которые требуется задать для получения точного ответа?

2. Что измеряется энтропией в теории информации?

3. Как связано изменение энтропии с полученной информацией?

Задания

1. На экзамене задан вопрос: «Какая из планет Солнечной системы находится ближе всех к Солнцу?» Названия планет экзаменуемому известны, но об их положении он ничего не знает. Какова энтропия экзаменуемого по этому вопросу? Какое количество информации он получит, узнав, что это Меркурий?

2. Экзаменуемому подсказывают, что ближайшая к Солнцу планета – это не Земля и не Марс. Сколько информации содержит эта подсказка?

<<< Назад
Вперед >>>

Генерация: 0.210. Запросов К БД/Cache: 0 / 0
Вверх Вниз