Наука Плоского Мира II: Земной шар
Шрифт:
«Тупс, мы же сотрудники Университета», — перебил его Декан. — «Движение информации должно быть свободным».
«Именно так», — подтвердил Преподаватель Современного Руносложения. — «В передовом обществе беспрепятственное движение информации жизненно необходимо. Как ни крути, мы живем в эпоху семафоров».
«И движется она, конечно же, к нам», — добавил Чудакулли.
«Да уж точно», — продолжил Декан. — «Мы ведь не хотим, чтобы она утекала от нас. Все-таки мы не о распространении говорим, а о движении».
«Так отправлять сообщение или нет?» — прервал их Думминг, прежде
«А нам правда не придется платить?» — уточнил Чудакулли.
Думминг вздохнул: «Нет, сэр».
«Отлично», — сказал Архканцлер. — «Отправь сообщение в Королевство Ланкр, хорошо? У них есть только одна семафорная башня. Блокнот у тебя? Диктую».
«Госпоже Эсмеральде Ветровоск.
Как ваши дела? У меня все в порядке. Мы тут столкнулись с одной интересной проблемой…»
Глава 18. Бит из всего
Семафор — это пример простой и проверенной временем цифровой системы связи. Он кодирует буквы алфавита, используя различные комбинации флажков, огней или чего-то подобного. В 1795 году Джордж Мюррей изобрел вариант семафора, очень похожий на тот, который на данный момент используется в Плоском Мире. Это набор из шести заслонок, каждая из которых может быть открыта или закрыта, что в общей сложности дает 64 различных «кода» — более, чем достаточно для обозначения букв, чисел от 0 до 10 и некоторых «специальных» кодов. Эта система получила дальнейшее развитие, но перестала быть передовой технологией после того, как электрический телеграф ознаменовал начало «эпохи проводов». В Плоском Мире семафоры (или «клик-башни») пошли намного дальше: магистральные башни, оснащенные несколькими рядами заслонок и лампами для работы в ночное время, обеспечивают двухстороннюю передачу сообщений через весь континент. Они довольно точно отражают «эволюцию» технологий: если бы нам не удалось обуздать силу пара и электричества, мы вполне могли использовать что-то похожее…
Возможности этой системы позволяют даже передавать изображения — на полном серьезе. Нужно преобразовать картинку в сетку размером 64x64 маленьких квадратика, цвет которых может быть либо черным, либо белым, либо одним из четырех оттенков серого, а затем считать содержимое сетки, как книгу — слева направо и сверху вниз. Все дело в информации, нужно лишь несколько умных клерков, чтобы придумать алгоритмы сжатия, и человек с неглубокой коробкой, вмещающей 4096 деревянных кубиков, стороны которых окрашены в те самые цвета — черный, белый и четыре оттенка серого. Чтобы собрать картинку, потребуется некоторое время, но клерки обходятся дешево.
Цифровые сообщения — это основа Информационного Века — такое название мы дали современной эпохе с верой в то, что знаем намного больше, чем кто-либо и когда-либо. Примерно так же и Плоский Мир гордится тем, что живет в Век Семафоров, или Эпоху Клик-Башен. Но что такое информация?
Отправляя сообщение, мы обычно ожидаем, что нам придется за него заплатить — в противном случае тот, кто занимается его передачей, будет недоволен. Именно это свойство сообщений вызвало беспокойство Чудакулли, убежденного в том, что сотрудники университетов должны путешествовать бесплатно.
Цена — это, конечно, тоже способ измерения, но она зависит от сложного взаимодействия рыночных сил. Что, к примеру, произойдет, если товар распродается по сниженной цене? С научной точки зрения, «информация» — это объем передаваемого сообщения. Каким бы ни был носитель информации, длинные сообщения стоят дороже коротких — этот принцип, с точки зрения нашей деятельности, кажется вполне универсальным. И значит, где-то в глубине человеческого разума живет вера в то, что у любого сообщения есть количественная мера, или размер.
Можно ли сказать, что «информация» и «история» — это одно и то же? Нет. Конечно же, истории содержат в себе информацию, однако у историй есть и гораздо более интересные качества. В то же время информация в большинстве случае не складывается в историю. Представьте себе телефонный справочник: это огромный массив тщательно подобранной информации, но рассказия в нем маловато. Для истории важен смысл. А смысл и информация — это совершенно разные вещи.
Мы гордимся тем, что живем в Информационную Эру. И в этом наша проблема. Если мы когда-нибудь доживем до Эры Смысла, то, наконец-то, сможем понять, в чем именно мы ошиблись.
Информация — это не предмет, а абстракция. Однако склонность человека к материализации абстрактных понятий привела к тому, что многие ученые считают информацию реально существующим явлением. А некоторые физики начинают задаваться вопросом, может ли Вселенная тоже состоять из информации.
Как появилась эта точка зрения и насколько она соответствует действительности?
Люди научились количественно оценивать информацию в 1948 году, когда математик, а позже инженер, Клод Шеннон нашел способ оценить объем информации, заключенной в сообщении, — хотя он сам предпочитал термин сигнал, — переданном от источника к приемнику с помощью некоего кода. Под сигналом Шеннон подразумевал последовательность двоичных цифр («битов», то есть 0 и 1), которые сейчас используются в любом компьютере и устройстве связи, а раньше применялись в семафорах Мюррея. Код он определял как особую процедуру, которая преобразует исходный сигнал в какой-нибудь другой. Простейший код — это тривиальное преобразование, которое «оставляет все без изменений», но более сложные коды способны обнаруживать и даже исправлять ошибки передачи. Коды составляют основу инженерных приложений этой теории, но здесь мы не станем заострять на них внимание и будем считать, что сообщение передается «как есть».
Шенноновская мера информации количественно выражает степень снижения нашей неопределенности относительно бит, составляющих сигнал, после получения сообщения. В простейшем случае, когда сообщение состоит из нулей и единиц, а все варианты равновероятны, количество информации, заключенной в сообщении, определяется очень просто: оно равно общему количеству бит. Каждая принятая нами цифра уменьшает нашу неопределенность относительно ее значения (0 или 1?) до полной уверенности (скажем, 1), но ничего не сообщает о других цифрах, поэтому количество информации равно одному биту. Проделав это тысячу раз, мы получим тысячу бит информации. Все просто.
В данном случае мы придерживаемся точки зрения инженера-связиста и молчаливо предполагаем, что нас интересует только значения отдельных бит сигнала, а не содержащийся в них смысл. То есть каждое из сообщений 111111111111111 и 111001101101011 содержит 15 бит информации. Однако есть и другие подходы к определению информации. Не так давно Грегори Хайтин указал на возможность количественной оценки сигнала с точки зрения содержащихся в нем шаблонов, или закономерностей. Для этого необходимо обратить внимание не на размер сообщения, а на размер компьютерной программы, или алгоритма, который способен его сгенерировать. К примеру, первое из упомянутых сообщений можно сконструировать с помощью алгоритма «все цифры равны 1». Второе сообщение простым алгоритмом описать нельзя — остается только перечислить его бит за битом. Таким образом, с точки зрения меры Шеннона, количество информации в этих сообщениях одно и то же, в то время как мера Хайтина показывает, что второе сообщение содержит намного больше «алгоритмической информации».