Сумма технологии
Шрифт:
Это не академический спор; дело это имеет для нас первостепенное значение. По концепции, о которой шла речь выше, получается, что «шум» среды может только обеднить фенотипическую информацию (именно это и утверждает Шмальгаузен). Между тем «шум» может быть источником информации. Ведь и мутации представляют собой такой «шум». Как известно, количество информации зависит от степени ее правдоподобия. Фраза «бор – это химический элемент» содержит определенное количество информации. А если муха случайно оставит черный след за буквой «о» в слове «бор» и фраза примет вид «бар – это химический элемент», то, с одной стороны, получатся помехи в информационной передаче вследствие «шума», то есть уменьшение
Дело в том, что здесь происходит одновременное увеличение селективной информации и уменьшение структурной информации. Первая относится к множеству возможных фраз (типа «X – это химический элемент»), а вторая – к множеству реальных ситуаций, отражением которых являются фразы. Множество фраз, отражающих реальные ситуации, слагается в данном случае из таких, как «азот – это химический элемент... кислород – это химический элемент...» и так далее. Это множество содержит столько фраз, сколько в действительности существует элементов, то есть около ста. Поэтому, если нам ничего не известно, кроме того, из какого множества будет взята полученная фраза, вероятность появления определенной фразы составляет одну сотую.
Второе множество содержит все слова данного языка, которые можно подставить во фразу «X – это химический элемент» («зонтик – это химический элемент... нога – это химический элемент...» и т.п.). Оно включает, следовательно, столько фраз, сколько слов имеется в языке, то есть несколько десятков тысяч. Информация обратно пропорциональна вероятности, следовательно, каждая из таких фраз в тысячи раз менее правдоподобна, то есть содержит соответственно больше информации (не в тысячи раз, поскольку информация выражается через логарифм, но в данном случае это не имеет принципиального значения).
Как следует из этого, понятием информации надо пользоваться осторожно. Ведь аналогично этому и мутации можно рассматривать как уменьшение информации (структурной) и как увеличение информации (селективной). Как именно будет она «рассматриваться», зависит от биогеоценотической среды. В нормальных условиях она представляет собой уменьшение структурной информации, относящейся к реальному миру, и поэтому, несмотря на рост селективной информации, организм будет уничтожен как хуже приспособленный. Но если условия изменятся, та же мутационная информация вызовет одновременно рост как селективной, так и структурной информации.
Следует добавить, что «шум» может быть источником информации только в очень специфических условиях: когда эта информация является элементом множества, все элементы которого характеризуются высокой степенью организации (сложности). Превращение слова «бор» в «бар» вследствие «шума» представляет собой переход от одного вида организации к другому, тогда как превращение слова «бор» в чернильную кляксу означает уничтожение всякой организации вообще. Мутация тоже является превращением одного вида организации в другой, разве что речь идет о летальной генетической мутации, которая в ходе развития убивает весь организм.
Фраза может быть истинной или ложной, а генотипическая информация может быть приспособительной или неприспособительной. В обоих случаях – это критерий структурный. А в смысле селективной информации фраза может быть только более или менее правдоподобной, в зависимости от множества, из которого мы ее выбираем. Точно так же и мутация в качестве селективной информации может быть более или менее вероятной (и, следовательно, содержать этой информации меньше или больше).
Фенотипическая информация, как правило, структурна, поскольку она появляется в результате воздействия среды, на которое организм
Подведение информационного баланса в биологической практике весьма затруднительно, поскольку провести четкую грань между генотипическим и фенотипическим можно лишь в теории – именно поэтому и существуют регуляционные механизмы. Если бы на делящуюся яйцеклетку вообще не оказывали действия никакие внешние влияния, то ее развитие можно было бы назвать «дедуктивным», в том смысле, что генотипическая информация подвергается таким преобразованиям, которые не дают никакого выигрыша информации. Подобным образом «развивается» математическая система, первоначально состоящая из исходных положений («аксиоматического ядра») и правил преобразований. То и другое вместе можно назвать «генотипом математической системы». Однако развитие плода в такой изоляции невозможно, ибо на яйцеклетку всегда что-нибудь да влияет – хотя бы сила тяжести. Известно, какое формирующее воздействие оказывает последняя, например, на развитие растений.
В заключение, прежде чем приступить, наконец, как следует к проектированию «автогностической» или «кибергностической» машины, добавим, что существуют различные типы регуляции. Есть непрерывные регуляторы, которые постоянно следят за значениями контролируемых параметров, и есть дискретные регуляторы (регуляция погрешностей), которые включаются лишь тогда, когда контролируемые параметры выходят за пределы определенных критических значений. Организм применяет оба вида регуляции. Например, температура регулируется в основном непрерывно, а уровень сахара в крови – дискретно. Мозг тоже можно рассматривать как регулятор, использующий оба метода. Но эти вопросы так превосходно обрисовал У. Росс Эшби в своей «Конструкции мозга» («Design for а brain») [96] , что нет необходимости это повторять.
96
У. Росс Эшби, Конструкция мозга, ИЛ, 1962. 23-618.
Индивидуальное развитие – это сопоставление двух видов информации, внешней и внутренней. Так возникает фенотип организма. Организм «работает», однако, и на себя и на эволюцию, то есть он должен существовать сам и в то же время поддерживать существование вида. На информационной ферме «устройства» должны служить нам. Поэтому закон биоэволюции, гласящий, что выживают наиболее приспособленные к среде, мы должны на нашей ферме заменить законом: «Выживает то, что наиболее точно выражает среду».
Мы знаем уже, что означает «выражение среды». Это накопление структурной, а не селективной информации. Быть может, наши повторения столь же излишни, сколь и утомительны, но скажем это еще раз. Инженер-связист исследует вероятность поступления информации таким образом, что для него в стобуквенной фразе содержится одинаковое количество информации независимо от того, взята эта фраза из газеты или из теории Эйнштейна. Такой аспект наиболее важен при передаче информации. Однако о количестве информации можно говорить и в том смысле, что фраза описывает (отображает) некую более или менее вероятную ситуацию. Тогда информационное содержание фразы зависит не от вероятности появления тех или иных букв в данном языке и не от их общего количества, а только от степени вероятности самой ситуации.