Инфодинамика, Обобщённая энтропия и негэнтропия
Шрифт:
Наиболее общим понятием из перечисленных является неопределённость. Меру неопределённости можно рассмат-ривать как функцию от числа возможных исходов и ком-бинаций элементов в системе. То же характеризует их разнообразие. В любой системе её разнообразие зависит от количества различных элементов, числа и комбинаций их возможных состояний и количества возможных связей между ними. Поэтому понятия "неопределённость" и "разнообразие" часто употребляются как синонимы. Мерой неопределённости системы является её энтропия, для сложных многомерных систем - ОЭ. Однако, ряд важных положений, для обосно-вания использования ОЭ выведены на определённых допу-щениях. С помощью классических формул энтропию (не-определённость) можно охарактеризовать совокупностью всех независимых возможных событий. С помощью условных вероятностей и условных энтропий можно описать
ческой к максимально возможной энтропии ОЭф ,показывает ОЭм
cтепень уменьшения ОЭм после получения ОНГ и колеблется
в пределах 0 ОЭф 1 ОЭм
Вероятность также характеризует неопределённость, но её прямое применение возможно при конкретных, более уз-ких пределах. Для многих сложных вероятностей много-мерных систем применение условных вероятностей в расчётах связано с большими трудностями. В мире нет чисто слу-чайных или чисто детерминированных систем. Вероятност-ный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопределённость в микромире, во времени и пространстве. Их энтропия приближается к бесконечности. В реальном мире нет абсолютно детерминированных систем. Имеются искусственно изолированные во времени и в прост-ранстве системы, в которых детерминированный компонент превалирует. Например, солнечная система. Движение планет подчиняется законам гравитации, предсказуемо по математи-ческим уравнениям. Однако, и эта система (орбита) изменя-ется по космическим масштабам быстро и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно можно создать модели, которые абсолютно детерминированные, т.е. исключают все случайности. Вероятность результата такой системы 1,0; ОЭ = 0. Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система существует только в голове. В реальной жизни нет четырёх абсолютно одинаковых объектов, а при сложении разноценных систем результат становится неопределённым.
Почти во всех системах неопределённость есть некото-рое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочета-ются случайные и неслучайные факторы. Соответственно с этим для уменьшения неопределённости системы необходимо сочетать статистическую теорию информации с использова-нием априорной информации, теорий, гипотез и других мето-дов эвристического моделирования, в том числе с экспе-риментами.
Стохастичность и случайность можно считать синони-мами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопределённости в отдельных об-ластях: шум - в процессе инфопередачи, непредсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве.
СУЩНОСТЬ ИНФОРМАЦИИ
Из огромного числа публикаций по проблеме сущности информации можно выделить два её основных значения.
1. Давно применяемое "обыденное" значение, что сфор-мировал также Н.Винер: "Информация - это обозначение содержания, полученного из внешнего мира в процессе на-шего приспособления к нему и приспосабливания наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообщения.
2. Кибернетическое понятие информации, которое было сформулировано в основополагающих работах Н.Винера, осо-бенно К.Шеннона в 1948 году [ 25 ]. В теории Шеннона под информацией понимают только те передаваемые сообщения, которые уменьшают неопределённость у получателя инфор-мации. Следовательно информация
J (A, B) = H(B) - H(B / A) > - lg2 P(B) + lg2 P(B / A)
В формуле выражен относительный характер среднего значения информации, как показателя зависимости между двумя событиями. Из формулы следует, что не существует абсолютной информации: есть информация относительно оп-ределённого события (критерия, цели) или объекта, содер-жащаяся в другом событии. Измерение энтропии системы имеет ценность потому, что позволяет оценить влияние собы-тия А на событие В в форме разности
Н(В) - Н(В / А), т.е. по количеству информации. Последнее является мерой отношения, взаимосвязи между системами, явлениями, процессами, а не показателем состо-яния систем.
Концепция Шеннона в принципе не вызывает возраже-ний и нашла широкое применение. Однако, существующие формулы теории информации предназначены для обмена ин-формацией между относительно простыми системами и по ка-налам связи с одно-трех-мерными сигналами. При примене-нии формул для расчёта обмена информацией между сложны-ми системами (обладающими высокими ОЭ и ОНГ), необхо-димо их уточнять и дополнять с учётом следующих факторов.
1. Целевые критерии реальных сложных систем зависят обычно не от одного события или фактора другой системы, а от многих. Последние могут быть зависимыми также между собой. В таком случае приёмник информации получит одно-временно многомерную информацию от многих источников в комплексе.
2. При уменьшении ОЭ (увеличении ОНГ) системы, принимающего информацию, используются не только пара-метры состояния отправной системы, но и обобщённые поня-тия, символы, формулы, закономерности и т.д. Эта, т.н. априорная информация, может быть получена как от системы приёмника, так и отправителя. Влияние этой априорной ин-формации должно быть учтено при расчётах передачи ин-формации.
3. Нельзя исключить возможность, что в результате по-лучения информации общая максимально возможная энтро-пия системы-модели увеличивается. Могут появляться ранее неучтённые факторы-размерности или расширены пределы независимых переменных. Если это происходит, необходимо это проверить и учесть.
Таким образом, практические расчёты передачи инфор-мации значительно сложнее, чем просто оценка уменьшения ОЭ системы, особенно для сложных многофакторных систем. Улучшенную, но не совершенную, формулу для расчёта ин-формации можно представить следующим образом (Н можно заменить на ОЭ):
J (A, B) = H (B) + DиH (B) - е H (B / Ai), где:
H (B) - энтропия системы по целевому критерию В,
DиH(B) - увеличение максимальной энтропии системы В в результате расширения пространства состояния,
H(B/Ai) - условная энтропия относительно целевого критерия В при выполнении события Ai и связанных с этим закономерностей и зависимых событий,
Ai - множество событий, закономерностей и факторов, влияющих на критерий В.
Так как в мире существует неисчислимое количество разных и разнообразно связанных систем, то и информация между ними может иметь огромное количество вариантов. Особенности и степень обобщённости понятий необходимо учитывать при уточнении данных и формул расчёта. Однако, для избежания ошибок при истолковании и анализе инфор-мационных процессов, нельзя отклоняться от их основного содержания, от уменьшения ОЭ. Этот основной постулат наи-более общий и действует для любой системы универсума: как в неорганическом мире, так и в живых организмах, в соз-нании и в космосе. Сущность информации заключается в сле-дующем:
Обобщённой информацией является любая связь или отношение между системами, в результате которой повы-шается обобщённая негэнтропия (ОНГ) хотя бы одной системы.
Так как элементы системы можно рассматривать как от-дельные системы, то и связи между элементами внутри систе-мы могут являться информацией. В то же время далеко не все связи или сообщения являются информацией. Если они не повышают ОНГ, они могут являтся шумом, деструктирую-щим действием, в отдельных случаях, в живой природе и дез-информациeй. Слово "обобщённость" включено в дефиницию для того, чтобы подчеркнуть, что универсальность понятия достигается в том случае, если учтены и оптимизированы все влияющие на целевые критерии факторы. К этим относятся и априорные формы информации. В случае упрощённых мо-делей систем и инфопередаче по классическим каналам связи можно применять и упрощённую дефиницию информации: