Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта
Шрифт:
Под информацией Шеннон понимал лишь сигналы, несущие содержание, которое распознает получатель, роль которого он не принимал во внимание. В процессе передачи данных изначальная энтропия уменьшается, поэтому сумма оставшейся энтропии и переданной информации равна начальной. Хотя Шеннон и оперирует понятием информации, точного определения он не предлагает, впрочем, оговаривая, что сообщения могут иметь какое-то значение. К тому же Шеннон, оперируя понятием энтропия, предостерегал своих последователей от чрезмерного теоретизирования при трактовке энтропии. Настороженное отношения автора к введенному им понятию была объясняется тем, что он был не вполне самостоятелен при выборе этого термина. Хорошо известен и неоднократно описан тот факт, что он находился под влиянием обладавшего огромным авторитетом и фантастической харизмой Джона фон Неймана. Так вот, это фон Нейман навал шенновскую теорию передачи данных теорией информации. А еще он внушил Шеннону необходимость
В качестве единиц для измерения шенновской информации были предложены бит, нат, трит и хартли (децит, бан, дит), различающиеся основанием логарифма: двоичный бит – основание 2, натуральный нат – основание e, троичный трит – основание – 3, хартли – основание 10. Соответственно при передаче одного бита энтропия уменьшается вдвое, трита – втрое, а ната и хартли в 10 раз. Бит еще и единица изменения объема данных, 8 битов образуют байт, далее идет килобайт и т. д. Бит, как единица измерения шенноновской информации, и бит, как единица измерения данных, родственны, но не тождественны.
Данные и их содержание
Достоинство трактовки информации по Шеннону в ее формальности, а ее недостаток – в привязанности исключительно к коммуникациям без учета смысловой нагрузки сообщения. Она вполне адекватна задачам, связанным с оценкой пропускной способности каналов, потерей данных в процесс передачи и другим, относящимся к коммуникациям, где содержание сообщения не учитывается, но такой подход к инфломации не имеет никакого отношения к решению содержательных задач, например, проблемы Big Data. Даже на интуитивном уровне понятно, что возможны и другие подходы к пониманию информации, учитывающие ее содержательную строну и они были. Через три года после публикации Шеннона на 8-й Конференции Мэйси британец Дональд Маккей (Donald MacKay, 1922–1987) представил свой альтернативный подход, отличающийся учетом семантической природы информации. Он отметил, что видит проблему передачи информации не только в обеспечении физики для поддержки потока символов от передатчика приемнику, но и в передаче семантики того, что передается. А главное, он определял информацию, принимая в расчет не только передающую, но и получающую сторону, которая тоже изменяет свое информационное состояние после получения сообщения. Какая польза от передачи данных, если принимающая сторона не смогла перевести их в информацию?
Нет ничего удивительного в том, что математикам, составлявшим среди участников конференции Мэйси большинство, формально строгая позиция Шеннона, бывшего к тому же одним из организаторов конференции, представлялась более сильной. Ничто из сказанного Маккеем не поддавалось количественной оценке, в итоге шенноновское воззрение на информацию восторжествовало и надолго. После конференции, чтобы уточнить свою позицию, Маккей предложил называть информацию по Шеннону селективной «selective information» от английского select (выбор), потому что здесь сообщение образуется посредством выбора из множества элементов энтропии. Свой же подход Маккей называл структурным (structural information). В структурную информацию Маккей включает шенноновскую селективную информацию, но для связи со смыслом она должна быть дополнена теми или иными вспомогательными данными, которую он называет метакоммуникацией (metacommunication). Семантическая составляющая метакоммуникации позволяет получателю (человеку или обученной нейросети) интерпретировать селективную информацию. Формы метакоммуникации могут быть совершенно различными – от тривиальной разметки, доступной для «понимания» относительно несложным программам, до такой, которая включает предварительно известные человеку знания и использует механизмы рефлексии, свойственные человеку. Такая информация может приобретать субъективные качества. По существу метакоммуникации мало отличаются от метаданных, о них ниже.
О способностях человеческого интеллекта оперировать информацией чрезвычайно интересно рассуждал венгерско-британский философ Майкл Полани (Michael Polanyi, 1891–1976). Он пришел к выводу, что есть знания и умения, которые можно описать четкими правилами и наглядно объяснить, например, как грамотно писать, но есть и такие феномены, которые люди, владеющие ими, не способны объяснить, у них нет соответствующих слов. Самый очевидный пример – езда на велосипеде, но есть и более высокоуровневые задачи, нередко мы называем эту способность интуицией. Полани образно сформулировал свое наблюдение во фразе: «Мы знаем больше, чем можем сказать», ее называют Парадоксом Полани. Есть специальный термин tacit knowledge (скрытое знание),
Взгляды Маккея на природу информации разделял британо-американский ученый Грегори Бейтсон (Gregory Bateson,1904–1980), прежде всего он психолог-кибернетик, но у него есть работы, связанные с эпистемологией, теорией информации, антропологией и другими дисциплинами. Эдвард Фредкин (Edward Fredkin, 1934) профессор нескольких крупнейших университетов входит в число пионеров цифровой физики и цифровой философии. Он дал следующее определение: «Информация обретает смысл в процессе ее интерпретации», что явно указывает на зависимость информации от принимающей стороны.
За последние 20–30 лет представления многих ученых еще дальше отошли от шенноновских канонов. Они рассматривают информацию как системообразующий фактор, например весь живой мир основан на передаче генетической информации, ее еще называют biotic information. Информация в живом организме является частью его материальной системы, в нем чрезвычайно сложно отделить информационную составляющую от материальной. Известно, что за 5–7 лет меняются все клетки человеческого организма, но при этом человек остается самим собой за счет сохранения его информационного «скелета». Сложность информационного устройства живого делает невозможным реплицирование человека, поскольку даже однояйцевые близнецы различаются между собой, даже они не взаимно тождественны друг другу. По-видимому, одна из фундаментальных ошибок сторонников Сильного AI, допускающих создание искусственного разума, превосходящего по своим возможностям человеческий, заключается в том, что они отделяют информационную составляющую от биологической.
Примерно то же самое относится к природным социальным, культурным и лингвистическим системам. Информация, содержащаяся в них, относится не к селективной по Шеннону, а к структурной по Маккею. Изучением культурных и лингвистических систем занимается медиаэкология, этот термин media ecology и основные направления для исследований в этой области предложил канадский культуролог, философ и филолог Маршалл Маклюэн (Marshall McLuhan, 1911–1980). А роль информации в таких системах наиболее глубоко изучил американец Роберт Логан (Robert Logan 1939 г.), физик, занимающийся медиаэкологией, автор книги «Что такое информация?» (What Is Information? 2014).
Взаимосвязь между данными и информацией, пирамида DIKW и ее значение для AI
Взаимосвязь между данными и информацией намного сложнее, чем может показаться. Сами по себе данные, как набор байтов, не имеют никакого смысла, но те же данные, поставленные в контекст, превращаются в информацию. Роберт Сейнер (Robert Seiner), один из ведущих специалистов по работе с данными, издатель бюллетеня The Data Administration Newsletter (TDAN.com) дал следующее определение: «Данные плюс метаданные равняется информация» (Data plus metadata equals the information). Такое упрощенное определение информации допустимо в приложении к текстам или изображениям, в том случае, если их можно снабдить метаданными. Однако есть и иные типы данных, которые необходимо превращать в информацию без привлечения специальным образом подготовленных метаданных, для этого требуется знания и интуиция человека. Такие данные-изображения, полученные в результате различного рода экспериментальных исследований, таких как медицинские обследования, съемки земной поверхности или каких-то иных опытов. В качестве примера принимающей стороны можно привести врача-диагноста, рассматривающего рентгеновские или другие снимки, или геофизика перед которым лежат результаты полевой съемки. Изображения не имеют никакого содержательного смысла для непосвященного, но чем выше уровень квалификация специалиста, анализирующего эти изображения, чем больше, условно говоря, метаданных он может извлечь из своего сознания, тем содержательнее оказываются данные. Иногда такие скрытые метаданные называют латентными или интеллектуальными (Latent metadata, Intellectual metadata). В значительной мере целью образования является обучение специалистов к работе со скрытыми метаданными. Автору пришлось стать свидетелем работы геофизиков с результатами полевых работ. Чем больше багаж знаний, профессиональная эрудиция, те больше информации человек способен извлечь из карты, он сам является носителем метаданных.
Рассел Аккофф (Russell Ackoff, 1919–2009), специалист в области исследования операций и теории систем предложил четырехуровневую иерархическую модель (четырехзвенную модель) DIKW (data, information, knowledge, wisdom), связывающую данные, информацию, знания и здравый смысл, основанный на глубоком познании.
• Данные (data) получаются из внешнего мира в результате человеческой деятельности с использованием тех или иных устройств.
• Информация (information) создается посредством анализа отношений и взаимосвязей между фрагментами данных в результате ответа на вопросы: Кто? Что? Где? Сколько? Когда? Почему? Цель анализа – помещение данных в контекст.