Вселенная
Шрифт:
Тьюринг считал, что, для того чтобы достичь прогресса в этом отношении, нужно сосредоточиться на решении вопросов, на которые можно объективно ответить, наблюдая мир, а не прикрываться рассуждениями о личном опыте, который по определению скрыт от стороннего наблюдателя. С долей очаровательного оптимизма он приходит к выводу о том, что любой, кто глубоко задумается об этих вещах, в конечном итоге с ним согласится: «Большинство из тех, кто поддерживает возражение с точки зрения сознания скорее откажутся от своих взглядов, чем признают солипсистскую точку зрения».
Однако можно утверждать, что о мышлении и сознании нельзя судить извне, но при этом признавать, что остальные люди, вероятно, обладают сознанием. Кто-то
* * *
«Китайская комната» — это мысленный эксперимент, предложенный американским философом Джоном Сёрлем. Эксперимент призван заострить внимание на том, почему тест Тьюринга, возможно, не позволяет ухватить истинный смысл «мышления» или «понимания». Сёрль предлагает вообразить человека, запертого в комнате с огромными кипами бумаги, причём на каждом листе записан какой-либо китайский текст. В стене есть прорезь, через которую можно передавать листы бумаги, а также имеется набор инструкций в форме справочной таблицы. Человек говорит и читает по-английски, но ни слова не понимает по-китайски. Когда в комнату через прорезь просовывают лист бумаги с каким-то китайским текстом, человек может свериться с инструкциями и выйти на один из имеющихся у него листов бумаги. Затем передать этот лист обратно через прорезь.
Тестируемый даже не догадывается, что на попадающих в комнату листках — абсолютно разумные вопросы на китайском языке, а на тех бумажках, которые он по инструкции должен передавать обратно, — совершенно логичные ответы на китайском, которые мог бы дать обычный мыслящий человек. С точки зрения китайца, находящегося за пределами комнаты, всё выглядит именно так: он задаёт вопросы находящемуся в комнате носителю китайского языка, а тот отвечает ему по-китайски.
Но нам же понятно, говорит Сёрль, что в комнате нет никого, кто понимал бы китайский. Там есть только англоговорящий человек, кипы бумаги и исчерпывающий набор инструкций. По-видимому, комната позволяет пройти тест Тьюринга (на китайском языке), но о реальном понимании речь не идёт. Изначально Сёрль ставил перед собой цель исследовать искусственный интеллект, который, на его взгляд, никогда не смог бы достичь истинно человеческого уровня мышления. Компьютер, пытающийся пройти тест Тьюринга, подобен человеку в китайской комнате: он может манипулировать символами, создавая иллюзию понимания, но никакого реального осознания здесь нет.
Мысленный эксперимент Сёрля активно комментируют, как правило стараясь опровергнуть его точку зрения. Простейший контраргумент кажется вполне веским: разумеется, нельзя сказать, что человек в комнате понимает китайский, но китайский язык понятен совокупной системе «человек плюс набор инструкций». Как и Тьюринг с возражением от сознания, Сёрль предвидел появление этого аргумента и затронул его в своей оригинальной статье. Он был не слишком впечатлён:
Я имею в виду идею о том, что хотя индивид и не понимает китайского, но некое соединение индивида с листами бумаги китайский понять может. Мне сложно вообразить, что кто-то также может посчитать эту идею правдоподобной.
Как и во многих подобных мысленных экспериментах, первое условие Китайской комнаты — существование неких листов бумаги и пособия с инструкциями, позволяющими сымитировать человеческую коммуникацию, — это
С точки зрения Сёрля, неважно, какие элементы мы включим в данную «систему», — она в любом виде не позволит достичь понимания в полном смысле. Однако эксперимент с Китайской комнатой не позволяет однозначно аргументировать это утверждение. Он иллюстрирует точку зрения, согласно которой «понимание» — это концепция, не сводимая к обычной физической корреляции между вводом и выводом; понимание требует чего-то ещё, то есть такого смысла, в котором происходящее в системе действительно «описывает» обсуждаемую тему. С точки зрения поэтического натурализма «содержательность» не является неким метафизическим качеством, которым может обладать информация; это просто удобный способ рассуждения о корреляциях между различными элементами физического мира.
Используя Китайскую комнату для аргументации того, что машины не могут думать, мы уходим от вопроса, а не решаем его. Эксперимент порождает конкретную модель машины, которая якобы умеет думать, а затем ставится вопрос: «Вы что, считаете, что в этом случае о подлинном понимании речи не идёт, правда?». Наилучший ответ: «Почему бы и нет?».
Если мир — чисто физический, то под «пониманием» имеется в виду способ рассуждения о конкретной корреляции между информацией, локализованной в одной системе (воплощённой в конкретной совокупности материи), и условиями внешнего мира. Ничто в примере с Китайской комнатой не указывает на то, что мы должны думать именно так, если, конечно, мы уже не уверились в том, что не должны.
Здесь мы не пытаемся преуменьшить сложности, возникающие при попытке дать дефиницию «пониманию». В учебнике по квантовой теории поля содержится информация о квантовой теории поля, но сама книга не «понимает» своего предмета. Книга не может ответить на вопросы, которые мы могли бы ей задать, а также не может производить расчёты, пользуясь инструментарием теории поля. Понимание — это по факту более динамичная и процессно-ориентированная концепция, чем простое наличие информации, и сложная работа по формулировке аккуратной дефиниции для неё, несомненно, стоит затраченных усилий. Тем не менее, как указывал Тьюринг, нет никаких причин полагать, что такая сложная работа не может быть выполнена на чисто операционном уровне — в контексте того, как именно устроены вещи, без привлечения недосягаемых свойств («понимание», «сознание»), которые с самого начала обозначаются как абсолютно недоступные для наблюдения извне.
При помощи своего мысленного эксперимента Сёрль изначально пытался решить не проблему сознания (определить, что такое «сознавать» и «испытывать»), а проблему познания и интенциональности (определить, что такое «думать» и «понимать»). Однако эти проблемы тесно взаимосвязаны, и Сёрль позже сам обдумывал аргумент о том, что он якобы продемонстрировал невозможность наличия сознания у компьютерной программы. Такое расширение достаточно очевидно: если вы считаете, что заключённая в комнате система ничего не «понимает», то, вероятно, согласитесь, что она также ничего не сознаёт и не воспринимает.