Сознающий ум. В поисках фундаментальной теории
Шрифт:
Мы, таким образом, сможем применить аргументы от блекнущих и скачущих квалиа. Если итоговая система лишена сознательного опыта, то должна существовать промежуточная система с блеклыми сознательными переживаниями. А это неправдоподобно по уже известным нам причинам. Мы можем также вообразить, что мы поочередно подключаем то нейронную цепь, то соответствующую ей резервную цепь, имплементированную демонами или одним демоном и клочками бумаги. Как и прежде, это привело бы к скачущим квалиа при неизменной функциональной организации, так что система не смогла бы заметить разницу. И опять-таки гораздо более правдоподобным выглядит допущение, что квалиа не будут меняться.
Оправданным, стало быть, кажется заключение, что итоговая система имеет точно такие же сознательные переживания, что и исходная система. Если нейронная система порождала
Подобный взгляд на вещи проясняет два момента, которые могли бы оставаться затемненными серловским описанием Китайской комнаты. Во-первых, «клочки бумаги» в комнате — это не просто кучи формальных символов. Они образуют конкретную динамическую систему, каузальная организация которой прямо соответствует организации исходного мозга. Это обстоятельство затемняется медлительностью связываемой с ними манипуляции символами, а также присутствием демона, осуществляющего эту манипуляцию; и тем не менее сознательный опыт порождает именно конкретная динамика этих клочков бумаги. Во-вторых, демон играет сугубо второстепенную роль. Ключевая каузальная динамика связана с клочками бумаги, соответствующими нейронам в исходном случае. Демон всего лишь оказывает вспоможение этим каузальным отношениям. Образ демона, мечущегося внутри черепной коробки, делает очевидным то обстоятельство, что атрибутирование переживаний системы демону было бы серьезным смешением уровней. Факт сознательности демона может искушать на предположение, что если переживания системы вообще где-то существуют, то они существуют именно в демоне; но в действительности сознательность демона не имеет никакого отношения к функционированию системы. Функции демона могла бы выполнить простая таблица соответствий. Ключевым аспектом системы является динамика символов.
Аргумент Серла интуитивно впечатляет нас из-за причудливости программной имплементации, затемняющей реализацию релевантной каузальной динамики. Но при избавлении от образов, навеваемых присутствием нерелевантного демона и медлительностью перетасовки символов, мы увидим, что каузальная динамика в комнате в точности отражает каузальную динамику в черепной коробке. И тогда предположение о том, что эта система порождает опыт, уже не будет казаться столь неправдоподобным.
В одной из версий серловского аргумента демон запоминает правила вычисления и внутренним образом имплементирует программу. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но можно вообразить, что демон с модулем суперпамяти был бы в состоянии запомнить все правила и состояния всех символов. В этом случае опять-таки можно ожидать, что система породит сознательные переживания, которые не будут переживаниями демона. Серл доказывает, что если кто-то и должен иметь переживания, то им может быть только демон, так как все процессы обработки информации протекают внутри него, однако эта ситуация должна рассматриваться как пример реализации двух ментальных систем в одном и том же физическом пространстве. Устройство, порождающее китайские переживания, никак не совпадает с организацией, порождающей переживания демона. Понимающее китайский устройство состоит в каузальных отношениях миллиардов локаций модуля суперпамяти; демон же, повторю, действует лишь в качестве каузального вспоможения. Это становится очевидным при рассмотрении спектра случаев, когда демон, мечущийся в черепной коробке, постепенно запоминает правила и символы — до тех пор, пока не интернализирует все их. Соответствующая структура постепенно перемещается из черепной коробки в суперпамять демона, но опыт остается неизменным и совершенно обособленным от переживаний демона.
Можно было бы предположить, что поскольку мой аргумент предполагает дуплицирование организации мозга, он устанавливает лишь слабую разновидность сильного ИИ, тесно увязанную с биологией. (При обсуждении возражения, называемого им «Симулятором мозга», Серл выказывает удивление тем обстоятельством,
Второй аргумент, выдвинутый Серлом (Searle 1984), звучит так:
1. Компьютерная программа имеет синтаксический характер.
2. Синтаксис недостаточен для семантики.
3. Сознания семантичны.
4. Поэтому имплементации программы недостаточно для сознания.
Опять-таки, это выдвигается как аргумент об интенциональности, но он может рассматриваться и как аргумент о сознании. Серл считает, что главной разновидностью интенциональности является феноменологическая интенциональность, внутренне присущая сознанию.
Этот аргумент можно интерпретировать и критиковать разными способами, но главная его проблема состоит в том, что он не придает должного значения ключевой роли имплементации. Программы — это абстрактные вычислительные объекты, и они сугубо синтаксичны. Можно быть уверенным, что ни одна программа как таковая не может претендовать на наличие в ней ментального. Но имплементации программ — это конкретные системы с каузальной динамикой, и они не есть нечто сугубо синтаксичное. Имплементация имеет каузальный вес в реальном мире, и благодаря этому весу возникает сознание и интенциональность. Синтаксична программа; имплементация же имеет семантическое содержание.
Серл мог бы попробовать доказать, что и имплементации в определенном смысле синтаксичны — возможно, потому, что динамика имплементаций детерминируется формальными принципами. Однако «синтаксичность» имплементаций имеет смысл, никак не связанный с тем, в котором можно правдоподобно утверждать, что синтаксис недостаточен для семантики. Хотя тезис о том, что статичный набор абстрактных символов лишен внутренних семантических свойств, и может быть правдоподобным, гораздо менее очевидным кажется утверждение, что формально специфицированные каузальные процессы не могут фундировать ментальное.
Мы можем следующим образом спародировать этот аргумент:
1. Рецепты синтаксичны.
2. Синтаксис недостаточен для рассыпчатости.
3. Пирожные рассыпчаты.
4. Значит, имплементации рецепта недостаточно для пирожного.
В таком виде указанный дефект бросается в глаза. Аргумент не проводит различия между рецептами, являющимися синтаксическими объектами, и имплементациями рецептов, полноценными физическими системами в реальном мире. Вся работа, опять-таки, проделывается отношением имплементации, соотносящим области абстрактного и конкретного. Рецепт имплицитно специфицирует класс физических систем, которые могут рассматриваться как имплементации этого рецепта, и именно эти системы обладают такими характеристиками, как рассыпчатость. Аналогичным образом программа имплицитно специфицирует класс физических систем, которые могут рассматриваться в качестве ее имплементаций, и именно они порождают такие характеристики, как ментальное.
Одно из популярных возражений против искусственного интеллекта (напр., Searle 1980; Hamad 1989) состоит в том, что симуляция феномена не тождественна его воспроизведению. К примеру, при компьютерной симуляции пищеварения никакая пища в действительности не переваривается. Симуляция урагана — это не настоящий ураган; при его симуляции на компьютере никто не промокает. При симуляции тепла реальное тепло не выделяется. Так почему же мы должны ожидать появления настоящего сознания при его симуляции? Почему мы должны ожидать, что именно в этом случае вычислительный процесс не просто симуляция, но и нечто реальное?