Трудная проблема сознания
Шрифт:
И здесь, кстати говоря, удобный повод еще раз коснуться сёрловского «факта» порождения ментального нейронными процессами. Мы видели, что о фактичности и каузальности этого порождения можно говорить лишь в том смысле, что наличия нормально функционирующего человеческого мозга, по — видимому, достаточно для существования в этом мозге сознания. Напомним, что для решения проблемы сознание — тело, по Сёрлу, надо дополнить эту констатацию тезисом, что сознательные состояния, будучи онтологически нередуцируе — мыми к нейронным процессам, тем не менее являются высокоуровневыми характеристиками этих процессов, т. е. тоже могут быть названы процессами в мозге и избавлены от дуалистических коннотаций.
Я уже отмечал проблематичность этого тезиса — и не будем к нему возвращаться. Вместо этого попробуем понять, избавлен ли от неясностей предшествующий ему каузальный постулат. Сразу надо подчеркнуть, что Сёрл проводит тут важное различение [100] . В книгах конца 90–х «Тайна сознания» и «Сознание, язык и общество» [101] он обозначает три вопроса: порождает ли мозг сознание? как мозг порождает сознание? и как может мозг порождать сознание?
[100]
Cm.: Searle J. R. The Mystery of Consciousness. P. 191–193. Ср.: Searle J. R. Mind, Language, and Society. P. 51.
[101]
См.
Первый из этих вопросов допускает простой положительный ответ и составляет часть решения философской проблемы сознания — именно в силу простоты этого вопроса Сёрл считает элементарной и саму проблему сознание — тело, по крайней мере в этом ее аспекте. Второй вопрос, напротив, с его точки зрения, не имеет отношения к философии. Ответ на него должна давать нейронаука. Путем эмпирических разысканий ученые могут обнаружить нейронные корреляты и причины конкретных сознательных состояний. Сёрл одобрительно отзывается об исследованиях Ф. Крика и особенно Дж. Эдельмана (который больше импонирует ему, так как трактует сознание как единую, холистскую среду, в отличие от «атомарного" понимания Крика), указывая, что они находятся на верном пути, хотя и в самом его начале. Наконец, третий вопрос — как мозг может порождать сознание? — объявляется Сёрлом все еще закрытым для решения: «Причина, по которой сознание кажется "тайной", в том, что у нас нет ясной идеи относительно того, как что-либо в мозге могло бы каузально порождать сознательные состояния» [102] . Очевидно, что вопрос «Как мозг может порождать сознание?» может возникнуть лишь в ситуации, когда нам известно, что мозг порождает сознание, но неясно, почему это происходит. Но ведь это и есть наша «трудная проблема»! [103] Еще в начале книги я отмечал, что большинство современных авторов не сомневается, что мозг порождает сознание, но, в отличие от своих предшественников, пытаются уточнить, при каких условиях и почему мозг порождает его. Сёрл же, как мы только что убедились, оставляет этот вопрос без ответа. Причем он не только не говорит, что мы пока не знаем ответа, но не утверждает и того, что его можно будет узнать. Ссылаясь на Макгинна, он замечает, что «могло бы оказаться так, что мы были бы просто не в состоянии объяснить это, что каузальное отношение мозга и сознания противится теоретическому объяснению, что проблема объяснения отношения сознания к мозгу выходит за пределы наших биологически ограниченных когнитивных способностей» [104] . Однако позиция Макгинна для него тоже не более чем одна из опций. Возможно, говорит нам Сёрл, Макгинн прав и ответ на вопрос, как мозг может порождать сознание, в принципе не может быть получен, но не менее вероятен, считает он, тот вариант, что прогресс нейрона — уки и отыскание нейронных основ сознания все же позволит раскрыть соответствующие каузальные механизмы до такой степени, чтобы уяснить, почему над этими основами возвышаются субъективные состояния [105] .
[102]
Searle J. R. The Mystery of Consciousness. P. 193.
[103]
Соответствие третьего вопроса Сёрла «трудной проблеме» Чалмерса не вызывает сомнений. В «Сознающем уме» (1996) Чал — мерс формулирует ее так: «Как физическая система мол — сет порождать сознательный опыт?» — Chalmers D. J. The Conscious Mind. P. 25. Сходство очевидно, но это не значит, что Сёрл использовал формулировку Чалмерса. Она есть уже в статье «Проблема сознания», впервые опубликованной в 1993 г. См.: Searle J. R. Consciousness and Language. P. 10.
[104]
Searle J. R. The Mystery of Consciousness. P. 197–198.
[105]
Ibid. P. 197–198; Searle J. R. Mind. P, 146. Ср.: Searle J. R, Freedom and Neurobiology. P. 32. В «Свободе и нейробиологии» (2007), как, к примеру, и в статье «Проблема сознания» (1993), Сёрл более оптимистичен по поводу перспектив научного решения проблемы сознания. Но в 2000–е годы он уже не считает, что ее научное решение закроет все философские вопросы.
Итак, самый большой сюрприз ожидал нас, как выясняется, уже под конец нашего экскурса в философию Сёрла: он вообще отказывается отвечать на главный вопрос, решать «трудную проблему сознания». И теперь мы можем понять истоки неясностей, обнаруживаемых даже в тех частях его метафизики сознания, где он предлагает какие-то ответы. Не решив «трудную проблему сознания», нельзя надеяться и на четкое понимание его онтологического статуса.
Впрочем, несмотря на декларативный отказ Сёрла от рассмотрения «трудной проблемы», в его текстах все же можно найти намеки на то, в каком направлении он пытается нащупать ее решение. Чтобы разглядеть их, задумаемся, на что нацеливает нас «трудный» вопрос о том, почему мозг порождает сознание. Мы уверены, что мозг достаточен для сознания, но не знаем, что именно делает его достаточным, не знаем, какое именно свойство мозга ответственно за это порождение. Решение «трудной проблемы сознания» позволило бы выявить это свойство и объяснить его действенность в качестве генератора сознания. Но как найти подходы к его выявлению? В XX веке многим казалось, что ответ на этот вопрос надо искать в сфере разработок по теме искусственного интеллекта [106] . Успешное программное моделирование ряда когнитивных операций наводило на мысль, что мозг тоже может быть рассмотрен как компьютер. И если эта аналогия правомерна, то, возможно, сознание может быть истолковано как некая совокупность программ, инсталлированных в мозге, или как результат «программного» наполнения нейронных сетей.
[106]
В Новое время то, что сейчас именуется «искусственным интеллектом» (термин «artificial intelligence» введен Джоном Маккар — ти в середине XX века), иногда называли «неодушевленным разумом» (inanimate reason). См.: Standage T. Der Turke. Berlin, 2005. S. 60.
Так и возникла гипотеза, что особенностью мозга, генерирующей сознание, является именно его вычислительная природа, способность десятков миллиардов его нейронов реализо — вывать сложнейшие биологические и культурные алгоритмы, совокупность которых и является тем, что мы называем сознанием, Сёрл, однако, решительно выступил против программной метафоры сознания. В теперь уже почти легендарной статье 1980 г. «Сознания, мозги и программы» он предложил мысленный эксперимент, так называемый «Аргумент китайской комнаты», который был призван разрушить всякую аналогию между сознанием
Аргумент китайской комнаты — повествующий о человеке- компьютере, скрытом в помещении, обстановка которого позволяет создать впечатление его владения китайским языком для сторонних наблюдателей, хотя он не понимает по — китайски, — породил сотни откликов. Обсуждение не прекращается и поныне. Злые языки [107] говорят, что Сёрл позаимствовал его идею из одной статьи Нэда Блока, где тот рассуждал о моделировании работы мозга китайской нацией с радиопередатчиками [108] . Сам Сёрл предлагает иную версию: «В первые дни когнитивной науки существовал некий фонд под названием "Слоан Фаундейшн", который давал людям деньги, чтобы они ездили по стране с лекциями. Нас в шутку величали Слоанскими Рейнджерами. Меня позвали в Йель прочитать лекцию в Лаборатории искусственного интеллекта. Я понятия не имел об искусственном интеллекте. Я купил книгу Роберта Шэнка и Роберта Эбелсона [109] , из этой лаборатории, чтобы почитать в самолете. Я читал ее в самолете, и там шла речь о программах, понимающих рассказы. И я подумал: да это же смешно! Есть простое опровержение. Пусть это будет китайский рассказ и пусть я буду компьютером. Я все равно не буду понимать рассказ. Так появился Аргумент китайской комнаты» [110] .
[107]
См., напр.: Pinker S. How the Mind Works. P. 93.
[108]
Block N. Troubles with functionalism // Minnesota Studies in the Philosophy of Science, 1978, 9. P. 261–325. В действительности мысленный эксперимент Блока имеет другую структуру, чем аргумент Сёрла. Блок просто обращается к интуициям здравого смысла: китайская нация не может быть наделена каким-то отдельным от индивидуальных сознаний сознанием. Сёрл же предлагает человеку реально встать на место компьютера — и только после этого делать выводы.
[109]
Вот книга, которую купил Сёрл: Schank R., Abelson R. Scripts, Plans, Goals, and Understanding: An Inquiry into Human Knowledge Structure. Hillsdale, 1977.
[110]
Faigenbaum G. Conversations with John Searle, P. 54.
Отчет Сёрла весьма содержателен: он позволяет уяснить, почему его статья 1980 г. имела такой большой резонанс [111] . В этой статье поначалу действительно идет речь лишь о частном случае программной эмуляции когнитивных способностей — и Сёрл без труда показывает, что при этом сохраняются громадные различия искусственного и человеческого интеллекта. Но там же Сёрл дает понять, что считает возможным обобщить свой анализ на все случаи подобной эмуляции [112] . Таким образом ему удалось добиться мощного эффекта переноса очевидностей частного случая на его глобальный вывод о том, что естественный интеллект не работает как программа.
[111]
Некоторые — в шутку, а может, и не совсем в шутку — даже предлагали переопределить когнитивную науку как «исследовательскую программу, направленную на доказательство ложности сёрловского Аргумента китайской комнаты» — см.: Hamad S. Minds, machines, and Searle 2: What's right and wrong about the Chinese Room Argument // Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, ed. by J. Preston and M. Bishop, N. Y., 2002. P. 295.
[112]
Я использую термин «эмуляция» как синоним термина «симуляция», применяемого Сёрлом.
Чтобы разобраться, имел ли он право на такие обобщения, ненадолго углубимся в детали. Как мы только что слышали, Сёрл ознакомился с программами, обеспечивающими видимость понимания компьютером рассказов. Человеческое понимание всегда контекстуально, и если мы слышим рассказ о том, что человек зашел в ресторан и через час покинул его, оставив чаевые, то мы понимаем больше того, что буквально сказано. К примеру, если спросить нас, съел ли этот человек заказанную им сусину с икрой морского ежа (сам Сёрл скромно пишет о гамбургере, но я хотел бы приспособить его иллюстрации к российской специфике), то мы без колебаний ответим «да». Программа, эмулирующая понимание, должна отвечать на подобные вопросы. И в принципе такую программу можно написать, задавая контекст, на который будут накладываться вводимые данные. Но можно ли сказать, что компьютер, снабженный этой программой, действительно будет понимать рассказ? Сёрл убедительно показывает, что это не так. Но прежде он оговаривается, что подразумевает под программой алгоритм формальной обработки символов, без учета их возможной интерпретации — с такими синтаксическими программами и работают классические компьютеры.
Так вот, программу, понимающую некий рассказ, может «исполнить» и человек. При этом совершенно неважно, на каком языке будет этот рассказ, хоть на китайском, как и допускает Сёрл. Лишь бы этот человек знал — и это знание дает имеющаяся у него или заученная им программа, — какие именно символы выдавать в ответ на поступающие вопросы, в которых его интересуют опять же только символы, т. е. формальная сторона. Заучивший такую программу человек будет полным аналогом компьютера, эмулирующего понимание рассказа. Со стороны — наблюдателю, который находится вне Китайской комнаты, где сидит наш испытуемый, — будет казаться, что тот понимает рассказ. Но в действительности он не будет иметь никакого представления, о чем же идет речь в этом самом рассказе.
Отсюда следует, говорит Сёрл, что компьютер, выполняющий программу по эмуляции человеческого интеллекта, не может рассматриваться как аналог этого интеллекта, так как эта эмуляция происходит без какого бы то ни было реального понимания, характерного для нашего интеллекта. А это, в свою очередь, означает, что человеческий интеллект не есть программа, выполняемая на нейронном компьютере мозга. Тем самым, по мнению Сёрла, он опровергает концепцию «сильного искусственного интеллекта» (ИИ), согласно которой наличие сознания эквивалентно выполнению программы или необходимо связано с ним. Но все, на мой взгляд, могло бы повернуться иначе, если бы он не сделал одну ремарку — вначале относительно конкретной программы понимания рассказов, а затем тоже обобщенную на все случаи, — а именно что, отвергая «сильный ИИ», он является сторонником так называемого «слабого ИИ», т. е. считает, что действия человеческого интеллекта могут [113] успешно симулироваться на компьютере. В самом деле, почему бы и нет, рассуждает Сёрл. На компьютере можно смоделировать все, в том числе и работу интеллекта. Но моделирование человеческого интеллекта так же мало может породить в компьютере понимание, как моделирование грозы может вызвать дождь в этом самом компьютере.
[113]
Searle J. R. The Mystery of Consciousness. P. 17