Чтение онлайн

на главную - закладки

Жанры

Трудная проблема сознания
Шрифт:

Допущение возможности «слабого ИИ» кажется безобидным, пока мы не осознаем, что Сёрл, выходит, готов допустить создание таких, к примеру, программ, которые будут полностью эмулировать человеком понимание хотя бы того же китайского языка. И в позднейших вариантах изложения своего аргумента Сёрл говорит уже именно о глобальных программах и о том, что их выполнение на компьютере не дает с необходимостью эффекта реального понимания. С одной стороны, это логично: ведь его интересует не частный, а общий тезис о несходстве нашего осознанного понимания и искусственного интеллекта. Но проблема в том, что при таком обобщении Аргумент китайской комнаты становится уязвим для критики.

В самом деле, еще раз представим человека, запертого в комнате, заваленной горами китайских иероглифов, и снабженного программой, которая позволяет, по предположению, полностью эмулировать его знание китайского языка. Что же это за программа? Какого рода программа может подсказывать ему выбор иероглифов, создающий полную иллюзию осмысленного речевого поведения, т. е. позволяющий ему проходить знаменитый тест Тьюринга? Программа — это алгоритм, ставящий в соответствие данные на входе данным на выходе. Но какой алгоритм может поставить в соответствие данным на входе, означающим, к примеру — о чем не знает испытуемый — такой вопрос: «Сколько сейчас времени?», такие данные на выходе, которые соответствовали бы критериям разумного речевого поведения, т. е. не позволили бы мне сразу сказать (если допустить, что мне известно, что в комнате есть часы), что это ответ машины? Никакая программа не может заранее прописать, в какое время я задам этот вопрос — если это не программа,

кодирующая божественное провидение (и даже она не выручила бы, так как получается, что человек, задающий подобный вопрос, не мог заранее ознакомиться с ней, что нелепо, но необходимо допустить, так как в противном случае ничто не мешало бы ему задать свой вопрос в другое время [114] ). Или представим, что человек, задающий вопросы, заранее принес в ту комнату какой-то предмет — к примеру, банку кока — колы — и поставил его на стол (это не противоречит условиям мысленного эксперимента Сёрла). И теперь он спрашивает: «Что вы видите на столе?» Невозможно вообразить, как человек в Китайской комнате смог бы ответить на этот вопрос при заданных Сёрлом условиях. Таким образом, чтобы осмысленно ответить на подобные вопросы, наш герой должен получить инструкцию: такие-то иероглифы означают то-то и то-то (например, «взгляни на часы», «смотри на стол», «опиши то, что видишь»), т. е. получить семантическую информацию [115] .

[114]

Кстати, подобные программы неявно исключаются Тьюрингом, по образцу знаменитого теста которого построена Китайская комната. См.: Turing A, Computing machinery and intelligence. Mind 59 (1950). P. 433–460. Это очевидно из финала 6 параграфа данной статьи Тьюринга.

[115]

Семантическими можно считать те данные, которые играют роль предельного означаемого в некоторой системе координат — ясно, что это условное понятие, но столь же условно и понимание.

Но, получая ее, он начинает понимать китайский язык! Можно, правда, сказать, что Сёрл предвидел это возражение и ответил на него уже в разбираемой нами статье 1980 г. Дело в том, что мы должны помнить, что программы, о которых идет речь, в принципе написаны для машин, а не для человека: он лишь, так сказать, случайный гость в Китайской комнате. Поэтому очевидно, что для ответа на вопрос, подобный заданному выше — о том, «что вы видите на столе» и т. п., — программа должна содержать набор команд для какого-то механизма, снабженного телекамерой, и, исполняя эти команды, такой механизм повернет камеру в нужное место. Так что человек, на время инсталлирующий в себя данную программу, должен просто отдавать команды такому механизму при появлении тех или иных иероглифов, не имея никакого представления ни о смысле этих закодированных команд, ни о смысле символов на выходе этого механизма, трактуемых извне как ответ на заданный вопрос.

Одним словом, Сёрл уверен, что превращение Китайской комнаты в Китайского робота ничего не меняет [116] : человек, исполняющий программу понимания китайского языка, все равно не понимает по — китайски. Однако с этим нельзя согласиться. Вдумаемся еще раз в условия нового мысленного эксперимента. Они не совпадают с условиями Китайской комнаты. В первом случае предполагалось, что человек полностью знаком с программой понимания китайского языка. Во втором — он не знает одного существенного компонента программы, а именно он не знает, почему символы, уходящие в устройство с телекамерой (при этом неважно, знает ли он, что там именно телекамера, он просто отсылает куда-то символы), порождают какие-то другие символы на выходе, которые он, в свою очередь, передает в качестве ответа на вопрос о том, что он видит вокруг себя.

[116]

«Тот же самый мысленный эксперимент, — пишет Сёрл, — применим и к случаю с роботом» — Searle J. R. Minds, brains, and programs // The Nature of Mind. P. 514. Первоначально эта статья была опубликована в журнале The Behavioral and Brain Sciences (BBS), в 3–м номере за 1980 год.

Еще раз подчеркну: в самой программе эта связь должна быть прописана, в самой программе должно быть прописано, что такие-то данные телекамеры надо кодировать такими-то символами и т. п. Иными словами, в самой программе должен быть квазисемантический блок. Поскольку он неизвестен человеку, исполняющему программу, он, естественно, не понимает задаваемые ему вопросы. Но можно предположить, что их понимает весь робот, одним из механизмов которого оказывается человек внутри его. Кстати, одно из самых популярных в профессиональной философской среде возражений на Аргумент китайской комнаты состоит именно в том, что, хотя человек в ней не понимает китайского [117] , его может понимать вся комната. Обычно оно вызывает смех в студенческой аудитории. И справедливо: если взять Китайскую комнату в ее, скажем так, изначальной обстановке, то это предположение просто нелепо. Изначальная программа китайской комнаты не имела квазисемантического блока. Человек в этой комнате знал всю программу — крайне ограниченную, напомним, по своим эмулятивным возможностям [118] , и рассмотрение комнаты в целом ничего не меняет. Но в механизированной китайской комнате — в китайском роботе — ситуация изменилась, в его программе есть «семантическая» часть, и она неизвестна человеку. Если бы он имел к ней доступ, то, исполняя эту программу, он стал бы понимать китайский язык, что, собственно, и требовалось доказать [119] . Впрочем, это не означает, что сам робот реально понимает китайский. Пока это просто гипотеза, которая не может быть опровергнута средствами Китайской комнаты Сёрла.

[117]

Прекрасный обзор наиболее значимых возражений — Cole D. The Chinese Room Argument: Entry in the Stanford Encyclopedia of Philosophy 2004См. также: Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, ed. by J. Preston and M. Bishop. N. Y., 2002; Moural J. The Chinese Room Argument // John Searle, ed. by B. Smith. Cambridge, 2003. P. 214–260. Среди критиков Китайской комнаты был и сам Сёрл. Речь идет не о том, что он отказался от этого аргумента, скорее он считает, что в нем он еще шел на поводу у когнити- вистов, допуская объективную реальность информации, программ и компьютеров. В действительности, как доказывает он в ряде поздних работ, они существуют не сами по себе, а лишь при условии существования людей, т. е. наблюдателей, интерпретирующих те или иные материальные объекты в качестве программ, компьютеров или носителей информации — см., напр.: Searle J. R. Mind. P. 91–92. Однако эти доводы были давно опровергнуты — см.: Chalmers D. J. The Conscious Mind. P. 315–320, и я не буду принимать их во внима ние (см. также: Edelman G., Tononi G. A Universe of Consciousness: How Matter Becomes Imagination. N. Y., 2000. P. 126–130). Я обобщил свои представления об аргументе Сёрла в статье «Кока — кола и секрет Китайской комнаты» — Философия сознания: классика и современность. М., 2007. С. 8694.

[118]

Ограниченность подобных эмуляций была признана самим фактом развития коннекционистских моделей искусственного интеллекта, пришедших на смену символьным подходам, реализованным и в Китайской комнате, Но насколько существенны эти изменения, остается неясным.

[119]

Сходные возражения высказывались Сёрлу самыми разными авторами, но, как правило, в несколько смазанном контексте, а именно без акцентирования неэквивалентности Китайской комнаты и Китайского робота или же ограниченных эмулятивных ресурсов Комнаты. См., напр: Blackmore S. Consciousness: An Introduction. N. Y., 2004 (2003); P. 205–206; Harnad S. Grounding symbols in the analog world with neural nets: A hybrid model // Think 2 (1993). P. 12–20. Харнад, к примеру, признает, что Китайская

комната может пройти тест Тьюринга безо всякого понимания китайского языка сидящим в ней человеком, но при этом утверждает, что Робот может пройти Тотальный тест Тьюинга (подразумевающий не только языковую, но сенсорно — моторную компетентность) только при условии, что человек в нем действительно ощущает мир. Однако, чтобы опровергнуть этот вывод Харнада, не обязательно прибегать к экзотическим мысленным экспериментам (см.: Bringsjord S., Noel R. Real robots and the missing thought- experiment in the Chinese Room dialectic // Views into the Chinese Room. P. 144166). В самом деле, если Китайская комната проходит тест Тьюринга, т. с. если возможно написать такую программу, которая позволит давать внешне осмысленные ответы на любые вопросы, касающиеся в том числе и обстановки этой комнаты, то вполне можно написать и такую программу, которая будет давать внешне осмысленные команды роботу в зависимости от его окружения, заранее прописанного в программе. Человек, управляющий таким чудесным роботом, может и не смотреть в его телекамеры, т. е. «видеть» его окружение, вовсе и не видя его.

Так или иначе, но, уяснив все эти обстоятельства, мы поймем, что Аргумент китайской комнаты показывает не совсем то или даже совсем не то, что думает Сёрл. Этот аргумент не разрушает «сильный ИИ», потому что такое разрушение подразумевает доказательство реальной возможности точных программных эмуляторов человеческого интеллекта, притом таких, которые не порождают осмысленное понимание: если эмулирующая его система заведомо не может проходить тест Тьюринга, нет ничего удивительного в том, что мы отказываем ей в понимании! Сёрл, разумеется, прав, различая синтаксис и семантику и говоря, что наличие чисто синтаксических эмуляторов не означало бы, что реализующие их системы что-то реально понимают. Но проблема в том, что, как мы только что убедились, он не доказывает невозможности того, что определенного рода синтаксические эмуляции с необходимостью генерируют по крайней мере некое подобие семантических отношений. Соответственно, он не доказывает и того, что в случае существования таких программ инсталлирующие их материальные системы не обладали бы реальным пониманием. Что же касается чисто синтаксических эмуляторов, не порождающих понимание (это Сёрл доказал), то мы увидели, что они невозможны, если говорить не о частных интеллектуальных задачах, а об интеллекте в целом. И мысленный эксперимент с Китайской комнатой помогает уяснить, почему дело обстоит именно так.

Именно поэтому Аргумент китайской комнаты может использоваться для опровержения «слабого ИИ», т. е. возможности точной синтаксической эмуляции разумного поведения человека, в том числе его речевого поведения. Но еще раз подчеркну: Сёрл не обладает ресурсами для ответа на вопрос, можно ли эмулировать такое поведение программами с «семантическими» блоками, т. е. такими программами, которые приспособлены для взаимодействия с реальностью и отражения ее характеристик, и если да, то будут ли машины, реализующие эти программы, обладать сознанием и, в частности, осознанным пониманием. Так что пора переходить к другим авторам.

И все же еще несколько слов о Сёрле. Поскольку сам он убежден, будто доказал, что физическая реализация таких программ, которые позволяют точно воспроизводить человеческое поведение, может и не порождать сознания, то человеческий мозг, вынужден заключить он, генерирует сознание не потому, что в нем реализуются какие бы то ни было программы. Но тогда почему же? Если главное в порождающем сознание мозге не нейронные «алгоритмы» — функциональные связи нейронных популяций, отдельных нейронов или чего-либо еще, — то, очевидно, решающую роль играют биохимические свойства мозга — такой довольно смелый ответ предложил Сёрл в той же статье 1980 г., где презентуется его Китайская комната [120] .

[120]

Searle J. R. Minds, brains, and programs // The Nature of Mind. P. 519: «Какими бы еще свойствами ни обладала интенциональ — ность, она есть биологический феномен, и она должна так же каузально зависеть от специфической биохимии ее источников, как зависят от нее лактация, фотосинтез и другие биологические феномены». Интенциональность, напомню, по Сёрлу, необходимо связана с сознанием. О ее биохимических причинах см. также: ibid. P. 516.

Этот ответ вызвал много критики, и справедливо. Как вообще это можно помыслить, что сознание возникает вследствие определенных биохимических свойств мозга? Есть какие-то вещества или соединения, присутствующие в мозге и несущие сознательный заряд? Более странное решение «трудной проблемы сознания» сложно вообразить. Впрочем, Сёрл быстро отказался от него. Он стал говорить, что в мозге есть некое каузальное ядро, ответственное за возникновение сознания, но входят ли в него биохимические компоненты, пока неизвестно [121] , и тем самым пришел к той позиции, для которой характерен отказ от попыток философскими методами решить «трудную проблему»: она перекладывается на плечи будущей нейронауки. Как мы знаем, эта позиция была заявлена Сёрлом в ряде работ 90–х гг. Однако в [122] опубликованной в 2004 г. книге «Сознание» он уточнил, что, даже если ней — ронаука даст каузальное объяснение сознания, это не будет означать, что она объяснит все, что можно было бы объяснить касательно отношения сознания и мозга. Но полные объяснения — редкость и в физике. И он дает понять, что философы, требующие такого объяснения, поднимают псевдопроблему, спрашивают о том, о чем спрашивать бессмысленно.

[121]

См., напр.: Searle J. R. The Mystery of Consciousness.P. 202–203.

[122]

См.: Searle J. R. Mind. P. 114, 146–147.

Вдумавшись в эти пояснения Сёрла, мы увидим, что его отношение к «трудной проблеме» в середине 2000–х гг. нельзя суммировать той формулой, которая была уместна для работ, опубликованных в конце 90–х, а именно: «Мы не знаем, решаема ли она». Из более поздних текстов Сёрла следует, что если она ставится как проблема демонстрации концептуальной необходимости определенного соотношения мозга и сознания (философ мог бы удовлетвориться только таким объяснением), то она вообще не может быть решена. Очевидно, таким образом, усиление контраста взглядов Сёрла с его оптимистичными установками 80–х гг. Но в любом случае его отказ от «биохимического» решения «трудной проблемы» представляется чем-то естественным или даже неизбежным: тот вариант не проходил по концептуальным соображениям [123] . В конце концов, все вещества состоят из одних и тех же элементарных частиц, и разница между ними должна сводиться к различным отношениям, различным каузальным взаимовлияниям между этими частицами. Т. е. так или иначе сознание должно генерироваться какими-то функциональными [124] или каузальными отношениями между чем-то и чем-то. Но, каузальные схемы могут задаваться программными алгоритмами. Вспомним теперь, что исторически Сёрл начал свой путь к тезису о неразрешимости «трудной проблемы», оттолкнувшись от представления о некорректности компьютерной метафоры сознания. Но сейчас у нас может возникнуть чувство — подкрепляемое выявленными дефектами Китайской комнаты, — что он поспешил расстаться с этой метафорой. Так, собственно, и считает наш следующий герой, Д. Деннет, главный защитник «программной» концепции сознания. Актуальность рассмотрения его идей очевидна и потому, что, в отличие от Сёрла, который, как мы видели, в итоге оставил «трудные» вопросы о сознании без решения, Деннет обещает объяснить сознание. «Объясненное сознание» — так и называется его главный труд, который можно без колебаний называть одним из шедевров современной мысли. Начнем с выяснения предыстории этой работы Деннета.

[123]

Тем не менее у этой идеи Сёрла до сих пор есть сторонники — см., напр.: Feinberg Т. Е. Altered Egos. P. 151.

[124]

Ср.: Pinker S. How the Mind Works. P. 95; Rosenberg G. H. Re thinking nature: a hard problem within the hard problem // Explaining Consciousness — The "Hard Problem", ed. by J. Shear. Cambridge MA, 1997. P. 296–297.

Поделиться:
Популярные книги

Возвышение Меркурия. Книга 15

Кронос Александр
15. Меркурий
Фантастика:
боевая фантастика
попаданцы
аниме
5.00
рейтинг книги
Возвышение Меркурия. Книга 15

Отморозок 3

Поповский Андрей Владимирович
3. Отморозок
Фантастика:
попаданцы
5.00
рейтинг книги
Отморозок 3

Часовое сердце

Щерба Наталья Васильевна
2. Часодеи
Фантастика:
фэнтези
9.27
рейтинг книги
Часовое сердце

Бастард Императора. Том 3

Орлов Андрей Юрьевич
3. Бастард Императора
Фантастика:
попаданцы
аниме
фэнтези
5.00
рейтинг книги
Бастард Императора. Том 3

Часовой ключ

Щерба Наталья Васильевна
1. Часодеи
Фантастика:
фэнтези
9.36
рейтинг книги
Часовой ключ

Чужая дочь

Зика Натаэль
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Чужая дочь

Найдёныш. Книга 2

Гуминский Валерий Михайлович
Найденыш
Фантастика:
альтернативная история
4.25
рейтинг книги
Найдёныш. Книга 2

Жена проклятого некроманта

Рахманова Диана
Фантастика:
фэнтези
6.60
рейтинг книги
Жена проклятого некроманта

Светлая тьма. Советник

Шмаков Алексей Семенович
6. Светлая Тьма
Фантастика:
юмористическое фэнтези
городское фэнтези
аниме
сказочная фантастика
фэнтези
5.00
рейтинг книги
Светлая тьма. Советник

Новый Рал 2

Северный Лис
2. Рал!
Фантастика:
фэнтези
7.62
рейтинг книги
Новый Рал 2

Воин

Бубела Олег Николаевич
2. Совсем не герой
Фантастика:
фэнтези
попаданцы
9.25
рейтинг книги
Воин

Эволюционер из трущоб. Том 3

Панарин Антон
3. Эволюционер из трущоб
Фантастика:
попаданцы
аниме
фэнтези
фантастика: прочее
6.00
рейтинг книги
Эволюционер из трущоб. Том 3

Сердце Дракона. Том 11

Клеванский Кирилл Сергеевич
11. Сердце дракона
Фантастика:
фэнтези
героическая фантастика
боевая фантастика
6.50
рейтинг книги
Сердце Дракона. Том 11

Отвергнутая невеста генерала драконов

Лунёва Мария
5. Генералы драконов
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Отвергнутая невеста генерала драконов