Бог, человек, животное, машина. Технология, метафора и поиск смысла
Шрифт:
Очевидно, нашему солипсизму нет конца. Наше самосозерцание настолько глубоко, что мы спроецировали свой образ на пустой небесный свод и назвали его божественным. Но эта теория, если она верна, предполагает более глубокую истину: метафоры - это улица с двусторонним движением. Не так-то просто отличить область-источник от области-мишени, запомнить, какой объект является оригиналом, а какой - его подобием. Логика может течь в любом направлении. Веками мы говорили, что созданы по образу и подобию Бога, хотя на самом деле мы создали его по своему образу и подобию.
–
Как только мы начали создавать компьютеры, мы увидели, что в них отражается наш образ. Именно Уоррен Маккалох и Уолтер Питтс, пара кибернетиков, которые стали пионерами нейронных сетей, придумали вычислительную теорию разума. В начале 1940-х годов они утверждали, что человеческий разум на нейронном уровне функционирует подобно машине Тьюринга - раннему
Маккалох и сам прекрасно понимал ограниченность метафоры. В своих работах он признавал, что вычисления - это идеализация разума, а не зеркало его воплощенной реальности. Он искал метафору, "настолько общую", как он выражался, что "любая схема, построенная Богом или человеком, должна в какой-то форме служить ее примером", - такую аналогию, которая требовала бы игнорирования многих сложностей, отличающих разум от машины. Его теория была особенно расплывчатой, когда речь заходила о том, как вычисления привели к появлению феномена внутреннего опыта - способности видеть, чувствовать, испытывать ощущение самосознания. Хотя машины могут воспроизводить многие функциональные свойства познания - предсказание, распознавание образов, решение математических теорем, - эти процессы не сопровождаются каким-либо опытом от первого лица. Компьютер просто манипулирует символами, слепо следуя инструкциям, не понимая ни содержания этих инструкций, ни концепций, которые эти символы должны представлять.
Представление Маккалоха о том, что разум - это информационная система, может показаться интуитивно понятным, пока мы придерживаемся нашего повседневного понимания "информации". В повседневной речи мы склонны думать об информации как о чем-то, что по своей сути содержит значимое содержание, которое должно быть интерпретировано сознательным субъектом. Информация, содержащаяся в газете, имеет значение только для разумного человека, читающего эти слова. Набор данных существует только как информация для ученого, который его понимает. Но работа Маккалоха совпала с появлением новой теории информации, которая значительно расходилась с этим общепринятым пониманием. Клод Шеннон, отец теории информации, дал новое определение информации, исключающее необходимость в сознательном субъекте. Все языки можно разделить на два аспекта: синтаксис (структура языка, его форма) и семантику (его содержание, или смысл). Гений Шеннона заключался в том, чтобы убрать семантический смысл, который не поддавался количественной оценке, и таким образом информация стала чисто математической, определяемой закономерностями и вероятностями. Информация создавалась, когда из возможного набора сообщений выбиралось одно. Часто, писал Шеннон в 1948 году, "сообщения имеют смысл", но эти семантические аспекты коммуникации "не имеют отношения к инженерной проблеме". В зарождающемся ландшафте систем обработки информации логические предложения можно было свести к математическим уравнениям, а компьютеры могли выполнять их как чисто символические операции.
В совокупности эти ранние работы по кибернетике имели странный круговой характер. Шеннон исключил мыслящий разум из концепции информации. Тем временем Маккалох применил логику обработки информации к самому разуму. Это привело к модели разума, в которой мышление можно было объяснить чисто абстрактными, математическими терминами, и открыло возможность того, что компьютеры могут выполнять ментальные функции. Если мышление - это всего лишь обработка информации, то о компьютерах можно было сказать "учиться", "рассуждать" и "понимать" - слова, которые, по крайней мере вначале, заключались в кавычки, чтобы обозначить их как метафоры. Но по мере развития кибернетики и применения вычислительной аналогии к более широкому спектру биологических и искусственных систем границы метафоры стали размываться, и стало все труднее различать материю и форму, носитель информации и сообщение, метафору и реальность. И особенно трудно стало объяснить те аспекты разума, которые не могли быть объяснены с помощью метафоры.
–
В
Его поведение не было ни чисто предсказуемым, ни чисто случайным, но казалось, что он способен на настоящую спонтанность. Даже после того, как он был обучен, его реакцию было трудно предугадать. Иногда я просил его сесть или перевернуться, а он просто лаял на меня, виляя хвостом с радостным неповиновением, которое выглядело совершенно по-собачьи. Естественно было бы списать его непослушание на сбой в алгоритмах, но как легко было истолковать это как проявление воли. "Почему ты не хочешь лечь?" Я не раз слышала, как говорю ему.
Я, конечно, не верил, что у собаки есть какой-то внутренний опыт. Не совсем - хотя, полагаю, доказать это было невозможно. Как отмечает философ Томас Нагель в своей работе 1974 года "Каково это - быть летучей мышью?", сознание можно наблюдать только изнутри. Ученый может провести десятилетия в лаборатории, изучая эхолокацию и анатомическое строение мозга летучей мыши, но так и не узнать, каково это, субъективно, быть летучей мышью - и каково ли это вообще. Наука требует перспективы третьего лица, но сознание переживается исключительно с точки зрения первого лица. В философии это называется проблемой других разумов. Теоретически она может относиться и к другим людям. Возможно, я - единственный сознательный человек в популяции зомби, которые просто ведут себя так, чтобы быть похожими на людей.
Конечно, это всего лишь мысленный эксперимент, причем не слишком продуктивный. В реальном мире мы предполагаем наличие жизни по аналогии, по сходству между двумя вещами. Мы считаем, что собаки (настоящие, биологические собаки) обладают определенным уровнем сознания, потому что, как и у нас, у них есть центральная нервная система, и, как и мы, они проявляют поведение, которое мы связываем с голодом, удовольствием и болью. Многие пионеры искусственного интеллекта обошли проблему других разумов, сосредоточившись исключительно на внешнем поведении. Алан Тьюринг однажды заметил, что единственный способ узнать, есть ли у машины внутренний опыт, - это "стать машиной и почувствовать, что ты думаешь". Это явно не было задачей для науки. Его знаменитая оценка для определения машинного интеллекта, которая теперь называется тестом Тьюринга, представляла собой компьютер, спрятанный за экраном, автоматически печатающий ответы на вопросы, задаваемые собеседником-человеком. Если собеседник убеждался, что разговаривает с другим человеком, то машина могла быть признана "умной". Другими словами, мы должны признать, что машина обладает человекоподобным интеллектом, если она может убедительно выполнять те действия, которые мы ассоциируем с интеллектом человеческого уровня.
Совсем недавно философы предложили тесты, призванные определить не просто функциональное сознание машин, а феноменальное сознание - наличие у них внутреннего, субъективного опыта. Один из них, разработанный философом Сьюзан Шнайдер, предполагает задавание ИИ ряда вопросов, чтобы выяснить, может ли он понять понятия, сходные с теми, которые мы связываем с нашим собственным внутренним опытом. Воспринимает ли машина себя как нечто большее, чем физическая сущность? Сможет ли она выжить, если ее выключить? Может ли она представить, что ее сознание сохранится где-то еще, даже если ее тело умрет? Но даже если робот пройдет этот тест, это будет лишь достаточным доказательством наличия сознания, но не абсолютным. Возможно, признает Шнайдер, что эти вопросы антропоцентричны. Если бы сознание ИИ действительно было совершенно не похоже на человеческое, то разумный робот потерпел бы неудачу из-за несоответствия нашим человеческим стандартам. Точно так же очень умная, но бессознательная машина могла бы получить достаточно информации о человеческом разуме, чтобы обмануть собеседника и заставить его поверить, что он у нее есть. Другими словами, мы все еще находимся в той же эпистемической ситуации, что и в случае с тестом Тьюринга. Если компьютер может убедить человека в том, что у него есть разум, или если он демонстрирует, как говорится на сайте Aibo, "настоящие эмоции и инстинкты", у нас нет философских оснований для сомнений.