Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
Лёгким движением руки «женщина» превратилась в «мужчину» или даже в «человека» вообще, как разумно предполагает переводчик на русский язык. Если мы согласимся с переводчиком, то полученный вариант процедуры (в котором машина стремится выдать себя за человека, а не за конкретно женщину, в то время как человек B старается помочь задающему вопросы) будет называться стандартным тестом Тьюринга (Standard Turing Test, STT). Конечно, возможна альтернативная интерпретация, в которой на месте женщины в игре оказывается мужчина A из оригинальной игры в имитацию, стремящийся, как и машина, выдать себя за женщину. В таком случае машина и мужчина будут соревноваться в искусстве выдачи себя за другого перед лицом задающего вопросы [27] .
27
Sterrett S. G. (2000). Turing's Two Test of Intelligence / Minds and Machines, Vol. 10, Iss. 4, p. 541 // https://doi.org/10.1023/A:1011242120015
Из записи радиопередачи 1951 г. становится ясно, что Тьюринг всё-таки не делал различия между словами man и human. Версия теста, предложенная радиослушателям, по сути дела, повторяет STT с той лишь разницей,
Отдельный важный вопрос практической организации тестирования состоит в том, должен ли задающий вопросы знать, что один из его собеседников — машина. В оригинальном описании теста ничего не говорится об этом, а современные исследовательские стандарты предполагают использование в подобных экспериментах контроля и двойного слепого метода [28] . Словом, сегодня валидным вариантом теста Тьюринга считается версия STT с жюри, контрольной группой и двойным слепым методом проведения испытаний.
28
* Двойной слепой метод — подход, когда ни задающий вопросы, ни взаимодействующие с ним организаторы сами не знают, кто из участников теста является машиной и есть ли вообще машина среди участников теста; то есть задача для жюри должна быть сформулирована следующим образом: «Выберите один из вариантов: только испытуемый 1 является машиной, только испытуемый 2 является машиной, оба испытуемых являются машинами, оба испытуемых являются людьми».
Наверное, самым известным возражением на предложенную Тьюрингом процедуру стал ответ философа Джона Сёрля, который предложил мысленный эксперимент, получивший название «китайской комнаты». Представим себе закрытую комнату, в которую передают вопросы, написанные на китайском языке, и из которой получают ответы, опять же написанные на китайском. В комнате находится человек, не говорящий по-китайски (для простоты далее будем считать, что это сам Джон Сёрль), который понимает английский язык и использует набор правил, написанных по-английски, с китайскими иероглифами, предназначенными для записи ответов. Таким образом, человек, пишущий вопросы по-китайски и получающий из комнаты ответы, может сделать вывод, что внутри комнаты находится некто, способный понимать китайский язык. Но, по условию задачи, это не так. Следовательно, процедура, построенная только на изучении коммуникативного поведения объекта, подобная тесту Тьюринга, приводит нас к неправильному умозаключению.
Вокруг аргумента Сёрля развернулась весьма масштабная полемика, различные нюансы которой весьма детально разобраны в статьях Пола Кокшотта «Бёттке, синтаксис и тест Тьюринга» (Boettke, Syntax and the Turing Test) [29] и Лоуренса Ландау «Философская ошибка Пенроуза» (Penrose’s Philosophical Error) [30] . Здесь мы рассмотрим только два из основных аргументов против мысленного эксперимента Сёрля.
Первый и наиболее известный из них получил название «системный аргумент». Он сводится к тому, что даже если сам Сёрль, в соответствии с условиями эксперимента, не понимает китайский язык, тем не менее систему, состоящую из набора правил и самого Сёрля, вполне можно охарактеризовать как понимающую китайский. Если мы посмотрим на человеческий мозг, то легко заметим, что он состоит из различных элементов. Можно ли считать, что каждая взятая по отдельности часть мозга разумна? Разумны ли взятые порознь отделы мозга? Нейроны? Атомы углерода?
29
Кокшотт У. П., Микаэльсон Г., Коттрел А. (2017). Бёттке, синтаксис и тест Тьюринга / Пер. с англ. Горлова А. В., Маркова С. С // https://22century.ru/popular-science-publications/boettke-syntax-and-the-turing-test
30
Landau L. J. (1997). Penrose's Philosophical Error / Landau L. J., Taylor J. G. (1998). Concepts for Neural Networks. Perspectives in Neural Computing. Springer, London // https://doi.org/10.1007/978-1-4471-3427-5_7
Суть второго популярного возражения, аргумента «другие умы», состоит в следующем: если вы отказываете китайской комнате в понимании языка, то вы не можете быть уверенными в том, что кто-то, кроме вас, вообще что-то понимает, поскольку всё, с чем вы имеете дело, — это только поведение других людей.
В целом аргументы Сёрля и его сторонников, например Роджера Пенроуза, вызывают ассоциации с витализмом, то есть учением о наличии в живых организмах нематериальной сверхъестественной силы, управляющей жизненными явлениями, — «жизненной силы» (лат. vis vitalis) («души», «энтелехии», «археи» и проч.). Теория витализма постулирует, что процессы в биологических организмах зависят от этой силы и не могут быть объяснены с точки зрения физики, химии или биохимии. Когда-то виталисты утверждали, что органическую материю нельзя получить из неорганической. Затем, по мере прогресса в химии, границы «невозможного» постепенно стали сдвигаться, теперь уже невозможным объявлялось создание сложных органических соединений, а после успешного освоения их синтеза — создание живого организма. Теперь очередным «непреодолимым» рубежом стал человеческий разум, при этом роль жизненной силы у Сёрля выполняет «каузальная мощь человеческого мозга» [31] , а у Пенроуза — квантовая природа сознания [32] , [33] .
31
* Способность мозга находить причинно-следственные связи.
32
** Представление о том, что в основе разума лежат квантовомеханические эффекты, принципиально невоспроизводимые средствами классической механики.
33
The Emperor’s New Mind: Concerning Computers, Minds and the Laws of Physic, Oxford University Press.
Велико
34
Shieber S. M. (1994). Lessons from a Restricted Turing Test / Communications of the ACM, Vol. 37, Iss. 6, pp. 70—78 // https://doi.org/10.1145/175208.175217
35
Russell S. J., Norvig P. (2016). Artificial Intelligence: A Modern Approach. Pearson // https://books.google.ru/books?id=XS9CjwEACAAJ
Сегодня тест Тьюринга относят к группе так называемых ИИ-полных (AI-complete) задач, то есть таких задач, сложность которых делает их решение эквивалентным созданию AGI [36] . К таким задачам обычно относят задачу понимания естественного языка, машинный перевод, решение тестов Бонгарда [37] и тому подобное. Важно заметить, что ИИ-полнота — неформальный термин, так как строгого доказательства необходимости AGI для решения всех этих задач пока что не существует.
36
Mallery J. C. (1988). Thinking About Foreign Policy: Finding an Appropriate Role for Artificially Intelligent Computers / The 1988 Annual Meeting of the International Studies Association., St. Louis, MO.
37
*** Наборы визуальных тестов для оценки способности системы находить простые закономерности, предложенные советским учёным Михаилом Бонгардом.
Тьюринг стремился дать чёткий и понятный пример, необходимый в дискуссии о философии искусственного интеллекта. Как заметил Джон Маккарти: «Маловероятно, что [философия ИИ] окажет больший эффект на практические исследования в области ИИ, чем философия науки в целом — на саму науку» [38] .
Впрочем, некоторое отношение к современной практике тест Тьюринга всё-таки имеет, в одном из хорошо всем известных вариантов. Наверняка вам не раз приходилось вводить цифры или буквы с картинок, чтобы доказать, что вы не робот. Подобного рода тесты получили название «кaпча» [39] . В 2013 г. каждый день пользователям во всём мире приходилось проходить подобные тесты примерно 320 млн раз [40] . Старт этому масштабному противостоянию снаряда и брони был дан в 1997 г. [41] , и с тех пор тесты постоянно приходится усложнять из-за появления всё новых и новых систем ИИ, способных справиться с их прохождением. Позже мы ещё несколько раз вернёмся к тесту Тьюринга — например, когда будем обсуждать прогресс в области обработки машинами естественного языка, а сейчас перейдём к не менее животрепещущей теме — машинному обучению.
38
McCarthy J. (1996). “The Philosophy of Artificial Intelligence”, What has AI in Common with Philosophy?
39
**** CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) — полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей.
40
Луис фон Ан. Массовое онлайн-сотрудничество // Конференция TED, 2011.
41
См. патент Method and system for discriminating a human action from a computerized action. 2004-03-01 .
1.3 Машинное обучение, его виды и области применения
Одно из распространённых заблуждений об искусственном интеллекте заключается в уверенности, что машины не могут учиться и, решая задачу, способны лишь следовать алгоритму — жёстко заданному программистами пошаговому сценарию.
В действительности то, что машины исполняют определённую программу, никак не мешает им учиться, для этого нужно только, чтобы программа воплощала тот или иной алгоритм обучения. В принципе, единственным необходимым для обучения условием является наличие у машины изменяемой памяти, но этим свойством машины обладают с давних пор.
В качестве самого простого примера обучения можно привести программу, которая при первом запуске спрашивает имя пользователя, которое затем запоминает, чтобы при следующих запусках обращаться к этому человеку по имени. Легко заметить, что поведение программы от запуска к запуску поменяется, то есть программа «научится» правильно обращаться к вам, хотя программисты, создавая программу, не указывали в ней вашего имени. Конечно, обучение может быть разным: как и человек, одним вещам машина может обучиться с лёгкостью, другие же пока что находятся за пределами возможностей современных технологий ИИ, и эта граница постоянно сдвигается по мере того, как очередные задачи сдаются под напором достижений науки и технологии.