Это всё квантовая физика! Непочтительное руководство по фундаментальной природе всего
Шрифт:
Это очень заинтересовало компании. Cкоро все – от гугла до твиттера – уже использовали нейросети для решения всевозможных задач: перевода с одного языка на другой, распознавания лиц на фотографиях, диагностирования заболеваний по рентгеновским снимкам. И это приносило компаниям прибыль – деньги, которые можно было снова пустить на исследования в области искусственного интеллекта и на покупку все новых и новых вычислительных мощностей.
Примерно тогда же небольшая часть сообщества исследователей в области ИИ немного занервничала. «Не пора ли нам начинать тревожиться, что искусственный интеллект превосходит человека в быстро растущем наборе задач, в том числе в распознавании
Однако большинство людей на том этапе не особенно беспокоилось о перспективах создания ИИ человеческого уровня. Ведь, хотя созданные для специальных целей ИИ и показывали себя лучше человека в действительно важных областях, все эти системы были «узконаправленными» в том смысле, что хорошо справлялись только с теми конкретными задачами, для решения которых их создавали и обучали. ИИ для распознавания лиц не мог подавать за вас налоговые декларации, и пока сохранялось такое положение, людям казалось, что до появления пугающе мощного искусственного интеллекта еще очень далеко.
И вот наступил 2020 год, когда в исследовательской лаборатории под названием OpenAI кто-то додумался до того, что пока от всех ускользало. «Возможно, прогресс ИИ сдерживается не отсутствием умной модели нового типа. Возможно, проблема в том, что мы обучаем слишком маленькие модели. Может быть, нам стоит выйти за рамки птичьих мозгов и построить систему ИИ больше – гораздо больше – всех прежних».
Так в OpenAI и поступили. Это изменило все.
Эпоха ИИ общего назначения
В 2020 году компания OpenAI объявила, что ей удалось создать систему автодополнения текста под названием GPT-3. Подобно ИИ в вашем телефоне, который предлагает дописывать слова, GPT-3 обучили предсказывать следующее слово в предложении, которое пишет пользователь. Однако оказалось, что GPT-3 может гораздо, гораздо больше. Помимо автодополнения GPT-3 умеет переводить с одного языка на другой, сочинять эссе, писать код, делать несложный веб-дизайн, отвечать на вопросы и еще много всего.
С появлением GPT-3 эпоха узконаправленных ИИ осталась в прошлом. Впервые одна система искусственного интеллекта могла решать широкий спектр задач, достигая такого уровня общего интеллекта, какой всего за несколько месяцев до этого был буквально научной фантастикой.
Но как? Модель GPT-3 не была особенно навороченной. Единственным ее преимуществом был масштаб.
GPT-3 – гигант. Какие там птичьи мозги! Эта модель в десять раз превосходила все, что было раньше, для ее обучения было использовано неимоверное количество текстовых данных со всего интернета, а вычислительная мощность у нее просто зашкаливает. Чему система GPT-3 нас действительно научила, так это тому, что масштабирование относительно скучных узконаправленных моделей позволяет создать ИИ общего назначения с примерно человеческой производительностью. И насколько мы можем судить, нет никаких очевидных пределов тому, как далеко это масштабирование способно зайти[11].
С появлением GPT-3 во всей отрасли начались состязания в масштабировании искусственного интеллекта. Теперь в этой гонке участвуют еще и системы, которые обучаются не только делать автодополнение на основе текстовых данных, но и обрабатывать изображения, текст, видео и аудио одновременно. Мы в буквальном смысле создаем системы, способные воспринимать мир ничуть не хуже людей, и масштабирование, похоже, предлагает нам прямой путь к превращению этих систем в машины, способные
Что возвращает нас к тому, ради чего мы здесь все собрались, – к физике сознания и свободы воли.
Почему сознание важно
Недавно я подверг свой ковер очистке паром и в процессе наверняка убил десятки тысяч ни в чем не повинных пылевых клещей. Однако сон из-за этого не потерял – хотя, возможно, стоило бы.
Большинство из нас интуитивно чувствует, какие существа соответствуют критерию «созданий, о которых нам следует заботиться и которых нужно стараться не обижать». Едва ли не самый распространенный и, на мой взгляд, убедительный способ провести такую грань основан на уровне сознания, которым существо, по нашему мнению, наделено. Нам кажется, что, поскольку сознательные существа что-то чувствуют, нехорошо заставлять их испытывать плохие чувства.
Если вы согласны с этим интуитивным критерием, стоит задуматься, что это означает в контексте искусственного интеллекта. В ближайшие десятилетия мы, вероятно, будем создавать программы ИИ, обладающие когнитивными способностями человеческого существа. Программы, способные рассуждать и думать. Программы, наделенные значительным уровнем самосознания и умения принимать решения.
И все это будут просто компьютерные программы. Программное обеспечение, которое можно воспроизводить – и его будут воспроизводить, пока у людей найдутся на то экономические стимулы. А стимулы, конечно, найдутся: что может быть лучше системы ИИ общего назначения, которая тебе и налоговую декларацию подаст, и обед приготовит? Миллиард таких систем, обслуживающих миллиарды домов. А может, и триллионы, если уж на то пошло. В конце концов, когда вычислительная мощность, необходимая для таких программ, станет достаточно дешевой, новую мыслящую машину можно будет просто копипастнуть.
Беда в том, что люди как-то не славятся хорошим обращением с теми существами, которых не считают «в достаточной степени сознательными». Не то чтобы мы активно стараемся причинить им вред. Но, будь то истребление пылевых клещей, промышленное животноводство или принуждение волов тащить наши плуги, мы привыкли относиться к существам, не достигающим нужного уровня сознания, как к орудиям, средствам, обеспечивающим процветание существ, достигших этого порогового уровня сознания.
Если мы не будем осторожны и не сумеем правильно определить и распознать сознание в системах искусственного интеллекта, то рискуем однажды узнать, что невольно истязали триллионы триллионов искусственных разумов, наделенных сознанием, и причинили немыслимые по масштабам страдания.
Сознание – важнейший открытый вопрос, касающийся будущего ИИ, однако не менее, пожалуй, важен и вопрос о свободе воли. Сегодня мы делегируем машинам все больше и больше мыслительных задач. Мы позволяем ИИ брать на себя управление все более важными вещами – как модерировать контент и автоматически отмечать нежелательное, так и управлять автомобилями и военными беспилотниками.
Однако кого винить, если что-то пойдет не так? Если продвинутый беспилотник случайно выстрелит и убьет мирного жителя, кого нам увольнять – солдата, который должен был следить за работой дрона, инженеров, разработавших бортовую систему ИИ, или еще кого-то? Да и вообще – насколько умным и автономным должен быть ИИ беспилотника, чтобы мы сочли, что он сам несет моральную ответственность за свои действия? Если мы хотим и дальше основывать теорию права на свободе воли, нам придется придумать, как дать ей гораздо более точное определение, а также решить, когда начинать применять это определение к машинам.