2062: время машин
Шрифт:
Простая «вирусная» модель объясняет, почему число водителей Uber может увеличиваться в четыре раза каждый год (как минимум поначалу). Представьте, что каждый водитель Uber раз в шесть месяцев советует своему приятелю начать работать с этой компанией. Скорее всего, Uber предлагает систему бонусов для тех, кто так поступает. Именно это и стимулирует такой экспоненциальный рост.
Предположим, что в начале первого года в Uber работало 10 000 водителей. Затем эти 10 000 человек приглашают еще 10 000 новых водителей в первые шесть месяцев. В сумме получается 20 000 водителей. Эти 20 000 приглашают еще 20 000 в следующие полгода. В результате к началу следующего года в Uber работают уже 40 000 человек. По такой логике к началу третьего года в Uber будет числиться 160 000 человек, а к началу четвертого – 640 000 (примерно
Похоже, многие подобные статистические выкладки за определенные периоды выглядят как экспоненциальный рост: количество лезвий в безопасной бритве, число водителей Uber, даже средняя цена высшего образования. Это, однако, не значит, что все эти показатели стремятся к сингулярности. Существует множество законов физики и экономики, которые не позволяют экспоненциальному росту бесконечно продолжаться.
Уроки прошлого
Наконец мы добрались до десятого (и последнего) аргумента против неизбежности технологической сингулярности. Необходимо учиться на ошибках историков прошлого. Точнее, необходимо учиться на ошибках одного из первых защитников идеи сингулярности.
В числе тех, кто впервые о ней написал, был Генри Адамс – внук Джона Куинси Адамса, шестого президента США, и правнук Джона Адамса, второго американского президента и одного из отцов-основателей. В 1904 году Генри Адамс опубликовал автобиографию под заголовком «Воспитание Генри Адамса», где описывал стык двух веков с точки зрения себя молодого. Книга получила Пулитцеровскую премию и вошла в список ста самых важных произведений литературы нон-фикшн.
В тридцать четвертой главе под названием «Закон ускорения» автор сообщает, что «закон ускорения, неизменный и постоянный, как и любой закон механики, не может смягчить свое действие ради удобства человека». Основываясь на этом законе, Адамс предполагает, что научная и иные сферы знания будут развиваться настолько быстро, что общество в 2000 году окажется совершенно недоступным воображению человека из 1900-го. С целью проиллюстрировать этот закон Адамс отмечает, что каждые десять лет с 1840-го по 1900-й объем энергии, извлекаемой из тонны угля, удваивается. На основании этого он предсказывает, что «каждый американец в 2000 году будет знать, как контролировать неограниченную энергию». Если бы это было так!
Адамс, конечно, ошибался. Мы не получили источник неисчерпаемой энергии в 2000-м. И жизнь в том году не была такой уж невообразимой для человека начала двадцатого века. Многие как раз довольно неплохо угадывали, как она будет выглядеть. Герберт Дж. Уэллс, например, спрогнозировал появление новых удивительных технологий, таких как лазеры или ядерное оружие [36] . Многие сегодняшние тренды вроде индустриализации и глобализации были вполне предсказуемы еще в начале прошлого века.
36
H.G. Wells predicted the laser in The War of the Worlds (1897), and nuclear weapons in The World Set Free (1914).
Сверхразумные машины
Названные мною десять причин того, что технологическая сингулярность может не случиться, не означают, что она точно никогда не наступит. Вероятность этого все равно остается. Однако я надеюсь, мне удалось убедить вас в том, что эта вероятность далеко не стопроцентная. Как и многие мои коллеги, пытавшиеся создать машины хотя бы со скромным интеллектом, я сомневаюсь, что мы в скором времени построим машину, способную бесконечно развиваться самостоятельно. Если все будет именно так, то технологическая сингулярность по-прежнему останется интересной, но фантастической идеей.
Несмотря на то что я скептически отношусь к идее сингулярности, это не значит, что мы не создадим машины, способные мыслить как человек или даже лучше.
37
Эдсгер Дейкстра (1930–2002), авторитетный голландский ученый, однажды сказал, что «вопрос о том, могут ли машины думать, так же уместен, как и вопрос, могут ли подводные лодки плавать» (Южная региональная конференция ACM. Остин, Техас. Ноябрь 1984 г.).
Однако мне не верится, что сверхразум появится сам по себе, пока мы просто будем наблюдать за тем, как компьютеры развиваются самостоятельно. Я больше склонен считать, что мы добьемся этого таким же способом, как добивались других технологических открытий: тяжелым трудом, развитием науки с помощью изобретательности, программированием машин на то, чтобы они были умнее нас.
AlphaGo научилась играть в го лучше, чем любой человек. Однако ее навык обучения остался на прежнем уровне. Если попросить AlphaGo сыграть в го на доске 9x9 для начинающих, ей придется учиться заново, почти с нуля. Мы пока не знаем, как транспонировать знания, полученные ею на большой доске, для игры на маленькой. Человек, умеющий играть в го, легко сможет сразу начать играть на простой доске.
Искусственному интеллекту все еще далеко до человеческого уровня, а тем более до сверхчеловеческого. Тем не менее я уверен, что мы к этому придем. Мы создадим машины, которые будут лучше нас. Они будут сильнее, быстрее, умнее нас. Однако я все же надеюсь, что они нас не заменят, а дополнят и расширят наши возможности.
Угроза нашему существованию
Голливуд заставил нас волноваться, как бы злые роботы не попытались захватить планету. Согласно фильму, Терминатор появится только в 2029 году, а значит, у нас есть еще около десяти лет. Прав ли был Стивен Хокинг, когда заявил, что сверхинтеллект – самая большая угроза нашему существованию? Прямо сейчас мы – самые разумные существа на планете, а все остальные зависят только от нашей воли. Не будет ли наша судьба зависеть от воли этих сверхразумных машин? Перейдем к вопросу о том, могут ли они просто-напросто нас уничтожить. Будет ли их появление означать конец человечества?
Машины обычно изображаются в кино злыми. Однако большие опасения должна вызывать некомпетентность. Разумеется, необходимо учитывать вероятность, что сверхразумные машины могут случайно покончить с человечеством. Есть несколько вариантов, как это может произойти.
Прикосновение Мидаса
Наиболее вероятный сценарий заключается в вероятности того, что цели такого компьютера будут недостаточно точно прописаны. В качестве аналогии подходит греческий миф о царе Мидасе, который получил желанный дар – обращать все, к чему прикасается, в золото. Однако царь неудачно сформулировал свое желание: он ведь не хотел, чтобы его еда или родная дочь превращались в золото.
Можно поспорить, что в истории ИИ уже бывали такие случаи, только в более безопасных условиях. Например, исследователи ставили эксперимент, в котором научили компьютер играть в Coast Runners, игру, в которой нужно участвовать в гонках по воде. ИИ предпочитал не доезжать до конца маршрута, а делать небольшие круги, врезаясь в другие лодки, потому что это приносило очки быстрее, чем прохождение гонки.
Будучи умными, такие машины могут достигать поставленных целей удивительными путями. Например, поставим перед компьютером задачу устранить рак. Один из способов это сделать – уничтожить каждого носителя раковых клеток, то есть все человечество. Не совсем то, что мы имели в виду, когда ставили задачу.