Чтение онлайн

на главную - закладки

Жанры

2062: время машин
Шрифт:

Подобные примеры рисуют довольно мрачную картинку. Если бы я поручил вам вылечить рак, а вы бы начали убивать людей, то я, вероятно, решил бы, что не так уж вы и умны. Мы предполагаем, что умные люди усвоили правильные моральные нормы и сочувствуют другим, особенно тем, у кого есть разум и чувства. Разве не должен тогда сверхразум обладать этими же качествами наравне с интеллектом?

Скрепки повсюду

Второй возможный вариант заключается в том, что, даже если цели сформулированы правильно, остается риск непредсказуемых побочных эффектов, которые могут навредить человеку. Любой, кто когда-либо отлаживал компьютерный код, знает, как раздражающе буквально машины воспринимают инструкции.

Этот риск исследован в известном мысленном эксперименте, предложенном Ником Бостромом.

Допустим, мы создадим сверхразумную машину и поставим перед ней задачу сделать столько скрепок, сколько возможно. Поскольку машину наделят сверхинтеллектом, она будет очень хорошо выполнять эту задачу. Она начнет строить все больше заводов по производству скрепок. В конце концов весь мир будет производить только их. Машина в точности выполнит ту задачу, которую перед ней поставили, но для человечества это будет иметь не самые желательные последствия.

Бостром, конечно, всерьез не верит, что мы дадим компьютеру подобные указания, учитывая то, что нам известны все риски. Этот пример был избран им лишь для того, чтобы показать, что даже такая обыкновенная и безвредная задача может быть выполнена совершенно неожиданным образом.

Так же, как и аналогия с царем Мидасом, пример со скрепками демонстрирует неспособность машины принимать правильные решения самостоятельно. Разве не должен компьютер понимать, что не стоит так буквально воспринимать поставленную задачу? Да, создай большое количество скрепок, но не ценой окружающей среды и уж точно не ценой человечества.

Мы или они?

Третий вариант – это появление у машины таких подзадач, которые противоречат существованию человечества. Предположим, перед ней поставили цель сделать людей счастливее или защитить планету. Почти любая подобная задача потребует от сверхинтеллекта наличия ресурсов, позволяющих ее выполнить. Также она потребует того, чтобы компьютеру ничто не помешало достигнуть поставленной цели.

Однако люди могут отключить машину. К тому же, они будут потреблять ресурсы, которые можно было бы использовать для достижения этой цели. В таком случае вполне логичным для сверхинтеллекта будет желание нас уничтожить. Тогда нам уже не удастся отключить машину или потребить ресурсы, необходимые ей для выполнения задачи.

Эти две подзадачи, которые заключаются в самосохранении и присвоении ресурсов, Стивен Омоандро назвал основами мотивации ИИ [38] . Эти основы представляют собой базовые подцели, которыми будет руководствоваться любой относительно разумный искусственный интеллект. ЭАЛ-9000 из «Космической Одиссеи» Артура Ч. Кларка демонстрирует отличный пример ориентированности ИИ на самосохранение. ЭАЛ начинает убивать астронавтов на борту космического корабля «Дискавери-1» в отчаянной попытке не позволить им выключить компьютер.

38

См. Stephen Omohundro (2008) ‘The Basic AI Drives’, in Pei Wang, Ben Goertzel & Stan Franklin (eds), Artificial General Intelligence 2008: Proceedings of the First AGI Conference, Frontiers in Artificial Intelligence and Applications 171, Amsterdam, IOS Press, pp. 483–492.

Другие основы мотивации ИИ заключаются в совершенствовании и креативности. Искусственный интеллект со временем будет становиться более эффективными и дееспособным как физически, так и в области вычислений, что поможет ему выполнять и другие задачи. Возможно также (но менее вероятно), что ИИ станут более креативными, будут искать новые, более результативные пути для достижения целей.

Эффективность – это хорошо; она поможет нам сохранить ограниченные ресурсы этой планеты. Однако креативность представляет собой проблему. Она означает, что машины станут непредсказуемыми.

Неизвестно, какими путями они будут идти к достижению целей. Эту проблему мы подробно обсудим в следующем разделе.

Движущаяся мишень

Четвертый вероятный сценарий заключается в том, что сверхинтеллект может самосовершенствоваться, а следовательно, начать работать не так, как задумывалось, в том числе ставить себе совершенно новые цели. Это будет особенно актуально, если мы захотим сделать ИИ умнее нас. Разве можно быть уверенным в том, что, опередив нас, ИИ останется в рамках человеческих моральных норм? Некоторые аспекты, на первый взгляд совершенно безобидные, способны превратиться в подобном случае в опасные.

Движущимся объектом может стать не только сверхинтеллект, но и система, в которой он существует. Этот феномен, получивший название «ползучесть миссии», мы можем наблюдать и в человеческих сферах деятельности. Решение выслать нескольких военных советников во Вьетнам вылилось в полноценную безрезультатную войну, в которой приняли участие сотни тысяч солдат.

Подобные наблюдения над ИИ уже были проведены в ограниченных и безопасных условиях. В 2008 году Google запустил сервис Google Flu Trends. Он был призван обрабатывать большие объемы данных для пользы общества – наиболее эффективного прогнозирования сроков возникновения эпидемий гриппа по всему миру. Google Flu Trends использовал запросы в поисковой системе Google для выявления места и времени особо сильных вспышек гриппа. Если в определенном регионе люди начинали задавать в Google вопросы вроде «Как лечить боль в горле?» или «Что такое простуда?», – это означало, что, вероятно, там начинал распространяться грипп. В 2013 году Google Flu Trends просто прекратил свою работу. После этого он был тихо удален из списка сервисов Google. Что же пошло не так?

Проблема состояла в том, что поиск Google (как и человеческая экосистема, внутри которой он оперирует) – подвижный объект. Часть его улучшений заключалась в том, что Google стал предлагать варианты запросов еще до того, как человек заканчивал печатать. Эти улучшения изменили сам процесс поиска, а потому помешали работе Google Flu Trends. Сделав поиск Google удобнее, мы усложнили процесс прогнозирования эпидемий гриппа.

Безразличие

Пятый вариант – это возможное безразличие ИИ к нам, подобное нашему безразличию к менее разумным формам жизни. При строительстве нового завода никто особенно не интересуется судьбой колонии муравьев, которая располагается на этом месте. Мы не стали бы изо всех сил стараться извести муравьев, но так вышло, что они живут там, где должна быть построена фабрика. Точно так же сверхинтеллект может не интересоваться нашим существованием. Если вдруг мы окажемся у него на пути, он просто нас устранит. Он ничего не имеет против нас – мы всего лишь сопутствующий ущерб.

Опасность такого безразличия возможна при условии, что ИИ не будет от нас зависеть. Мы можем уничтожить колонию муравьев не задумываясь, потому что, скорее всего, это не будет иметь никаких серьезных последствий. Однако уничтожение человечества вполне может привести к таким побочным эффектам, которые не очень выгодны для самого ИИ. Кто поддерживает инфраструктуру, которой он пользуется? Кто обеспечивает работу облачных серверов? Функционирование интернета, соединяющего серверы? Если выполнение этих задач все еще останется за нами, то ИИ не будет к нам безразличен.

Точно так же безразличие сверхинтеллекта к людям исключает возможность того, что он будет покровительствовать нам. Вообще говоря, «покровительствовать» – не самое удачное слово. С одной стороны, с позиции превосходящего интеллекта он может относиться к нам как к детям, которых необходимо опекать. С другой стороны, мы ведь будем его «родителями», которых также нужно опекать в качестве благодарности за то, что мы подарили ему жизнь. Обе стороны этой медали – причины, по которым ИИ вряд ли будет к нам безразличен.

Поделиться:
Популярные книги

Кодекс Охотника. Книга XVIII

Винокуров Юрий
18. Кодекс Охотника
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Кодекс Охотника. Книга XVIII

Оружие победы

Грабин Василий Гаврилович
Документальная литература:
биографии и мемуары
5.00
рейтинг книги
Оружие победы

Конь Рыжий

Москвитина Полина Дмитриевна
2. Сказания о людях тайги
Проза:
историческая проза
8.75
рейтинг книги
Конь Рыжий

Хёвдинг Нормандии. Эмма, королева двух королей

Улофсон Руне Пер
Проза:
историческая проза
5.00
рейтинг книги
Хёвдинг Нормандии. Эмма, королева двух королей

Офицер-разведки

Поселягин Владимир Геннадьевич
2. Красноармеец
Фантастика:
боевая фантастика
попаданцы
5.00
рейтинг книги
Офицер-разведки

Кодекс Крови. Книга VII

Борзых М.
7. РОС: Кодекс Крови
Фантастика:
боевая фантастика
попаданцы
аниме
5.00
рейтинг книги
Кодекс Крови. Книга VII

Девочка-яд

Коэн Даша
2. Молодые, горячие, влюбленные
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Девочка-яд

Адвокат Империи 3

Карелин Сергей Витальевич
3. Адвокат империи
Фантастика:
городское фэнтези
попаданцы
аниме
фэнтези
фантастика: прочее
5.00
рейтинг книги
Адвокат Империи 3

Никчёмная Наследница

Кат Зозо
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Никчёмная Наследница

Пипец Котенку!

Майерс Александр
1. РОС: Пипец Котенку!
Фантастика:
фэнтези
юмористическое фэнтези
аниме
5.00
рейтинг книги
Пипец Котенку!

Чайлдфри

Тоцка Тала
Любовные романы:
современные любовные романы
6.51
рейтинг книги
Чайлдфри

Игра престолов

Мартин Джордж Р.Р.
1. Песнь Льда и Огня
Фантастика:
фэнтези
9.48
рейтинг книги
Игра престолов

Картошка есть? А если найду?

Дорничев Дмитрий
1. Моё пространственное убежище
Фантастика:
боевая фантастика
рпг
постапокалипсис
5.50
рейтинг книги
Картошка есть? А если найду?

Черный дембель. Часть 2

Федин Андрей Анатольевич
2. Черный дембель
Фантастика:
попаданцы
альтернативная история
4.25
рейтинг книги
Черный дембель. Часть 2