Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
Какой же тогда путь снижения рисков следует избрать?
Надо заметить, что большая часть обеспокоенных экзистенциальными ИИ-рисками учёных не являются сторонниками таких радикальных мер, как введение ограничений на исследования в области ИИ. Тот же Бостром, например, предлагает организовать мониторинг развития в этой области, расширить международное сотрудничество между командами, занимающимися исследованиями в области ИИ (чтобы избежать «гонки вооружений» в этой области). Бостром рекомендует ограничение области принятия решений ИИ-агентами, предлагает различные способы влияния на обучение моделей (например, создание этически выверенных датасетов) и так далее [3103] . Его анализ этой области, безусловно, заслуживает внимания, хотя некоторые его выводы и идеи, на мой взгляд, являются небесспорными.
3103
Bostrom N. (2014). Superintelligence. Oxford University Press // https://books.google.ru/books?id=7_H8AwAAQBAJ
Ещё с начала 1970-х гг. учёные исследуют так называемую «проблему ограничения свободы» компьютерных программ. В рамках этой парадигмы современные исследователи рассматривают и различные механизмы контроля систем ИИ, близких к сверхинтеллекту. Так, например, Роман Ямпольский, основатель и директор Лаборатории кибербезопасности в Луисвиллском университете (University of Louisville, UofL), в своей работе «Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта» (Leakproofing the Singularity. Artificial Intelligence Confinement Problem),
3104
Yampolskiy R. V. (2012). Leakproofing the Singularity: Artificial intelligence confinement problem / Journal of Consciousness Studies, Vol. 19 (1—2), pp. 194—214 // http://cecs.louisville.edu/ry/LeakproofingtheSingularity.pdf
3105
Ямпольский Р. (2012). Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта / Пер. с англ. Горлова А. // https://22century.ru/popular-science-publications/leakproofing-the-singularity
Если говорить об Илоне Маске, то и он, несмотря на использование вульгарных метафор, не является противником научно-технического прогресса. Маск хоть и высказывается (или даже действует в духе максимы «Не можешь победить — возглавь»), но активно способствует развитию технологий машинного обучения, стремясь скорректировать вектор технологического развития. В 2015 г. он пожертвовал 10 млн долларов волонтёрской организации «Институт будущего жизни» (Future of Life Institute), работа которой направлена на «смягчение рисков, грозящих человечеству в будущем». Эта некоммерческая организация, в частности, занимается исследованием угроз, которые несёт в себе искусственный интеллект [3106] . Осенью того же года Маск вместе с другими предпринимателями и специалистами из Кремниевой долины основал неоднократно упомянутую в книге компанию OpenAI. В число основателей, помимо самого Маска, вошли Сэм Альтман, Грэг Брокман, Джон Шульман, а также уже знакомые нам Илья Суцкевер и Войцех Заремба. Создание компании поддержали Рейд Хоффман — сооснователь компании LinkedIn, Питер Тиль — сооснователь PayPal и Джессика Ливингстон — партнёр-основатель венчурного фонда Y Combinator.
3106
Kosoff M. (2015). Elon Musk Is Donating $10 Million To Keep Killer Robots From Taking Over The World / Business Insider, Jan 15, 2015 // https://www.businessinsider.com/elon-musk-donates-10-million-to-the-future-of-life-institute-2015-1
Суммарные стартовые инвестиции в компанию составили миллиард долларов. Цель OpenAI — способствовать повышению открытости разработки в области ИИ. Организация заявляет, что будет «свободно сотрудничать» [freely collaborate] с другими учреждениями и исследователями, сделав свои патенты и исследования открытыми для общественности [3107] , [3108] , [3109] , [3110] , [3111] , [3112] .
3107
Brockman G., Sutskever I. (2015). Introducing OpenAI / OpenAI Blog, December 11, 2015 // https://openai.com/blog/introducing-openai/
3108
Danti A. (2015). Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI / BBC News, 12 December 2015 // https://www.bbc.com/news/technology-35082344
3109
Bass D. (2019). Microsoft to invest $1 billion in OpenAI / Los Angeles Times, 22 July 2019 // https://www.latimes.com/business/story/2019-07-22/microsoft-openai
3110
Markoff J. (2015). Silicon Valley investors to bankroll artificial-intelligence center / The Seattle Times, 13 December 2015 // https://www.seattletimes.com/business/technology/silicon-valley-investors-to-bankroll-artificial-intelligence-center/
3111
Etherington D. (2019). Microsoft invests $1 billion in OpenAI in new multiyear partnership / TechCrunch, July 22, 2019 // https://techcrunch.com/2019/07/22/microsoft-invests-1-billion-in-openai-in-new-multiyear-partnership/
3112
Liedtke M. (2015). Elon Musk, Peter Thiel, Reid Hoffman, others back $1 billion OpenAI research center / San Jose Mercury News, December 15, 2015 // https://www.mercurynews.com/2015/12/15/elon-musk-peter-thiel-reid-hoffman-others-back-1-billion-openai-research-center/
Маск и Альтман заявили, что одним из мотивов создания OpenAI стали опасения по поводу экзистенциальных рисков со стороны универсального ИИ [artificial general intelligence] [3113] , [3114] . OpenAI заявляет: «Трудно представить себе, в какой мере система ИИ человеческого уровня может принести пользу обществу, и столь же трудно понять, насколько она может навредить обществу в случае ошибок, допущенных при её создании, неправильного применения <…> Из-за удивительной истории развития ИИ трудно предсказать, когда ИИ человеческого уровня окажется в пределах досягаемости» [3115] . OpenAI заявляет, что ИИ «должен воплощать желания людей и в соответствии с духом свободы должен быть как можно более широко и равномерно распределённым…» [3116]
3113
Lewontin M. (2015). Open AI: Effort to democratize artificial intelligence research? / The Christian Science Monitor, December 14, 2015 // https://www.csmonitor.com/Technology/2015/1214/Open-AI-Effort-to-democratize-artificial-intelligence-research
3114
Metz C. (2016). Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free / Wired, 04.27.16 // https://www.wired.com/2016/04/openai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/
3115
Introducing OpenAI (2015) / OpenAI Blog, December 11, 2015 // https://openai.com/blog/introducing-openai/
3116
Danti A. (2015). Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI / BBC News, 12 December 2015 // https://www.bbc.com/news/technology-35082344
В
Альтман ожидает, что рассчитанный на десятилетия проект позволит создать системы ИИ, превосходящие людей в интеллектуальном плане [3118] .
Однако возможность реализации контринтуитивной стратегии Маска и Альтмана, направленной на снижение рисков развития ИИ путём предоставления возможностей ИИ как можно большему числу людей, вызывает сомнения у более радикально настроенных «алармистов». Например, Бостром полагает, что в ситуации «плохой кнопки» основатели OpenAI изменят своей стратегии и не будут её раздавать всем («Если у вас будет кнопка, которая может причинить вред миру, вы не захотите дать её всем») [3119] . Масло в огонь подлил факт выдачи лицензии компании Microsoft на использование GPT-3 в её собственных продуктах и сервисах. И хотя OpenAI и заявила, что «сделка не повлияет на дальнейший доступ [пользователей] к модели GPT-3 через API OpenAI» [3120] , у многих людей возник вполне резонный вопрос: значит ли это, что OpenAI будет руководствоваться в предоставлении доступа к передовым разработкам в области ИИ чисто коммерческой логикой, усиливая тем самым доминирование крупных корпораций в обществе? И насколько такая логика сочетается с декларированными OpenAI лозунгами о демократизации ИИ и снижении ИИ-рисков за счёт расширения доступа к технологиям?
3117
Smith G. W. (2018). Re: Sex-Bots—Let Us Look before We Leap / Arts, Vol. 7 (2) // https://doi.org/10.3390/arts7020015
3118
Metz C. (2015). Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World / Wired, 12.15.15 // https://www.wired.com/2015/12/elon-musks-billion-dollar-ai-plan-is-about-far-more-than-saving-the-world/
3119
Metz C. (2016). Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free / Wired, 04.27.16 // https://www.wired.com/2016/04/openai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/
3120
OpenAI Licenses GPT-3 Technology to Microsoft (2020) / OpenAI Blog, September 22, 2020 // https://openai.com/blog/openai-licenses-gpt-3-technology-to-microsoft/
Есть ещё одно из направлений деятельности Маска, которое в некоторой степени связано с проблемой ИИ-рисков. Речь идёт о компании Neuralink, делящей с OpenAI здание Pioneer Building в Сан-Франциско. Эта компания специализируется на исследованиях в области интерфейсов «машина — мозг» (Brain Computer Interfaces, BCI), что по замыслу позволит людям тесно интегрироваться с будущими системами ИИ [3121] . Можно сказать, что они стремятся сделать человечество частью будущего сверхразума, чтобы оно смогло избежать роли тупиковой ветви эволюции.
3121
Urban T. (2017). Neuralink and the Brain’s Magical Future / Wait But Why, April 20, 2017 // https://waitbutwhy.com/2017/04/neuralink.html
Идеи, подобные идеям Маска, высказывают и другие известные предприниматели из сферы информационных технологий. Например, основатель компании Microsoft Билл Гейтс формулирует свои взгляды следующим образом: «Я принадлежу к лагерю тех, кто озабочен возникновением сверхинтеллекта. Сначала машины будут делать для нас много полезной работы и не будут обладать сверхинтеллектом. Это будет позитивным явлением, если мы нормально управляем процессом. Однако через несколько десятилетий ИИ станет достаточно сильным, чтобы вызвать беспокойство. Я согласен с Илоном Маском и другими на этот счёт и не понимаю, почему некоторые люди не чувствуют такого же беспокойства» [3122] . При этом Билл Гейтс поясняет, что не пытается притормозить научно-технический прогресс, а всего лишь хочет привлечь внимание к двум потенциальным проблемам: 1) ИИ начинает выполнять работу, к которой привыкли люди; 2) универсальный ИИ может эволюционировать в состояние, «конфликтующее с целями человеческих систем» [3123] .
3122
Holley P. (2015). Bill Gates on dangers of artificial intelligence: ‘I don’t understand why some people are not concerned’ / The Washington Post, Jan. 29, 2015 // https://www.washingtonpost.com/news/the-switch/wp/2015/01/28/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned
3123
Levy S. (2015). Bill Gates on Mobile Banking, Connecting the World and AI // https://medium.com/backchannel/bill-gates-on-mobile-banking-connecting-the-world-and-ai-937f35c8a110
В целом, анализируя мнения учёных и бизнесменов относительно ИИ-рисков, заметно, что в действительности между взглядами, скажем, Бострома и Цукерберга, Маска и Ына мы не находим никакой зияющей пропасти. Даже Бостром, заслуживший себе репутацию алармиста, весьма далёк от идей Батлера. Набор мер, предлагаемый Бостромом, вовсе не предполагает «возврата в пещеры» и даже запрета развития ИИ.
Если рассматривать позицию представителей противоположного лагеря, взяв в качестве примера, скажем, Марка Цукерберга, то его взгляды на деле далеки от шапкозакидательского оптимизма. Даже в неформальных рассуждениях на тему ИИ-рисков за приготовлением говяжьих рёбрышек видно, что он вовсе не отрицает наличия этих рисков и необходимости принимать их в расчёт [3124] . На поверку вопрос об ИИ-рисках становится вопросом меры: как мы оцениваем те или иные риски? Когда и в какой мере следует уделять им внимание? Какие из них переоценены, а какие недооценены в глазах общественности?
3124
Clifford C. (2017). Facebook CEO Mark Zuckerberg: Elon Musk’s doomsday AI predictions are ‘pretty irresponsible’ / CNBC, Jul 24 2017 // https://www.cnbc.com/2017/07/24/mark-zuckerberg-elon-musks-doomsday-ai-predictions-are-irresponsible.html
Анализируя опасения, высказываемые в отношении развития ИИ, можно выделить несколько групп рисков, безусловно заслуживающих более подробного рассмотрения. Давайте попробуем приглядеться к этим группам поближе, чтобы лучше понять все pro et contra в отношении их серьёзности.
7.2 Сверхразум: реальные и мнимые опасности
— Ну? Тем более!
— Сверхразум — это сверхдобро, — сказал Тойво.
— Ну? Тем более!
— Нет, — сказал Тойво. — Никаких «тем более». Что такое добро мы знаем, да и то не очень твёрдо. А вот что такое сверхдобро…
Ася снова ударила себя кулачками по коленкам.
— Не понимаю! Уму непостижимо! Откуда у вас эта презумпция угрозы? Объясни, втолкуй!
— Вы все совершенно неправильно понимаете нашу установку, — сказал Тойво, уже злясь. — Никто не считает, будто Странники стремятся причинить землянам зло. Это действительно чрезвычайно маловероятно. Другого мы боимся, другого! Мы боимся, что они начнут творить здесь добро, как они его понимают!