Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
— Народ в твиттере: О боже, люди могут писать с её помощью ужасные вещи, такие как дезинформация, пропаганда, разжигание ненависти. Запретить немедленно!
— Пишущие думеры [3088] : представьте, что каждый может получить шариковую ручку. Это может разрушить общество. Должен быть принят закон, запрещающий использование шариковой ручки для написания разжигающих ненависть высказываний. Введите регулирование применения шариковых ручек немедленно!
3088
* Думер (от англ. doom — злой рок, катастрофа, гибель) — человек, пессимистично смотрящий в будущее, считающий, что человечество по той или иной причине обречено; ИИ-думерами [AI doomers] иронично называют сторонников идеи о том, что развитие технологий ИИ неизбежно приведёт к гибели человечества или по крайней мере нанесёт ему тяжкий вред.
— Магнат карандашной индустрии: да, шариковые ручки очень опасны. В отличие от текста, написанного карандашом, который
В начале апреля 2023 г. Лекун и Бенджио опубликовали получасовое видео с обсуждением идеи шестимесячного моратория (сойдясь на том, что такой мораторий является явно неудачной идеей), современной медийной шумихи вокруг ИИ и моды на ИИ-думерство [3090] .
3089
LeCun Y. (2023) / Twitter // https://twitter.com/ylecun/status/1659330738553081857
3090
LeCun Y., Ng A. (2023). Yann LeCun and Andrew Ng: Why the 6-month AI Pause is a Bad Idea // https://www.youtube.com/watch?v=BY9KV8uCtj4
С иронией воспринимают угрозу скорого захвата мира сверхинтеллектом Йошуа Бенджио [3091] (что не мешает ему серьёзно относиться к ИИ-рискам и подписывать открытые письма на эту тему), руководитель Алленовского института искусственного интеллекта (Allen Institute for AI, AI2) Орен Этциони [3092] и руководитель исследовательского отдела Microsoft Эрик Хорвитц [3093] .
Известный американский предприниматель, инженер и изобретатель Марк Андриссен, сооснователь венчурного фонда «Андриссен Хоровиц» [Andreessen Horowitz], также яростно критикует ИИ-думеров. Он считает, что руководители технологических компаний заинтересованы в продвижении думерских взглядов, потому что они «могут заработать больше денег, если будут возведены нормативные барьеры, которые приведут к формированию картеля одобренных правительством поставщиков ИИ, защищённых от конкуренции с новыми стартапами и с [проектами с] открытым исходным кодом». Также Андриссен пишет, что экспертам по безопасности ИИ, специалистам по этике ИИ и исследователям рисков ИИ «платят за то, чтобы они были думерами, и их заявления должны восприниматься должным образом». Ссылаясь на статью [3094] в The Atlantic, в которой собрана большая коллекция высказываний инженеров и учёных, Андриссен подчёркивает, что многие лидеры в области исследований ИИ, этики, доверия и безопасности выразили явное несогласие с думерской повесткой дня и вместо этого сосредоточились на снижении сегодняшних задокументированных рисков ИИ-технологий. Андриссен с оптимизмом смотрит в будущее и утверждает, что ИИ может стать «способом сделать лучше всё, о чём мы заботимся» [3095] . Андриссен опубликовал небольшое эссе, в котором приводит краткий анализ нарративов, сформировавшихся в отношении проблематики ИИ-рисков, рассуждает о стоящих за их формированием социальных группах, а также об элементах правильной, по его мнению, политики в отношении развития ИИ [3096] , [3097] .
3091
Knight W. (2016). Will Machines Eliminate Us? / MIT Technology Review, January 29, 2016 // https://www.technologyreview.com/2016/01/29/162084/will-machines-eliminate-us/
3092
Etzioni O. (2014). It’s Time to Intelligently Discuss Artificial Intelligence / Medium, Dec 9, 2014 // https://medium.com/backchannel/ai-wont-exterminate-us-it-will-empower-us-5b7224735bf3
3093
Out of control AI will not kill us, believes Microsoft Research chief (2015) / BBC News, 28 January 2015 // https://www.bbc.com/news/technology-31023741
3094
Wong M. (2023). AI doomerism is a decoy. / The Atlantic, June 2, 2023. // https://www.theatlantic.com/technology/archive/2023/06/ai-regulation-sam-altman-bill-gates/674278/
3095
Field H. (2023). A.I. doomers are a ‘cult’ — here’s the real threat, according to Marc Andreessen. / CNBC, Jun 6 2023. // https://www.cnbc.com/2023/06/06/ai-doomers-are-a-cult-heres-the-real-threat-says-marc-andreessen.html
3096
Andreessen M. (2023). Why AI Will Save The World. / Marc Andreessen Substack, 6 июня 2023. // https://pmarca.substack.com/p/why-ai-will-save-the-world
3097
Лааксо П. (2023). «Не убийца, а всего лишь код, созданный и управляемый человеком»: сооснователь фонда Andreessen Horowitz о рисках ИИ. / vc.ru, 18 июня 2023. // https://vc.ru/future/730682-ne-ubiyca-a-vsego-lish-kod-sozdannyy-i-upravlyaemyy-chelovekom-soosnovatel-fonda-andreessen-horowitz-o-riskah-ii
Основатель Facebook Марк Цукерберг также не разделяет пессимизма в отношении прогресса ИИ: «Я настроен оптимистически, — говорит он в одном из своих стримов, сопровождая рассуждения приготовлением барбекю. — Что до тех людей, которые испытывают скепсис [в отношении ИИ] и пытаются раздуть все эти сценарии судного дня, — я их просто не понимаю. Это совершенно неконструктивно, и в некотором смысле я считаю это довольно безответственным <…> Всякий раз, когда я слышу, как люди говорят, что искусственный
3098
Clifford C. (2017). Facebook CEO Mark Zuckerberg: Elon Musk’s doomsday AI predictions are ‘pretty irresponsible’ / CNBC, Jul 24 2017 // https://www.cnbc.com/2017/07/24/mark-zuckerberg-elon-musks-doomsday-ai-predictions-are-irresponsible.html
Американский предприниматель Крис Николсон, сооснователь компании Skymind и один из авторов фреймворка Deeplearning4j, высказался на этот счёт более афористично: «Для людей из мира технологий рассуждения об искусственном интеллекте — это кокаин: они возбуждают и вызывают ничем не обоснованную паранойю» [Thinking about AI is the cocaine of technologists: it makes us excited, and needlessly paranoid] [3099] .
Кто же прав? И что же следует делать человечеству в данной ситуации?
3099
Metz C. (2015). Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World / Wired, 12.15.15 // https://www.wired.com/2015/12/elon-musks-billion-dollar-ai-plan-is-about-far-more-than-saving-the-world/
7.1.3 Варианты преодоления рисков развития ИИ
В своей знаменитой статье 2000 г. «Почему мы не нужны будущему» (Why the Future Doesn’t Need Us) для издания Wired Джой рисует мрачную картину превращения нашего мира в «серую слизь» [gray goo], что, по его мнению, станет результатом деятельности нанороботов. «Единственной практической альтернативой, которую я вижу, — пишет Джой, — является отказ: надо ограничить развитие слишком опасных технологий путём ограничения нашего стремления к определённым родам знаний» [3100] .
3100
Joy B. (2000). Why the Future Doesn't Need Us / Wired, 04.01.2000 // https://www.wired.com/2000/04/joy-2/
Может, действительно стоит ввести ограничения на развитие технологий ИИ, подобные международным договорам о ядерном, биологическом и химическом оружии? По сути, такие договоры можно считать установлением ограничений на развитие физики, биологии и химии в военных целях.
Лично мне такой путь представляется не слишком реалистичным.
Во-первых, развитие технологий сложно ограничивать вообще. На уровне международных договоров можно разве что ввести подобный запрет для отдельных стран. Но, как показала практика, даже небольшая находящаяся в изоляции Северная Корея смогла создать ядерное оружие и ракетно-космическую программу. Поэтому если новая технология действительно может оказаться прорывной, то ведущие государства мира всё равно будут, несмотря на ограничения и запреты, развивать её в секретном режиме, и никто не сможет этому воспрепятствовать.
Во-вторых, неясно, как возможно ограничить развитие ИИ в нынешнее время — ведь развитие этой отрасли не требует каких-либо уникальных ресурсов и доступно многим государствам и компаниям. Не исключено, что универсальный ИИ можно будет создать при помощи машин общего назначения, предназначенных для решения повседневных задач. Поэтому попытки ограничения развития ИИ приведут к тому, что пострадают полезные применения ИИ (медицинское, образовательное и др.), при этом военные исследования как раз не пострадают.
Трудность запрета универсального ИИ подчёркивает в своей книге «Совместимость. Как контролировать искусственный интеллект» (Human Compatible: AI and the Problem of Control) уже знакомый нам профессор Стюарт Рассел:
Прогресс в разработке универсального ИИ достигается главным образом в дискуссиях учёных из исследовательских лабораторий по всему миру, по мере возникновения и решения математических задач. Мы не знаем заранее, какие идеи и уравнения запрещать, и, даже если бы знали, не приходится ожидать, что подобный запрет будет осуществимым или действенным.
Ещё больше осложняет проблему то, что исследователи, двигающие вперёд разработку универсального ИИ, часто работают над чем-то ещё. Как я уже замечал, изучение инструментального ИИ — специализированных безобидных приложений наподобие игровых программ, медицинской диагностики и планирования путешествий — часто ведёт к развитию методов универсального характера, применимых к широкому спектру других задач, и приближает нас к ИИ человеческого уровня.
Рассуждая о возможности свёртывания исследований в области ИИ, Рассел пишет: «Как большинство исследователей ИИ, я содрогаюсь при мысли об этом. Кто смеет указывать мне, о чём можно думать и о чём нельзя? Любой, кто предлагает покончить с изучением ИИ, должен быть очень убедительным. Прекратить исследования ИИ означало бы отказаться не просто от одного из главных путей к пониманию того, как устроен человеческий разум, но и от уникальной возможности улучшить положение человека — создать намного более совершенную цивилизацию. Экономическая ценность ИИ человеческого уровня измеряется в тысячах триллионов долларов, и следует ожидать колоссального импульса на продолжение этих исследований со стороны корпораций и властей. Он пересилит туманные возражения философа, как бы тот ни почитался в качестве «обладателя особого знания», по выражению Батлера» [3101] , [3102] .
3101
Russell S. (2019). Human Compatible: AI and the Problem of Control. Penguin UK // https://books.google.ru/books?id=Gg-TDwAAQBAJ
3102
Рассел С. (2021). Совместимость: как контролировать искусственный интеллект. — М.: Альпина нон-фикшн // https://www.google.ru/books?id=OacEEAAAQBAJ