Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
Развитие технологий ИИ является в некотором роде ответом на медлительность нашей эволюции. Подобно тому, как одежда или, скажем, ножи являются «усовершенствованиями» наших тел, от рождения лишённых тёплого меха или острых когтей, системы ИИ раздвигают границы нашего разума. Текстовый редактор, поисковая система, смартфон, базы знаний и, наконец, продвинутые нейросетевые модели — это всё продолжение нас, нашего интеллекта, нашей культуры, это компоненты синтетического человеко-машинного интеллекта. Запрет технологий ИИ, таким образом, является в своём роде самокастрацией или, если угодно, лоботомией нашего вида, способом существования которого давно стало расширение своих возможностей за счёт создания технологических улучшений своей несовершенной природы.
Любопытно, что за изобретение и популяризацию лоботомии в своё время была присуждена Нобелевская премия. По дорогам США разъезжали лоботомобили, в которых вас могли путём нехитрой манипуляции раз и навсегда избавить от кучи проблем [3127] . Аналогично сторонники запрета ИИ в действительности призывают человечество сделать крайне опасный шаг, куда более опасный, чем многие переоценённые и разрекламированные ИИ-риски, о которых они пишут (нередко отвлекая внимание от реально существующих рисков алгоритмического общества [3128] ,
3127
Паевский А. (2018). Нобелевские лауреаты: Эгаш Мониш. «Отец» лоботомии. / Indicator, 06 июня 2018 // https://indicator.ru/medicine/egash-monish-lobotomiya.htm
3128
* Алгоритмическое общество — общество, организованное вокруг принятия социальных и экономических решений с помощью алгоритмов, роботов и агентов искусственного интеллекта.
Люди, вооружённые продвинутыми системами аналитики и моделирования, средствами эффективной коммуникации, интеллектуальными средствами обучения и психологической поддержки, платформами для коллективного принятия решений, смогут действовать куда более разумно, чем люди, лишённые всего этого, имеющие в своём багаже лишь иррациональное поведение, связанное с неуправляемой агрессией, когнитивными искажениями, предрассудками, заблуждениями, ограниченностью и так далее. Возможно, нашим спасением от проклятия техноапокалипсиса станет именно технологически улучшенный человеческий интеллект, объединённый с машинами в единую систему, — своего рода «аугментированная прямая демократия». Если же такой новый социотехнологический уклад не возникнет, то нас может ждать глобальная катастрофа. Таким образом, попытки ограничить или запретить развитие технологий ИИ могут создать значительно большие риски, чем появление опасного для человечества сверхразума.
Кроме того, можно заметить, что многие апокалиптические сценарии с участием сверхразумного ИИ в действительности включают систему ИИ лишь в качестве своеобразной вишенки на торте. Ведь машина Бострома для максимизации числа скрепок сможет перемолоть всё человечество лишь в случае наличия разрушительной технологии переделки всего и всех в скрепки, причём эта технология должна быть столь могущественна, что ей не являются помехой никакие контрмеры человечества (некоторые интерпретации этого сценария предполагают, что машина добивается своего, манипулируя людьми, но для такой манипуляции определённо нужен сверхразум, многократно превосходящий человеческий, возможность создания которого мы уже обсудили). Машине, обладающей таким всесокрушающим оружием, вовсе не нужен оператор в виде сверхразума или ИИ-системы человеческого уровня. Устроить катастрофу, обладая такой технологией, могут и сами люди — сознательно или по недомыслию.
Если взять популярный апокалиптический сценарий с системой ИИ, нажимающей на красную ядерную кнопку, то он основан на наличии смертоносного ядерного оружия, созданного десятилетия назад без всякого участия ИИ. Данный сценарий останется вполне валидным, если ядерную кнопку нажимает не система ИИ, а человек или даже обезьяна. Но если кто-то предложит запретить обезьян то вряд ли мы сочтём это предложение адекватным.
Конечно, развитие технологий ИИ является лишь необходимым, а не достаточным условием выживания нашего вида в условиях постоянно растущих техногенных рисков. В какой-то мере наша ситуация похожа на положение, в котором находится человек, быстро идущий по канату над пропастью. Запрет технологий ИИ подобен идее резко остановиться или идее полностью отказаться от наклонов в одну из сторон. Даже если нам хватит ума не предпринимать такие заведомо самоубийственные действия, это вовсе не гарантирует нам того, что наше путешествие завершится благополучно. На этой дороге нас поджидает множество опасностей, которые придётся преодолеть, например: риски, связанные с чрезмерной концентрацией технологической и интеллектуальной мощи в руках немногочисленных национальных и экономических элит (как это показано во множестве дистопий киберпанка), различные диспропорции и недостаточная открытость обществу в развитии технологий, неразумные и безответственные попытки их регулирования (подобно тому, как в техно-опере Виктора Аргонова «2032: легенда о несбывшемся грядущем» попытка идеологической индоктринации АСГУ — Автоматической системы государственного управления — приводит к ошибкам в её решениях и к разрушительной для человечества войне [3129] ) и так далее.
3129
Аргонов В. (2014). 2032: Легенда о несбывшемся грядущем. / Complex Numbers: Электронная поп-музыка для интеллектуалов // https://complexnumbers.ru/2032/
Система ИИ как элемент технологической катастрофы — это скорее дань моде: истории с участием ИИ продаются лучше, точно так же, как детективы с Шерлоком Холмсом или Натом Пинкертоном в годы популярности этих великих сыщиков продавались лучше обычных детективов.
Разумеется, все эти соображения не означают, что следует беспечно относиться к проблеме технологических рисков (включая и специфические ИИ-риски). Любая достаточно мощная технология требует известной осторожности в обращении — это относится и к энергии пара, и к атомной энергии, и к электричеству, и к «новому электричеству». Малая вероятность глобальной катастрофы не означает, что невозможны катастрофы локальные. Сколько людей погибло и погибает до сих пор из-за неудачного использования машин? Люди гибнут на производстве, в автоавариях, из-за неосторожного обращения с теми или иными инструментами. История знает много примеров техногенных аварий и катастроф. Хотя смерти людей из-за дефектов в программном обеспечении пока что экзотика, игнорировать их нельзя. Из-за халатности разработчиков программного обеспечения машины, убивающие людей вопреки воле своих создателей, уже были опробованы в деле. Одним из наиболее ярких примеров таких машин стал Therac-25 — аппарат лучевой терапии, созданный в 1982 г. канадской государственной корпорацией Atomic Energy of Canada Limited. С июня 1985 г. по январь 1987 г. этот аппарат стал причиной как минимум шести случаев многократного превышения дозы излучения, полученной пациентами в ходе терапии, при этом некоторые из них получили дозы в десятки тысяч рад. Как минимум два человека умерли от непосредственного воздействия радиации. Причиной трагедии стали ошибки в программном обеспечении аппарата [3130] , [3131] .
3130
Baase S. (2008). A Gift of Fire: Social, Legal, and Ethical Issues for Computing and the Internet. Pearson Prentice Hall // https://books.google.ru/books?id=GcBaS87q74gC
3131
Leveson N. G., Turner C. S. (1993). An Investigation of the Therac-25 Accidents / IEEE Computer. Vol. 26, Iss. 7, pp. 18—41 // https://doi.org/10.1109/MC.1993.274940
Также
3132
Travis G. (2019). How the Boeing 737 Max Disaster Looks to a Software Developer // https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster-looks-to-a-software-developer
В целом количество смертей в результате техногенных аварий и катастроф многократно уступает числу жертв войн. Злонамеренный человеческий разум причиняет людям куда больше горя и страданий, чем ошибки проектирования техники. Это наводит на мысль, что создаваемые людьми системы ИИ будут представлять опасность скорее не в результате чьих-то ошибок, а в результате намеренного придания таким системам функций оружия. Боевые системы на базе ИИ необязательно должны быть особенно умны, чтобы представлять серьёзную опасность. Им вполне достаточно сочетания интеллекта примитивного организма с нечеловеческой скоростью реакции и разрушительной силой современного оружия. Именно поэтому, несмотря на то что универсальный искусственный интеллект ещё не создан, существующие наработки в области машинного обучения уже сегодня обладают значительным потенциалом применения в качестве компонентов оружия. Впрочем, если разобраться в этой проблеме чуть глубже, то окажется, что первые образцы оружия, способного убивать без решения человека, так называемого летального автономного оружия (Lethal autonomous weapons, LAWs), появились не позже XVII в. Речь идёт о наземных и водных минах. Примитивный механизм мины «уполномочен» принимать решения об убийстве людей. Развитие технологий привело к появлению в XX в. различных самонаводящихся машин убийства — торпед и ракет, а затем и первых боевых роботов. К сожалению, несмотря на протесты общественности, разработка новых, всё более «умных» видов вооружения продолжается семимильными шагами во всех ведущих технологических державах. Многие учёные, работающие в области ИИ, выступают за запрет автономного летального оружия. В июле 2015 г. более тысячи экспертов в области ИИ подписали письмо, предупреждающее об угрозе гонки вооружений, основанных на технологиях ИИ, и призывающее к запрету автономного оружия. Письмо было представлено на XXIV Международной совместной конференции по искусственному интеллекту (International Joint Conferences on Artificial Intelligence, IJCAI-15) в Буэнос-Айресе. В числе его подписантов были Стюарт Рассел, Питер Норвиг, Ян Лекун, Йошуа Бенджио, Нильс Нильссон, Демис Хассабис и многие другие. Свою подпись под письмом поставили и учёные, работающие в других областях, такие как Стивен Хокинг, Макс Тегмарк, знаменитый американский лингвист и философ Ноам Хомский, а также ряд предпринимателей из мира информационных технологий — Илон Маск, Стив Возняк, соучредитель Skype Яан Таллинн и так далее [3133] .
3133
Autonomous weapons: an open letter from AI & robotics researchers (2015) // https://futureoflife.org/open-letter-autonomous-weapons/
Хотя большинство стран — членов ООН выступает за запрет летального автономного оружия, меньшинство блокирует это решение. Всё дело в том, что в составе этого меньшинства США, Россия, Великобритания, Австралия и Израиль [3134] .
При этом было бы наивно полагать, что другие страны в таких условиях откажутся от применения технологий ИИ при разработке систем вооружений. Например, масштабы их применения Китаем позволяет оценить вышедший в 2021 г. доклад, подготовленный специалистами Центра безопасности и перспективных технологий (Center for Security and Emerging Technology, CSET), под названием «Обузданная молния. Как китайские военные внедряют искусственный интеллект» (Harnessed Lightning. How the Chinese Military is Adopting Artificial Intelligence). В основу исследования положен анализ около 350 контрактов на связанное с ИИ оборудование, заключенных в 2020 г. Народно-освободительной армией Китая с государственными оборонными предприятиями [3135] .
3134
Gayle D. (2019). UK, US and Russia among those opposing killer robot ban / The Guardian, 29 Mar 2019 // https://www.theguardian.com/science/2019/mar/29/uk-us-russia-opposing-killer-robot-ban-un-ai
3135
Fedasiuk R., Melot J., Murphy B. (2021). Harnessed Lightning. How the Chinese Military is Adopting Artificial Intelligence / // https://cset.georgetown.edu/publication/harnessed-lightning/
В марте 2022 г. печально известный журнал Nature Machine Intelligence опубликовал статью «Двойное использование основанных на ИИ методов поиска лекарственных препаратов» (Dual use of artificial-intelligence-powered drug discovery) [3136] , в которой было показано, что генеративные модели могут вполне успешно использоваться для разработки новых видов химического оружия. К сожалению, многие технологии, создаваемые в области ИИ, могут применяться не только в мирных целях.
3136
Urbina F., Lentzos F., Invernizzi C., Ekins S. (2022). Dual use of artificial-intelligence-powered drug discovery / Nature Machine Intelligence, Vol. 4, pp. 189—191 (2022) // https://doi.org/10.1038/s42256-022-00465-9
Элита элит
1. Элита элит
Фантастика:
боевая фантастика
рейтинг книги
Попаданка в академии драконов 2
2. Попаданка в академии драконов
Любовные романы:
любовно-фантастические романы
рейтинг книги
Двойня для босса. Стерильные чувства
Любовные романы:
современные любовные романы
рейтинг книги
Кодекс Крови. Книга IV
4. РОС: Кодекс Крови
Фантастика:
фэнтези
попаданцы
аниме
рейтинг книги
Здравствуй, 1984-й
1. Девяностые
Фантастика:
альтернативная история
рейтинг книги
Офицер-разведки
2. Красноармеец
Фантастика:
боевая фантастика
попаданцы
рейтинг книги
Институт экстремальных проблем
Проза:
роман
рейтинг книги
