Чтение онлайн

на главную - закладки

Жанры

Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:

Развитие технологий ИИ является в некотором роде ответом на медлительность нашей эволюции. Подобно тому, как одежда или, скажем, ножи являются «усовершенствованиями» наших тел, от рождения лишённых тёплого меха или острых когтей, системы ИИ раздвигают границы нашего разума. Текстовый редактор, поисковая система, смартфон, базы знаний и, наконец, продвинутые нейросетевые модели — это всё продолжение нас, нашего интеллекта, нашей культуры, это компоненты синтетического человеко-машинного интеллекта. Запрет технологий ИИ, таким образом, является в своём роде самокастрацией или, если угодно, лоботомией нашего вида, способом существования которого давно стало расширение своих возможностей за счёт создания технологических улучшений своей несовершенной природы.

Любопытно, что за изобретение и популяризацию лоботомии в своё время была присуждена Нобелевская премия. По дорогам США разъезжали лоботомобили, в которых вас могли путём нехитрой манипуляции раз и навсегда избавить от кучи проблем [3127] . Аналогично сторонники запрета ИИ в действительности призывают человечество сделать крайне опасный шаг, куда более опасный, чем многие переоценённые и разрекламированные ИИ-риски, о которых они пишут (нередко отвлекая внимание от реально существующих рисков алгоритмического общества [3128] ,

которыми нужно учиться разумно управлять — что, конечно, куда сложнее и куда как менее эффектно, чем радикальные запретительные меры).

3127

Паевский А. (2018). Нобелевские лауреаты: Эгаш Мониш. «Отец» лоботомии. / Indicator, 06 июня 2018 // https://indicator.ru/medicine/egash-monish-lobotomiya.htm

3128

* Алгоритмическое общество — общество, организованное вокруг принятия социальных и экономических решений с помощью алгоритмов, роботов и агентов искусственного интеллекта.

Люди, вооружённые продвинутыми системами аналитики и моделирования, средствами эффективной коммуникации, интеллектуальными средствами обучения и психологической поддержки, платформами для коллективного принятия решений, смогут действовать куда более разумно, чем люди, лишённые всего этого, имеющие в своём багаже лишь иррациональное поведение, связанное с неуправляемой агрессией, когнитивными искажениями, предрассудками, заблуждениями, ограниченностью и так далее. Возможно, нашим спасением от проклятия техноапокалипсиса станет именно технологически улучшенный человеческий интеллект, объединённый с машинами в единую систему, — своего рода «аугментированная прямая демократия». Если же такой новый социотехнологический уклад не возникнет, то нас может ждать глобальная катастрофа. Таким образом, попытки ограничить или запретить развитие технологий ИИ могут создать значительно большие риски, чем появление опасного для человечества сверхразума.

Кроме того, можно заметить, что многие апокалиптические сценарии с участием сверхразумного ИИ в действительности включают систему ИИ лишь в качестве своеобразной вишенки на торте. Ведь машина Бострома для максимизации числа скрепок сможет перемолоть всё человечество лишь в случае наличия разрушительной технологии переделки всего и всех в скрепки, причём эта технология должна быть столь могущественна, что ей не являются помехой никакие контрмеры человечества (некоторые интерпретации этого сценария предполагают, что машина добивается своего, манипулируя людьми, но для такой манипуляции определённо нужен сверхразум, многократно превосходящий человеческий, возможность создания которого мы уже обсудили). Машине, обладающей таким всесокрушающим оружием, вовсе не нужен оператор в виде сверхразума или ИИ-системы человеческого уровня. Устроить катастрофу, обладая такой технологией, могут и сами люди — сознательно или по недомыслию.

Если взять популярный апокалиптический сценарий с системой ИИ, нажимающей на красную ядерную кнопку, то он основан на наличии смертоносного ядерного оружия, созданного десятилетия назад без всякого участия ИИ. Данный сценарий останется вполне валидным, если ядерную кнопку нажимает не система ИИ, а человек или даже обезьяна. Но если кто-то предложит запретить обезьян то вряд ли мы сочтём это предложение адекватным.

Конечно, развитие технологий ИИ является лишь необходимым, а не достаточным условием выживания нашего вида в условиях постоянно растущих техногенных рисков. В какой-то мере наша ситуация похожа на положение, в котором находится человек, быстро идущий по канату над пропастью. Запрет технологий ИИ подобен идее резко остановиться или идее полностью отказаться от наклонов в одну из сторон. Даже если нам хватит ума не предпринимать такие заведомо самоубийственные действия, это вовсе не гарантирует нам того, что наше путешествие завершится благополучно. На этой дороге нас поджидает множество опасностей, которые придётся преодолеть, например: риски, связанные с чрезмерной концентрацией технологической и интеллектуальной мощи в руках немногочисленных национальных и экономических элит (как это показано во множестве дистопий киберпанка), различные диспропорции и недостаточная открытость обществу в развитии технологий, неразумные и безответственные попытки их регулирования (подобно тому, как в техно-опере Виктора Аргонова «2032: легенда о несбывшемся грядущем» попытка идеологической индоктринации АСГУ — Автоматической системы государственного управления — приводит к ошибкам в её решениях и к разрушительной для человечества войне [3129] ) и так далее.

3129

Аргонов В. (2014). 2032: Легенда о несбывшемся грядущем. / Complex Numbers: Электронная поп-музыка для интеллектуалов // https://complexnumbers.ru/2032/

Система ИИ как элемент технологической катастрофы — это скорее дань моде: истории с участием ИИ продаются лучше, точно так же, как детективы с Шерлоком Холмсом или Натом Пинкертоном в годы популярности этих великих сыщиков продавались лучше обычных детективов.

Разумеется, все эти соображения не означают, что следует беспечно относиться к проблеме технологических рисков (включая и специфические ИИ-риски). Любая достаточно мощная технология требует известной осторожности в обращении — это относится и к энергии пара, и к атомной энергии, и к электричеству, и к «новому электричеству». Малая вероятность глобальной катастрофы не означает, что невозможны катастрофы локальные. Сколько людей погибло и погибает до сих пор из-за неудачного использования машин? Люди гибнут на производстве, в автоавариях, из-за неосторожного обращения с теми или иными инструментами. История знает много примеров техногенных аварий и катастроф. Хотя смерти людей из-за дефектов в программном обеспечении пока что экзотика, игнорировать их нельзя. Из-за халатности разработчиков программного обеспечения машины, убивающие людей вопреки воле своих создателей, уже были опробованы в деле. Одним из наиболее ярких примеров таких машин стал Therac-25 — аппарат лучевой терапии, созданный в 1982 г. канадской государственной корпорацией Atomic Energy of Canada Limited. С июня 1985 г. по январь 1987 г. этот аппарат стал причиной как минимум шести случаев многократного превышения дозы излучения, полученной пациентами в ходе терапии, при этом некоторые из них получили дозы в десятки тысяч рад. Как минимум два человека умерли от непосредственного воздействия радиации. Причиной трагедии стали ошибки в программном обеспечении аппарата [3130] , [3131] .

3130

Baase S. (2008). A Gift of Fire: Social, Legal, and Ethical Issues for Computing and the Internet. Pearson Prentice Hall // https://books.google.ru/books?id=GcBaS87q74gC

3131

Leveson N. G., Turner C. S. (1993). An Investigation of the Therac-25 Accidents / IEEE Computer. Vol. 26, Iss. 7, pp. 18—41 // https://doi.org/10.1109/MC.1993.274940

Также

можно вспомнить авиакатастрофы с самолётами Boeing 737 серии MAX 8: причиной стала ошибочная работа программного обеспечения самолёта MCAS (Maneuvering Characteristics Augmentation System, система повышения маневренных характеристик). Как показало расследование, компания Boeing скрывала сам факт существования данной системы, чтобы избежать расходов по сертификации модели MAX 8 как нового самолёта. В результате в случае неверных показаний датчика угла атаки система MCAS предпринимала неверные и неожиданные для пилотов действия по опусканию носа самолёта и препятствовала попыткам экипажа исправить ситуацию [3132] . Следствием этого стали две авиакатастрофы в 2018 и 2019 гг., унесшие жизни 346 человек.

3132

Travis G. (2019). How the Boeing 737 Max Disaster Looks to a Software Developer // https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster-looks-to-a-software-developer

В целом количество смертей в результате техногенных аварий и катастроф многократно уступает числу жертв войн. Злонамеренный человеческий разум причиняет людям куда больше горя и страданий, чем ошибки проектирования техники. Это наводит на мысль, что создаваемые людьми системы ИИ будут представлять опасность скорее не в результате чьих-то ошибок, а в результате намеренного придания таким системам функций оружия. Боевые системы на базе ИИ необязательно должны быть особенно умны, чтобы представлять серьёзную опасность. Им вполне достаточно сочетания интеллекта примитивного организма с нечеловеческой скоростью реакции и разрушительной силой современного оружия. Именно поэтому, несмотря на то что универсальный искусственный интеллект ещё не создан, существующие наработки в области машинного обучения уже сегодня обладают значительным потенциалом применения в качестве компонентов оружия. Впрочем, если разобраться в этой проблеме чуть глубже, то окажется, что первые образцы оружия, способного убивать без решения человека, так называемого летального автономного оружия (Lethal autonomous weapons, LAWs), появились не позже XVII в. Речь идёт о наземных и водных минах. Примитивный механизм мины «уполномочен» принимать решения об убийстве людей. Развитие технологий привело к появлению в XX в. различных самонаводящихся машин убийства — торпед и ракет, а затем и первых боевых роботов. К сожалению, несмотря на протесты общественности, разработка новых, всё более «умных» видов вооружения продолжается семимильными шагами во всех ведущих технологических державах. Многие учёные, работающие в области ИИ, выступают за запрет автономного летального оружия. В июле 2015 г. более тысячи экспертов в области ИИ подписали письмо, предупреждающее об угрозе гонки вооружений, основанных на технологиях ИИ, и призывающее к запрету автономного оружия. Письмо было представлено на XXIV Международной совместной конференции по искусственному интеллекту (International Joint Conferences on Artificial Intelligence, IJCAI-15) в Буэнос-Айресе. В числе его подписантов были Стюарт Рассел, Питер Норвиг, Ян Лекун, Йошуа Бенджио, Нильс Нильссон, Демис Хассабис и многие другие. Свою подпись под письмом поставили и учёные, работающие в других областях, такие как Стивен Хокинг, Макс Тегмарк, знаменитый американский лингвист и философ Ноам Хомский, а также ряд предпринимателей из мира информационных технологий — Илон Маск, Стив Возняк, соучредитель Skype Яан Таллинн и так далее [3133] .

3133

Autonomous weapons: an open letter from AI & robotics researchers (2015) // https://futureoflife.org/open-letter-autonomous-weapons/

Хотя большинство стран — членов ООН выступает за запрет летального автономного оружия, меньшинство блокирует это решение. Всё дело в том, что в составе этого меньшинства США, Россия, Великобритания, Австралия и Израиль [3134] .

При этом было бы наивно полагать, что другие страны в таких условиях откажутся от применения технологий ИИ при разработке систем вооружений. Например, масштабы их применения Китаем позволяет оценить вышедший в 2021 г. доклад, подготовленный специалистами Центра безопасности и перспективных технологий (Center for Security and Emerging Technology, CSET), под названием «Обузданная молния. Как китайские военные внедряют искусственный интеллект» (Harnessed Lightning. How the Chinese Military is Adopting Artificial Intelligence). В основу исследования положен анализ около 350 контрактов на связанное с ИИ оборудование, заключенных в 2020 г. Народно-освободительной армией Китая с государственными оборонными предприятиями [3135] .

3134

Gayle D. (2019). UK, US and Russia among those opposing killer robot ban / The Guardian, 29 Mar 2019 // https://www.theguardian.com/science/2019/mar/29/uk-us-russia-opposing-killer-robot-ban-un-ai

3135

Fedasiuk R., Melot J., Murphy B. (2021). Harnessed Lightning. How the Chinese Military is Adopting Artificial Intelligence / // https://cset.georgetown.edu/publication/harnessed-lightning/

В марте 2022 г. печально известный журнал Nature Machine Intelligence опубликовал статью «Двойное использование основанных на ИИ методов поиска лекарственных препаратов» (Dual use of artificial-intelligence-powered drug discovery) [3136] , в которой было показано, что генеративные модели могут вполне успешно использоваться для разработки новых видов химического оружия. К сожалению, многие технологии, создаваемые в области ИИ, могут применяться не только в мирных целях.

3136

Urbina F., Lentzos F., Invernizzi C., Ekins S. (2022). Dual use of artificial-intelligence-powered drug discovery / Nature Machine Intelligence, Vol. 4, pp. 189—191 (2022) // https://doi.org/10.1038/s42256-022-00465-9

Поделиться:
Популярные книги

Элита элит

Злотников Роман Валерьевич
1. Элита элит
Фантастика:
боевая фантастика
8.93
рейтинг книги
Элита элит

Попаданка в академии драконов 2

Свадьбина Любовь
2. Попаданка в академии драконов
Любовные романы:
любовно-фантастические романы
6.95
рейтинг книги
Попаданка в академии драконов 2

Двойня для босса. Стерильные чувства

Лесневская Вероника
Любовные романы:
современные любовные романы
6.90
рейтинг книги
Двойня для босса. Стерильные чувства

Кодекс Крови. Книга IV

Борзых М.
4. РОС: Кодекс Крови
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Кодекс Крови. Книга IV

Здравствуй, 1984-й

Иванов Дмитрий
1. Девяностые
Фантастика:
альтернативная история
6.42
рейтинг книги
Здравствуй, 1984-й

Офицер-разведки

Поселягин Владимир Геннадьевич
2. Красноармеец
Фантастика:
боевая фантастика
попаданцы
5.00
рейтинг книги
Офицер-разведки

Институт экстремальных проблем

Камских Саша
Проза:
роман
5.00
рейтинг книги
Институт экстремальных проблем

Прорвемся, опера! Книга 4

Киров Никита
4. Опер
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Прорвемся, опера! Книга 4

Сумеречный Стрелок 5

Карелин Сергей Витальевич
5. Сумеречный стрелок
Фантастика:
городское фэнтези
попаданцы
аниме
5.00
рейтинг книги
Сумеречный Стрелок 5

Господин следователь. Книга 2

Шалашов Евгений Васильевич
2. Господин следователь
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Господин следователь. Книга 2

Вечный. Книга I

Рокотов Алексей
1. Вечный
Фантастика:
боевая фантастика
попаданцы
рпг
5.00
рейтинг книги
Вечный. Книга I

Чехов. Книга 2

Гоблин (MeXXanik)
2. Адвокат Чехов
Фантастика:
фэнтези
альтернативная история
аниме
5.00
рейтинг книги
Чехов. Книга 2

Вернуть невесту. Ловушка для попаданки

Ардова Алиса
1. Вернуть невесту
Любовные романы:
любовно-фантастические романы
8.49
рейтинг книги
Вернуть невесту. Ловушка для попаданки

Невеста напрокат

Завгородняя Анна Александровна
Любовные романы:
любовно-фантастические романы
6.20
рейтинг книги
Невеста напрокат