Искусственный интеллект. Большие данные. Преступность
Шрифт:
Фактически реализуется модель будущего, описанная Ф. Чиландером в рассказе «Судебный процесс» о том, как роботы судили последнего человека, проживавшего в городе, за «убийство» робота.
Еще в июне 2016 г. генеральный директор Microsoft Сатья Наделла в своей статье для издания State изложил 10 принципов (своеобразных заповедей) сосуществования человечества и ИИ:
1. Главная цель создания ИИ – помочь человечеству;
2. Работы
3. ИИ должен быть максимально эффективен, но не унижать при этом человеческое достоинство;
4. ИИ должен обеспечивать интеллектуальную неприкосновенность и конфиденциальность личной жизни;
5. Должен существовать алгоритм подотчетности ИИ, чтобы предотвратить вред человеку;
6. Искусственный интеллект должен быть непредвзятым;
7. Человек должен научиться сопереживать другим людям, чтобы наделить ИИ свойством эмпатии;
8. Людям важно быть образованными, чтобы правильно использовать ИИ;
9. Произведения искусства должен создавать человек, а не ИИ;
10. Человек несет ответственность за решения, предложенные ИИ.
Подходы Наделлы развивают «Азиломарские принципы искусственного интеллекта». Это – 23 принципа, которых необходимо придерживаться всем, кто ведет исследования в сфере ИИ. Они приняты на конференции Beneficial Al 2017. Среди участников конференции были Рэй Курцвейл, Илон Маек и Стивен Хокинг.
В соответствии с принципами:
1) Целью исследований в сфере ИИ должно быть создание не неуправляемого, а полезного интеллекта;
2) Инвестиции в ИИ должны сопровождаться финансированием исследований по обеспечению его полезного использования, которые должны дать ответы на самые острые вопросы в области компьютерных технологий, экономики, права, этики и социальных исследований, таких как:
Как мы можем сделать будущие системы ИИ очень надежными, чтобы они делали то, что мы хотим, без сбоев или взломов?
Как мы можем увеличить благополучие человечества посредством автоматизации при одновременном сохранении имеющихся у нас ресурсов и ценностей? Как мы можем развивать наши правовые системы, чтобы сделать их более справедливыми и эффективными, идущими в ногу с ИИ и учитывающими риски, связанные с ИИ?
Какими ценностями должен быть связан ИИ, и какой статус он должен иметь с правовой и этической точек зрения?
3) Должно быть установлено конструктивное и полезное взаимодействие между исследователями в сфере ИИ и теми, кто принимает решения о регулировании ИИ;
4) В среде исследователей и разработчиков в сфере ИИ следует поощрять развитие культуры сотрудничества, доверия и прозрачности;
5) Команды, разрабатывающие системы ИИ, должны активно сотрудничать
6) Системы ИИ должны быть безопасными и надежными на протяжении всего срока их эксплуатации, а также быть контролируемыми насколько это возможно и применимо;
7) Если система ИИ причиняет вред, всегда должна быть возможность понять причину этого;
8) Любое участие автономной системы в процессе принятия судебных решений должно сопровождаться предоставлением убедительных объяснений, которые могут быть перепроверены людьми из компетентных органов власти;
9) Разработчики продвинутых систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ, неправильного использования ИИ и действий ИИ; они имеют возможность и несут обязанность влиять на такие последствия;
10) Высоко автономные системы ИИ должны быть разработаны таким образом, чтобы их цели и поведение были схожи с человеческими ценностями на протяжении всей их работы;
11) Системы ИИ должны разрабатываться и работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур;
12) Учитывая способность систем ИИ анализировать и использовать личные данные, люди должны иметь права на доступ к своим личным данным, управление ими и осуществление контроля за их использованием;
13) Применение ИИ к персональным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей;
14) Технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей;
15) Экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;
16) Люди должны сами выбирать, как использовать системы ИИ для достижения своих целей и использовать ли их для этого вообще;
17) Власть, получаемая благодаря контролю над высокоразвитыми системами ИИ, должна уважать и улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества;
18) Следует избегать гонки вооружений в разработке смертельного автономного оружия на основе ИИ;
19) При отсутствии консенсуса об ином нам следует избегать уверенных предположений относительно верхних пределов будущих возможностей ИИ;
20) Продвинутый ИИ может повлечь за собой коренное изменение в истории жизни нашей планеты, поэтому он должен разрабатываться и управляться с соответствующим вниманием и способностями;
21) Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны предвидеться, а их наступление минимизироваться за счет усилий, сопоставимых с ожидаемым последствием реализации этих рисков;