Чтение онлайн

на главную - закладки

Жанры

Искусственный интеллект. Большие данные. Преступность
Шрифт:

Парламентская Ассамблея Совета Европы в 2017 г. приняла Рекомендацию 102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека».

В ней Ассамблея предложила разработать руководства по следующим вопросам:

«1. Повышение уровня транспарентности, государственное регулирование и ответственность операторов в том, что касается:

1.1. того факта, что при любых обстоятельствах ответственность несет человек. Ссылки на то, что системы с искусственным интеллектом «самостоятельно» принимают решения, не могут освобождать создателей, владельцев и управляющих этих систем от ответственности за нарушения

прав человека, совершаемые с применением таких систем, даже в случаях, когда действие, причинившее ущерб, не было напрямую санкционировано ответственным руководителем или оператором;

1.2. операций по автоматизированной обработке данных, имеющих целью сбор, обработку и использование персональных данных;

1.3. информирования общественности в отношении ценности данных, которые она генерирует, о необходимости согласия на использование этих данных, а также о сроке, в течение которого эти данные будут храниться;

1.4. информирования каждого человека об обработке полученных от него персональных данных, а также о математических и статистических методах, позволяющих осуществлять профилирование;

1.5. разработки и использования компьютерных программ, предназначенных для убеждения, а также информационно-коммуникационных технологий (ИКТ) или алгоритмов искусственного интеллекта, которые должны обеспечивать в полном объеме уважение достоинства и прав всех пользователей, особенно наиболее уязвимых категорий, таких как пожилые люди или инвалиды;

2. Общая система стандартов, которые должны соблюдаться в тех случаях, когда суд использует искусственный интеллект;

3. Необходимость обеспечения того, чтобы любая машина, любой робот или любой объект искусственного интеллекта оставались под контролем человека; исходя из того, что машина считается разумной лишь за счет своего программного обеспечения, следует предусмотреть возможность лишать ее способностей, которыми она обладает;

4. Признание новых прав, связанных с уважением личной и семейной жизни, возможности отказаться от того, чтобы кто-то подвергал вас профилированию, отслеживал ваше местонахождение, манипулировал вами или влиял на вас в качестве некоего «наставника», а также права иметь возможность, в контексте лечения и помощи, оказываемых пожилым лицам и инвалидам, общаться не с роботом, а с человеком».

Ассамблея также напомнила, что «в своей резолюции 2051 (2015) «БПЛА и целенаправленные убийства: необходимость соблюдения прав человека и норм международного права» она призвала все государства-члены и государства-наблюдатели, а также государства, парламенты которых имеют статус наблюдателя при Ассамблее, воздерживаться от использования любых автоматических (роботизированных) процедур определения лиц для целенаправленного убийства или любого причинения вреда на основе моделей коммуникационного поведения или иных данных, собранных с помощью средств массовой слежки. Это положение должно применяться не только в отношении БПЛА, но и в отношении других вооружений, оснащенных системами искусственного интеллекта, а также иного оборудования и/или программного обеспечения, которые потенциально могут причинить вред людям, имуществу, личным данным или информационным базам данных, или же нарушать право на частную жизнь, свободу выражения мнения или право на равенство и соблюдение принципа недопущения дискриминации».

В 2016 г. группа известных благотворителей учредила фонд для финансирования исследований в области права и контроля над ИИ. Среди учредителей П. Омидьяр, Фонд Гейтсов, основатель Linkedln Р. Хоффман, основатель Goggle Л. Пейдж и т. п. Сейчас в фонде находятся 30 млн. долларов, которые будут

расходоваться на оплату работы юристов.

Серьезной и оправданной является инициатива международного Института инженеров электротехники и электроники (IEEE). Он представил первую версию «Стандартов по созданию роботов и искусственного интеллекта». Стандарт получил название Ethically Aligned Design. Документ был разработан при участии Google, Facebook, Amazon, IBM, и 300 членов Global Initiative.

Предполагается, что Ethically Aligned Design установит для производителей роботов и программ ИИ неписаные правила. В частности, предлагается на срок до четырех лет рекомендовать разработчикам не создавать нейронных сетей более пяти слоев. Такие сети являются, по сути, принципиально не-вскрываемым черным ящиком, и соответственно принципы принятия тех или иных решений невозможно будет записать в виде алгоритмов, переводимых на человекочитаемый язык.

В стандарте предусмотрено, что Институт рекомендует государствам, где развиваются робототехнические разработки, и компаниям, создающим программы с использованием ИИ, создать надзорные органы за процедурой разработки и применения интеллектуальных и автономных систем, а также руководствоваться при разработке национальных стандартов и технических регламентов выпущенным стандартом.

Среди юристов имеются различные точки зрения относительно юридического ограничения научно-технических и программных разработок. С одной стороны, какое-то законодательство необходимо. С другой стороны, как показывает история, еще ни разу путем применения юридических мер не удалось приостановить научно-технические разработки или распространение технологий. Даже применительно к чрезвычайно затратному и не допускающему маскировки производству ядерного оружия, не удалось выполнить соглашение о его нераспространении.

В 2016 г. впервые пять безвинных людей, из них две женщины и один ребенок, были убиты полностью автономным боевым дроном, использованным британским подразделением в Афганистане. Дрон нанес удар по деревне из-за сбоя в системе визуального распознавания цели. Это был принципиально новый дрон. В нем для повышения точности боевых ударов и распознавания целей использовался двойной контроль. Как это часто бывает, более сложная техническая система дала сбой, и случилось то, что случилось. При этом министерство обороны и министерство юстиции Великобритании списали все на несчастный случай.

В 2017 году ФБР вместе с юридической школой университета Майами провело конференцию по юридическим последствиям использования в правоохранительной деятельности автономных роботизированных систем, оснащенных ИИ. В ходе конференции большинство поддержало профессора математики Самира Чопру – научного консультанта ФБР и автора книги «Правовая теория для искусственного интеллекта», который заявил: «Главная проблема состоит в том, что ИИ является полностью рациональным агентом, принимающих любые решения на основе расчетов в прямом буквальном смысле слова. Человеческие же решения далеки от рациональности. И коль скоро человечество существует вот уже тысячи лет, значит, рациональность не во всех случаях является лучшим решением».

Соответственно Чопра предлагает установить в законодательном порядке сферы, где могут и где не могут действовать компьютерные программы без вмешательства человека. Например, в презентации Чопры на конференции содержался график, который показал, что в период с 2009 по 2015 гг. имеется обратная регрессионная зависимость, с коэффициентом, превышающим 0,9, между потерями банков в результате преступной деятельности, в том числе внутрикорпоративных преступлений, и объемом алгоритмической торговли на финансовых рынках торговыми роботизированными комплексами.

Поделиться:
Популярные книги

На границе империй. Том 10. Часть 6

INDIGO
Вселенная EVE Online
Фантастика:
боевая фантастика
космическая фантастика
попаданцы
5.00
рейтинг книги
На границе империй. Том 10. Часть 6

Имя нам Легион. Том 6

Дорничев Дмитрий
6. Меж двух миров
Фантастика:
боевая фантастика
рпг
аниме
5.00
рейтинг книги
Имя нам Легион. Том 6

Сводный гад

Рам Янка
2. Самбисты
Любовные романы:
современные любовные романы
эро литература
5.00
рейтинг книги
Сводный гад

Черт из табакерки

Донцова Дарья
1. Виола Тараканова. В мире преступных страстей
Детективы:
иронические детективы
8.37
рейтинг книги
Черт из табакерки

Брачный сезон. Сирота

Свободина Виктория
Любовные романы:
любовно-фантастические романы
7.89
рейтинг книги
Брачный сезон. Сирота

Чехов. Книга 3

Гоблин (MeXXanik)
3. Адвокат Чехов
Фантастика:
альтернативная история
5.00
рейтинг книги
Чехов. Книга 3

Идеальный мир для Лекаря 26

Сапфир Олег
26. Лекарь
Фантастика:
аниме
фэнтези
5.00
рейтинг книги
Идеальный мир для Лекаря 26

Вечный. Книга IV

Рокотов Алексей
4. Вечный
Фантастика:
боевая фантастика
попаданцы
рпг
5.00
рейтинг книги
Вечный. Книга IV

Мастер Разума IV

Кронос Александр
4. Мастер Разума
Фантастика:
боевая фантастика
попаданцы
аниме
5.00
рейтинг книги
Мастер Разума IV

Сумеречный стрелок 6

Карелин Сергей Витальевич
6. Сумеречный стрелок
Фантастика:
городское фэнтези
попаданцы
аниме
5.00
рейтинг книги
Сумеречный стрелок 6

Имперский Курьер

Бо Вова
1. Запечатанный мир
Фантастика:
попаданцы
аниме
фэнтези
фантастика: прочее
5.00
рейтинг книги
Имперский Курьер

На границе империй. Том 7. Часть 5

INDIGO
11. Фортуна дама переменчивая
Фантастика:
боевая фантастика
космическая фантастика
попаданцы
5.00
рейтинг книги
На границе империй. Том 7. Часть 5

Служанка. Второй шанс для дракона

Шёпот Светлана
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Служанка. Второй шанс для дракона

Чужбина

Седой Василий
2. Дворянская кровь
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Чужбина