Искусственный интеллект. Большие данные. Преступность
Шрифт:
По мнению Чопры, надо перестать относиться к торговым платформам, которые являются наиболее сложными из ныне действующих ИИ, как к простому инструменту. Парадокс в том, что они уже не являются арифмометрами, но пока недостаточно независимы, чтобы считаться юридическими лицами. По мнению Чопры, они должны рассматриваться как «юридические агенты» компании, которые управляют ими также, как Google управляет своими Google-мобилями. Соответственно в законе четко должны быть прописаны случаи, когда компании, управляющие агентами, несут ответственность, а когда нет.
Рассуждая прагматически, другой консультант ФБР Р.Кало, профессор
При рассмотрении юридических аспектов ИИ следует обратить внимание на возможности использования ИИ в оперативно-розыскной и расследовательской деятельности. В 2016 г. ФБР совместно с прокуратурой Южного округа Нью-Йорка и юридической фирмой Sullivan & Cromwell провели круглый стол о возможностях и ограничениях использования в оперативно-розыскной деятельности экспертных систем ИИ. В результате дискуссий, в которых участвовало значительное число практикующих судей, адвокатов, а также компаний по подбору и анализу поведения присяжных, был сделан следующий вывод: в ближайшие годы следует весьма осторожно относиться к использованию в реальной оперативнорозыскной деятельности экспертных систем не как источников текущей информации, а как инструментов прогнозирования и анализа.
Если экспертные системы используются для сопоставления идентификаторов подозреваемого лица с идентификаторами, находящимися в базе правоохранительных органов или идентификаторами, оставленными на месте того или иного преступления и надежно атрибутировавши, это один вопрос. В этом случае проблем никаких не возникает.
Однако, если экспертная система будет использоваться как своего рода консультант следователя для вынесения им вердикта о возможной виновности или невиновности того или иного субъекта, и это решение будет значимым для передачи дела в суд, то судьи и адвокаты полагают, что в данном случае у полиции и ФБР могут возникнуть большие сложности. Даже в том случае, если консультация оказалась результативной, и в последующих оперативно-розыскных мероприятиях удалось добыть новые доказательства, или просто лицо, совершившее преступление, признало себя виновным, велики шансы, что процесс будет проигран прокуратурой до его начала.
Проблема в том, что в настоящее время значительная часть американцев и европейцев, особенно лица старше 40 лет, инстинктивно боятся и не доверяют роботам, а тем более ИИ. Используя это недоверие, у многих выраженное на уровне антипатии, квалифицированному адвокату не составит труда либо развалить дело, либо добиться оправдания. Присяжные будут воспринимать подобный процесс не как ныне – диспут между прокурором и адвокатом, применительно
Также консенсусно было установлено, что категорически не стоит создавать экспертных систем, базирующихся на глубоких, более четырех слоев, нейронных сетях. Подобные глубокие сети, как уже указывалось, представляют собой программный черный ящик. Применительно к подобным сетям, сложно и дорогостояще, а в отдельных случаях невозможно, получить на выходе человекочитаемые правила. На практике это означает, что правоохранители должны просто доверяться своим программно-аппаратным помощникам. Более того, в такой ситуации не вполне понятно, кто является главным, а кто – помощником. Если решения принимаются человеком на основе правил, которые они не понимает, то считать его главным нельзя. Фактически он превращается в приставку к ИИ, которая доводит решения ИИ до человеческого общества.
Данный подход возможен при принятии международного правового акта, ставящего на определенное время под запрет использование ИИ, работающего по принципу черного ящика.
В 2018 г. в Комитете Госдумы РФ по экономической политике, промышленности, инновационному развитию и предпринимательству будет рассмотрен проект Модельной конвенции по робототехнике и искусственному интеллекту. Проект разработан Исследовательским центром проблем регулирования робототехники и искусственного интеллекта.
Цель разработанного проекта конвенции – определить основные проблемы, которые могут возникнуть в обществе и правовой системе в связи с активным развитием киберфизических систем, обобщить основные правила робототехники и обозначить возможные направления решения существующих и ожидаемых проблем, указано в документе.
Авторы проекта конвенции предлагают, в частности:
• к объектам робототехники относить все категории роботов в самом широком понимании независимо от их назначения, степени опасности, мобильности или автономности, а также кибер-физические системы с ИИ в любой форме;
• исходить из того, что «создание, внедрение и использование роботов должно осуществляться при условии максимального обеспечения безопасности человека, общества и государства, а также непричинения вреда человеку, человечеству, живым существам и всей их среде обитания»;
• роботы, создаваемые в военных целях, «должны иметь изначально заложенные в них и не поддающиеся изменениям ограничения, соответствующие положениям международного гуманитарного права». Такие роботы не должны использоваться для причинения вреда мирному населению;
• установить повышенные требования к защите от несанкционированного доступа третьих лиц при эксплуатации роботов, потенциально способных причинить человеку существенный, в том числе смертельный, вред (медицинские роботы, имплантируемые устройства, высокоавтоматизированные транспортные средства, военные роботы и т. д.);
• роботы должны постоянно фиксировать информацию об условиях своего функционирования и всех совершаемых ими действиях и хранить в специальном «черном ящике»;
• физически взаимодействующие с людьми и не находящиеся под прямым управлением человека роботы должны иметь функцию моментального или аварийного отключения по требованию («красную кнопку»);