Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система
Шрифт:
Осуществление государственной бюджетной и налоговой политики для стимулирования бизнеса также можно свести к задаче определения налогового режима и объема поддержки для различных компаний в зависимости от их финансово-экономических показателей, сравнимых с установленными эталонными. Обученные нейронные сети могут не только классифицировать компании по критериям для определения налогового режима и бюджетной поддержки, но позволяют уточнить эти критерии на основе проанализированного множества собираемых показателей о деятельности компаний.
Абсолютно аналогично решаются задачи осуществления лицензионной и разрешительной деятельности органов власти, которые сравнимы с задачей кредитного скоринга клиента в банке. Организация, деятельность которой
Приведенный выше обзор возможностей ИИ, призванных помочь в решении разных классов задач в государственном управлении и в судебной системе, показывает неизбежность внедрения инновационных решений на основе машинного обучения в ближайшем будущем. Искусственный интеллект дает возможность сократить издержки при осуществлении государственных функций, увеличить скорость отклика на запросы граждан, повысить качество результатов взаимодействия органов власти с внешними акторами, а также перераспределить нагрузку на государственных служащих, избавив их от решения рутинных задач. При этом изложенные выше возможности ИИ демонстрируют позитивный эффект от его внедрения в деятельность органов власти. Однако деятельность органов государственной власти сопряжена с пристальным вниманием общественности, требованиями соблюдать прозрачность и подотчетность в принятии решений и представлении результатов. Если опорой деятельности для органов власти становится ИИ, то государству следует обеспечить важнейший аспект внедрения ИИ в операционную и стратегическую деятельность – этический.
Анализ зарубежных и российской национальной стратегии развития искусственного интеллекта демонстрирует, что в подавляющем большинстве в них включен раздел по обеспечению этичности использования ИИ в деятельности органов власти. Как правило, в стратегиях определяются этические принципы внедрения ИИ (конфиденциальность, прозрачность, подотчетность, защита гражданских прав, ответственность, доверие, устойчивое развитие, справедливость, приоритет конечного решения за человеком), декларируется необходимость защиты персональных данных граждан, принятие решений с помощью технологий ИИ согласно важным для общества ценностям и убеждениям. Важную роль в принятии этических принципов развития ИИ сыграли ОЭСР и ЕС [2] . Этические механизмы в национальных стратегиях развития ИИ – это один из механизмов контроля над результатами деятельности на основе использования ИИ. Например, декларируется право человека принимать конечные решения и вмешиваться при необходимости в деятельность, реализованную на технологиях ИИ. Использование ИИ должно вызывать доверие у общества: должны быть созданы механизмы верификации действий ИИ, механизмы защиты граждан от ошибок ИИ, которые могут нанести урон человеку, привести к дискриминации одних групп граждан перед другими при принятии решений, ущемлять моральные, религиозные ценности и достоинство граждан при реализации управленческих механизмов на основе ИИ. Отдельно государства декларируют создание консультативных органов, которые будут дискуссионными площадками для выработки политики по реализации этических принципов в продуктах и услугах на основе ИИ.
2
Forty-two countries adopt new OECD Principles on Artificial Intelligence (URL:; Ethics Guidelines for Trustworthy AI (URL:.
В
Цель данной книги заключается в разработке основанного на этике подхода к внедрению технологий ИИ в работу органов государственной власти (с акцентом на примеры из практики в Российской Федерации). Сопутствующая задача в этом исследовании – это обнаружение условий формирования, внедрения и адаптации возможностей этичного ИИ для нужд государственного управления. Отдельная задача состоит в прогнозировании и обнаружении таких нужд. Важнейшей областью участия государства в вопросах развития ИИ является разработка этического кодекса ИИ, а также контроль за его использованием. Бурное развитие ИИ в современном мире сопровождается повышением числа этических трудностей, дилемм и коллизий на пути внедрения и применения ИИ. В то же время для разработчиков и конечных пользователей существует понимание важности того, что внедрение ИИ должно соответствовать этическим нормам и ожиданиям людей, которые требуют детального рассмотрения и уточнения.
Этически ориентированный, или так называемый надежный (reliable), ИИ включает три взаимосвязанных аспекта, каждый из которых предполагает отдельный уровень экспертной оценки.
Во-первых, его разработка и применение должны соответствовать существующему законодательству и правоприменительным практикам, не нарушать прав и обязанностей граждан, не мешать их исполнению. Успешная реализация настоящего требования предполагает проведение юридической экспертизы с привлечением советующих квалифицированных специалистов.
Во-вторых, разработка надежного ИИ предполагает соблюдение и воспроизводство ключевых этических норм, принципов и ценностей, присущих определенной культуре или региону. Для их соблюдения также необходимо привлечение соответствующих экспертов, а именно тех, кто обладает достаточными компетенциями для проведения самой этической экспертизы ИИ. В число таких экспертов могут входить люди с междисциплинарной подготовкой и разносторонней квалификацией: философы, психологи, социологи, управленцы и др. [Russell, Norvig, 2009].
В-третьих, разработка и внедрение ИИ должны быть надежными с социальной точки зрения. Под этим параметром подразумевается этическая безопасность применения ИИ, когда объектом воздействия является большое количество людей или общество в целом. Даже при успешном прохождении этической экспертизы системы искусственного интеллекта могут причинить непреднамеренный или незаметный вред в краткосрочной перспективе. Для устранения таких рисков применение ИИ должно поддерживаться не только технологиями конечного внедрения, но и процедурами долгосрочного мониторинга.
В оптимальной перспективе все три компонента должны работать слаженно и поддерживать друг друга. Если на практике между этими компонентами возникает конфликт или несогласованность экспертных сообществ, группы разработчиков и государство должны стремиться к их устранению.
Мы сосредоточимся главным образом на втором и частично на третьем принципах разработки надежного ИИ. Нашей задачей является анализ этических аспектов разработки и внедрения ИИ, а также анализ его социального и антропоразмерного потенциала. Настоящая работа преследует три цели: описательную, аналитическую и рекомендательную.