Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
Израиль, так же как и Индия, отказался от принятия единого закона об ИИ, сделав ставку преимущественно на стимулирующее регулирование. Впрочем, с 2021 г. Министерство юстиции ведёт сбор предложений и комментариев в отношении создания нормативных ограничений и возможного регулирования в области ИИ. Однако существующий проект политики регулирования и этики в сфере ИИ, выпущенный Органом по инновациям в 2022 г., исключает возможность регулирования с помощью отдельного закона и призывает содействовать регулированию в конкретных случаях на основе управления рисками, а также предпочтительно использовать мягкие инструменты регулирования [3234] , [3235] .
3234
For the first time in Israel: The principles of the policy for the responsible development of the field of artificial intelligence were published for public comment (2022). / Ministry of Innovation, Science and Technology, 17.11.2022 // https://www.gov.il/en/departments/news/most-news20221117
3235
Ravia H., Kaplan T., Hammer D. (2021). Use of Artificial Intelligence Attracts Legislative and Regulatory Attention in the E.U., U.S., and Israel. / Pearl Cohen, Apr 29, 2021 // https://www.pearlcohen.com/use-of-artificial-intelligence-attracts-legislative-and-regulatory-attention-in-the-e-u-u-s-and-israel/
В
В России наиболее заметным событием в области регулирования ИИ является Указ Президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации» [3237] , утвердивший «Национальную стратегию развития искусственного интеллекта на период до 2030 года» «в целях обеспечения ускоренного развития искусственного интеллекта <…> проведения научных исследований в области искусственного интеллекта, повышения доступности информации и вычислительных ресурсов для пользователей, совершенствования системы подготовки кадров в этой области». Сама «Национальная стратегия» — небольшой документ, содержащий всего 23 страницы. Он определяет цели, основные задачи и принципы развития ИИ в РФ, приоритетные направления развития и использования технологий, описывает механизмы реализации стратегии. Предполагается, что актуализация этого документа будет происходить приблизительно раз в три года.
3236
Roh T., Nam J. E. (2023). South Korea: Legislation on Artificial Intelligence to Make Significant Progress. / Kim & Chang, 2023.03.06 // https://www.kimchang.com/en/insights/detail.kc?sch_section=4&idx=26935
3237
Указ Президента Российской Федерации «О развитии искусственного интеллекта в Российской Федерации» (2019) // http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1HCCsv.pdf
Как показывает история с беспилотным транспортом, важным источником регулирования, затрагивающим технологии ИИ, являются различные отраслевые требования и стандарты. Например, Управление по контролю качества пищевых продуктов и лекарственных средств США (US Food and Drug Administration, US FDA или просто FDA) развивает собственные подходы и нормативную базу регулирования применения технологий ИИ в области здравоохранения [3238] , [3239] , [3240] , предъявляя к разработчикам систем, содержащих ИИ-компоненты, достаточно жёсткие требования. Аналогичным образом поступают и отраслевые регуляторы многих других стран, например Национальная администрация медицинских продуктов (?????????) Китая [3241] .
3238
Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) - Discussion Paper and Request for Feedback (2019). / U. S. Food & Drug Administration // https://www.fda.gov/files/medical%20devices/published/US-FDA-Artificial-Intelligence-and-Machine-Learning-Discussion-Paper.pdf
3239
Marketing Submission Recommendations for a Predetermined Change Control Plan for Artificial Intelligence/Machine Learning (AI/ML)-Enabled Device Software Functions. Draft Guidance for Industry and Food and Drug Administration Staff (2023). / U. S. Food & Drug Administration, April 2023 // https://www.fda.gov/regulatory-information/search-fda-guidance-documents/marketing-submission-recommendations-predetermined-change-control-plan-artificial
3240
Boubker J., Faget K. Y., Beaver N. A., Chmielewski M. R. (2023). FDA’s New Guidance Proposes Flexible Use of AI in Medical Devices / Foley, 10 May 2023 // https://www.foley.com/en/insights/publications/2023/05/fdas-guidance-flexible-use-ai-medical-devices
3241
Three Guidelines Published Today, Propelling China to be World Leader in Digital Health (2022). / China Med Device, March 9, 2022 // https://chinameddevice.com/digital-health-nmpa-ai/
В 2017 г. Международная организация по стандартизации (International Organization for Standardization, ISO) совместно с Международной электротехнической комиссией (International Electrotechnical Commission, IEC) создала комитет ISO/IEC JTC 1/SC 42, предназначенный для разработки международных стандартов в области ИИ [3242] . В 2020 г. комитет выпустил отчёт ISO/IEC TR 24028:2020 «Информационные технологии. Искусственный интеллект. Обзор надёжности в области искусственного интеллекта» [3243] , [3244] , где анализируется, как оценивать и улучшать надёжность, доступность, точность, безопасность и конфиденциальность систем ИИ. Документ также рассматривает варианты снижения рисков от подводных камней в системах ИИ и описывает, как добиться доверия к системам ИИ через прозрачность, объяснимость, управляемость и так далее.
3242
ISO/IEC JTC 1/SC 42 Artificial intelligence (2017) // https://www.iso.org/ru/committee/6794475.html
3243
Гасиоровски-Денис Е. (2020). Навстречу искусственному интеллекту // https://www.iso.org/ru/news/ref2530.html
3244
ISO/IEC JTC 1/SC 42 Artificial intelligence (2020). ISO/IEC TR 24028:2020. Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence // https://www.iso.org/ru/standard/77608.html
В 2018 г. Федеральное агентство по техническому регулированию и метрологии (Росстандарт) выступило инициатором создания национальных стандартов в области ИИ. Стандартизации было предложено подвергнуть технологии искусственного интеллекта в различных сферах: в системе общественной безопасности, в медицине, в сельском хозяйстве, на транспорте, в составе «умных домов» и так далее. В 2019 г. по инициативе Российской
Принятая в декабре 2020 г. перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021–2024 годы, утверждённая Росстандартом и Минэкономразвития, предусматривает разработку 217 стандартов в области ИИ [3245] .
Надо заметить, что в связи с обсуждением будущего технологий ИИ часто возникает тема сбора и обработки персональных данных (и например, Федеральный закон №152-ФЗ «О персональных данных» [3246] тоже косвенно затрагивает тему разработки систем ИИ). Ставший сегодня хрестоматийным скандал вокруг компании Cambridge Analytica [3247] продемонстрировал опасность, которую влечёт за собой сосредоточение больших объёмов информации в руках крупных компаний, и создал прецедент неэтичного и недопустимого использования технологий ИИ. Так что к проблемам, описанным О’Нил, можно смело добавить ещё одну — риски вторжения алгоритмов в частную жизнь людей, что может существенно сместить принятые в обществе границы личной тайны. Анализируя массивный цифровой след, оставляемый человеком, алгоритмы в состоянии эффективно раскрывать те или иные факты личной жизни, которые люди предпочитают держать в секрете. Например, анализируя «лайки» в Facebook, современные модели машинного обучения могут строить весьма точные предположения о вашей сексуальной ориентации [3248] . В 2012 г. газета The New York Times рассказала своим читателям леденящую кровь историю о том, как отец узнал о беременности своей дочери благодаря действию алгоритмов рекламной системы Target:
3245
Представлены 36 проектов национальных стандартов в области ИИ (2021). / D-russia.ru, 18.10.2021 // https://d-russia.ru/predstavleny-36-proektov-nacionalnyh-standartov-v-oblasti-ii.html
3246
Федеральный закон «О персональных данных» от 27.07.2006 №152-ФЗ (2023) // https://www.consultant.ru/document/cons_doc_LAW_61801/
3247
* Cambridge Analytica (CA) — британская частная компания, которая использовала продвинутые технологии анализа данных, собранных в социальных сетях, чтобы оказывать влияние на результаты выборов и референдумов.
3248
Chen D., Fraiberger S. P., Moakler R., Provost F. (2017). Enhancing Transparency and Control When Drawing Data-Driven Inferences About Individuals / Big DataVol. 5, No. 3 // https://doi.org/10.1089/big.2017.0074
Разгневанный мужчина ворвался в офис Target под Миннеаполисом и потребовал немедленно поговорить с менеджером: «Моя дочь получила это по почте! — заявил он. — Она ещё только учится в старшей школе, а вы присылаете ей купоны на детскую одежду и детские кроватки? Вы пытаетесь подтолкнуть её к тому, чтобы она забеременела?»
Менеджер понятия не имел, о чём говорит этот человек. Он посмотрел в почтовую программу, где обнаружил письма, отправленные дочери мужчины, содержавшие рекламу одежды для беременных, детской мебели и фотографии улыбающихся младенцев. Менеджер извинился, а через несколько дней позвонил мужчине, чтобы принести дополнительные извинения.
Однако по телефону отец говорил несколько смущённо. «Я поговорил с дочерью, — сказал он. — Оказывается, в моём доме происходили кое-какие вещи, о которых я не был полностью осведомлён. В августе она должна родить. Приношу свои извинения» [3249] .
Вне зависимости от того, является ли эта история правдой или выдумкой, проблему раскрытия подробностей частной жизни алгоритмами вряд ли стоит недооценивать. Мир, в котором неопределённый круг людей может быть уведомлён о вашей беременности, болезни, сексуальных предпочтениях, влюблённости и так далее, вряд ли можно признать уютным. И по мере того как алгоритмы становятся всё более совершенными, точность их выводов становится всё больше, а объём информации, необходимый для достижения этих выводов, всё меньше.
3249
Duhigg C. (2012). How Companies Learn Your Secrets / The New York Times Magazine, February 16, 2012 // https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html
Кто знает, возможно в недалёком будущем под влиянием таких проблем, как незаконная обработка персональных данных или проблема цифрового тайного суда, возникнет институт «цифровых адвокатов» или «алгоритмических омбудсменов», призванных защищать интересы людей в мире, в котором математические модели всё больше и больше влияют на нашу жизнь.
Если же говорить об анализе алгоритмических рисков вообще, то нельзя не отметить, что на сегодняшний день корпорации продвинулись в этой области существенно дальше, чем общественность. Начиная с конца XX в. специалисты в области финансов, а затем и другие корпоративные эксперты активно занялись изучением проблемы так называемого модельного риска — риска возникновения убытков в результате использования недостаточно точных моделей для принятия решений. Подготовкой рекомендаций в отношении управления модельными рисками занимаются влиятельные международные организации, например Базельский комитет по банковскому надзору [3250] .
3250
Basel Committee on Banking Supervision (2011). Basel III: A global regulatory framework for more resilient banks and banking systems // https://www.bis.org/publ/bcbs189.pdf
Успехи генеративных моделей в наши дни вновь привлекли общественное внимание к проблеме ИИ-рисков и регулирования технологий искусственного интеллекта. Неудивительно, что в сложившихся обстоятельствах законодатели также во многом прислушиваются ко мнению корпоративных экспертов. Вслед за наступлением «момента ChatGPT» появление Сэма Альтмана в Конгрессе было вопросом времени. Впрочем, все мы понимаем, что Альтман нуждается в контактах с законодателями не меньше, а возможно, и больше, чем они желают общения с ним. Поэтому контакты руководителя OpenAI с конгрессменами и другими влиятельными политиками США не ограничились лишь участием в парламентских слушаниях [3251] .
3251
Kang C. (2023). How Sam Altman Stormed Washington to Set the A.I. Agenda / The New York Times, June 7, 2023 // https://www.nytimes.com/2023/06/07/technology/sam-altman-ai-regulations.html