Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
• вести журналирование операций [logging], чтобы пользователи могли контролировать работу системы;
• до ввода системы в эксплуатацию пройти оценку соответствия требованиям и, возможно, проходить повторные оценки системы (в случае значительных модификаций);
• зарегистрировать систему ИИ в базе данных Евросоюза;
• нанести маркировку CE и подписать декларацию соответствия;
• осуществлять мониторинг работы системы после вывода её на рынок;
• сотрудничать с органами надзора за рынком.
Каждое из подобных требований весьма подробно детализировано в законопроекте. Например,
Контроль соблюдения закона возлагается на национальные органы по надзору за рынком. Если орган надзора обнаруживает, что система ИИ не соответствует требованиям, изложенным в законе, он должен без промедления потребовать от оператора системы предпринять корректирующие действия и привести систему в соответствие либо вывести систему ИИ из эксплуатации в течение разумного периода, соразмерного характеру риска.
Значительная часть поправок, принятых в 2023 г., относится к вопросам регулирования разработки фундаментальных моделей. В соответствии с последней версией закона разработчики фундаментальных моделей обязаны среди прочего:
• продемонстрировать посредством соответствующего проектирования, тестирования и анализа выявление, снижение и смягчение разумно прогнозируемых рисков для здоровья, безопасности, основных прав, окружающей среды, демократии и верховенства закона; причём это должно осуществляться как до, так и на протяжении всего процесса разработки, для чего предлагается, например, привлекать независимых экспертов, а также тщательно документировать все неустранённые риски;
• обрабатывать и включать в обучающую выборку только те датасеты, в отношении которых можно применять подходящие для фундаментальных моделей методы управления данными, в частности меры по проверке пригодности источников, наличия смещений, а также меры по смягчению негативных последствий выявленных проблем;
• обеспечить достижение на протяжении всего жизненного цикла модели соответствующих уровней производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности, оцениваемых с помощью соответствующих методов, таких как оценка модели с привлечением независимых экспертов, документированный анализ и обширное тестирование в ходе концептуализации, проектирования и разработки;
• при проектировании и разработке модели использовать подходящие стандарты для снижения энергопотребления, использования ресурсов и производства отходов, а также для повышения энергоэффективности и общей эффективности системы; для всех создаваемых фундаментальных моделей должна существовать возможность измерения и регистрации потребления энергии и ресурсов, а также, если это технически возможно, другого воздействия на окружающую среду, которое может быть оказано в процессе развёртывания и эксплуатации системы на протяжении всего её жизненного цикла;
• составить обширную техническую документацию и понятные инструкции по использованию;
• создать систему управления качеством для обеспечения и документирования соблюдения закона;
• зарегистрировать модель в базе данных Евросоюза;
• в течение 10 лет после публикации или ввода в эксплуатацию модели хранить техническую документацию по ней и предоставлять её по требованию в распоряжение национальных компетентных органов и так далее.
Если же фундаментальная модель предназначена для задач генерации контента, то её создатели должны, вдобавок ко всему вышеперечисленному, проектировать, обучать (и если планируется — развивать) модель таким образом, чтобы обеспечить «адекватные гарантии против создания контента, нарушающего законодательство Евросоюза», а также публиковать подробный отчёт о наличии в обучающих данных контента, защищённого законом об авторском праве.
Помимо этого, в июне 2023 г. Еврокомиссия предложила не только ввести маркировку любого контента, произведённого системами ИИ, но и создать технологии распознавания такого контента [3228] .
3228
Chee F. Y. (2023). AI generated content should be labelled, EU Commissioner Jourova says. / Reuters, June 5, 2023 // https://www.reuters.com/technology/ai-generated-content-should-be-labelled-eu-commissioner-jourova-says-2023-06-05/
К
3229
CAHAI (2020). Feasibility Study // https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da
3230
CAHAI (2021). Possible elements of a legal framework on artificial intelligence, based on the Council of Europe’s standards on human rights, democracy and the rule of law // https://rm.coe.int/cahai-2021-09rev-elements/1680a6d90d
3231
CAI (2023). Revised zero draft [framework] convention on artificial intelligence, human rights, democracy and the rule of law // https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-public/1680aa193f
Сложно представить себе, что современные технологии ИИ смогут успешно развиваться при наличии столь тяжеловесного регуляторного обременения. Впрочем, кто знает, в какой редакции будет окончательно принят европейский Закон об искусственном интеллекте и на что будет похожа на деле практика его применения.
Коротко рассмотрим состояние дел с регулированием ИИ в других странах.
Канада, по аналогии с Евросоюзом, стала на путь ограничительного регулирования. Проект универсального «Закона об ИИ и данных» устанавливает ряд обязательств и запретов, относящихся к проектированию, разработке и использованию систем ИИ. Более значимые обязательства могут быть возложены на разработчиков высокоэффективных систем ИИ, оказывающих значительное влияние на общество. По состоянию на май 2023 г. проект прошёл второе чтение, однако, по последним сообщениям в СМИ, власти Канады заняли выжидательную позицию до принятия европейского закона [3232] .
3232
Beazley D. (2023). Canada sits on the fence about regulating AI. / CBA/ABC National, 31 May 2023 // https://nationalmagazine.ca/en-ca/articles/law/hot-topics-in-law/2023/canada-sits-on-the-fence-in-regulating-ai
Власти Индии отказались от регулирования этой отрасли путём принятия единого закона. Индия не будет регулировать ИИ, поскольку ИИ является «движущим фактором» цифровой экономики и играет важную стратегическую роль для продвижения страны вперёд. При этом «Национальная стратегия ИИ» (2018) признаёт наличие этических проблем в этой области. Так же как и во многих других странах, на разработку систем ИИ в Индии влияет законодательство о защите персональных данных. Находящийся на стадии обсуждения законопроект о регулировании этой сферы, возможно, введёт определённые ограничения при сборе данных для обучения. Также рассматривается вопрос об определении и регулировании высокорисковых систем ИИ [3233] .
3233
Bordoloi P. (2023). India Backs Off on AI Regulation. But Why? / Analytics India Magazine, April 10, 2023 // https://analyticsindiamag.com/india-backs-off-on-ai-regulation-but-why/