Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
Уважать законные права и интересы граждан, не подвергать опасности физическое и психическое здоровье людей, а также не посягать на честь и репутацию, не нарушать права на воспроизведение личных изображений, на неприкосновенность частной жизни и личной информации.
Основываясь на особенностях типов услуг, должны предприниматься эффективные меры для повышения прозрачности сервисов генеративного искусственного интеллекта, а также повышения уровня точности и надёжности генерируемой информации.
Однако при всей внушительности списка требований нужно отметить, что меры, предусмотренные этим документом для их обеспечения, являются весьма щадящими. В проекте
3223
??????????????????????????(?????)?????????? (2023) // http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
В окончательной редакции документ стал ещё более лояльным к разработчикам генеративных сервисов. Среди прочего в нём исчезли требование при оказании услуг следовать «добрым традициям», жёсткое требование «правдивости и точности» генерируемого контента, требование перед запуском сервиса предоставить в Отдел информации национальной сети установленную законом оценку безопасности информационных услуг, а требование «гарантировать подлинность, точность, объективность и разнообразие» обучающих данных было заменено на требование «принимать эффективные меры» в этом направлении. Кроме того, в документе появились призывы поощрять инновационное применение технологий генеративного искусственного интеллекта в различных отраслях и областях, исследовать и оптимизировать сценарии применения, создавать экосистему приложений, поддерживать независимые инновации в области генеративного ИИ, программных и аппаратных платформ, развивать международное сотрудничество, содействовать созданию инфраструктуры генеративного ИИ и так далее и тому подобное. В документе также содержится призыв к создателям сервисов разъяснять и раскрывать способы их полезного применения, направлять пользователей к научному и рациональному пониманию и использованию технологий генеративного ИИ, принимать эффективные меры для предотвращения чрезмерного использования генеративного ИИ несовершеннолетними пользователями.
Также правила содержат требования маркировки генеративного контента и наличия договора с пользователем на оказание соответствующих услуг.
В целом «Временные меры по управлению услугами генеративного искусственного интеллекта» вряд ли могут всерьёз замедлить развитие соответствующих сервисов в Китае, чего не скажешь о готовящемся законодательстве Евросоюза.
Если судить по текстам европейских законопроектов, то кажется, что их авторов заботило главным образом создание труднопроходимых барьеров для зарубежных сервисов.
Центральную роль в планируемой системе регулирования ИИ в Евросоюзе занимает документ под названием «Гармонизированные правила в отношении искусственного интеллекта (Закон об искусственном интеллекте)» [Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)], который был впервые представлен общественности в 2021 г. [3224] Подготовка к созданию документа началась ещё в 2018 г., когда была создана Экспертная группа высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, HLEG), в состав которой вошли 52 известных эксперта.
3224
Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (2021) // https://data.consilium.europa.eu/doc/document/ST-8115-2021-INIT/en/pdf
Это весьма внушительный
3225
Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (2022) // https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf
3226
Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (2023) // https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html
Для того чтобы разъяснить логику законопроекта, авторы подготовили презентацию из 21 слайда (не обновлявшуюся, впрочем, с 2021 г.) [3227] .
Давайте рассмотрим наиболее важные положения законопроекта, а затем попробуем разобраться в некоторых частностях.
Первым делом «Закон об искусственном интеллекте» требует обязательной сертификации систем ИИ до вывода их на рынок. В ходе сертификации должны быть выявлены риски, связанные с использованием данной системы, а сама система должна быть отнесена к одной из четырёх групп:
3227
Sioli L. (2021). Shaping Europe's digital future. A European Strategy for Artificial Intelligence // https://www.ceps.eu/wp-content/uploads/2021/04/AI-Presentation-CEPS-Webinar-L.-Sioli-23.4.21.pdf?
1. Системы с неприемлемым уровнем риска — в качестве примеров приводятся: дистанционная биометрия в общественных местах (с исключениями, касающимися защиты от преступлений и борьбы с терроризмом); системы распознавания эмоций в правоохранительных органах, пограничной службе, образовательных учреждениях и на рабочих местах; скоринг, где оценка может привести к проблемам для людей или групп людей в том социальном контексте, где данные изначально не собирались, или может привести к проблемам, несоразмерным совершённым поступкам. Эксплуатация систем такого рода категорически запрещена.
2. Высокорисковые системы («системы искусственного интеллекта, которые представляют значительный риск для здоровья, безопасности или основных прав людей») — например, системы, используемые в медицине или при найме сотрудников. Эксплуатация таких систем возможна, но только в строгом соответствии с установленными требованиями и после прохождения процедуры оценки соответствия системы этим требованиям.
3. Некоторые системы ИИ с особыми требованиями по обеспечению прозрачности (боты) — их эксплуатация разрешена при соблюдении требований по информированию и прозрачности.
4. Системы с минимальным уровнем риска или его отсутствием — их эксплуатация разрешается без ограничений.
В зависимости от группы, к которой будет отнесена та или иная система ИИ, к ней, её создателям и пользователям могут применяться разные требования. Например, разработчики высокорисковой системы должны:
• создать и внедрить систему менеджмента качества в своей организации;
• составить и поддерживать в актуальном состоянии техническую документацию по системе;