Чтение онлайн

на главную - закладки

Жанры

Искусственный интеллект. Большие данные. Преступность
Шрифт:

Идея ревизии ИИ набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код. Но это также требует, чтобы ИИ был достаточно простым, либо чтобы аудитор хорошо разбирался в коде. В случае с более сложными алгоритмами глубокого обучения так не получится.

Другой возможный ответ – лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.

Второй момент, на который следует обратить внимание, в известной степени

носит устрашающий характер. Логика развития ИИ состоит в том, что он во все большей степени реализует принцип самодостраивания не только в программной, но и в аппаратной частях. Если пока по входу и выходу информации в нейронных сетях мы можем восстановить способы ее обработки и соответственно получить человекочитаемые правила и алгоритмы, то в ближайшее время ситуация изменится. Так, в разведывательном сообществе используются комплексы со столь глубокими нейронными сетями, что перевести их алгоритмы на человекочитаемый язык за разумное время просто невозможно. Таким образом, мы оказываемся в мире, где принятие решений будет происходить на основе критериев, которые непонятны людям, принимающим решения.

Казалось бы, в этой ситуации проще всего установить запрет на дальнейшее углубление нейронных сетей, а также на применение некоторых иных методов программирования, типа рекуррентного вероятностно-логического вывода. Однако проблема в том, что чем глубже сеть, тем она эффективнее. В высококонкурентном мире на протяжении всей истории действовал принцип, когда каждый старался заполучить наиболее эффективный инструмент. Третьей этической проблемой являются этические последствия решений, рекомендованных программами с элементами ИИ, особенно в тех случаях, когда они поддерживают решения, принимаемые не человеком, а роботом. Еще в 2012 г. ведущая международная организация по правам человека поставила перед ООН вопрос о необходимости запрещения автономных боевых систем (роботов), самостоятельно принимающих решения об использовании находящихся у них боевых средств. Несмотря на мощную поддержку со стороны правительств некоторых, в первую очередь европейских государств, решение ООН, обязательное к исполнению, по состоянию на сегодняшний день так и не принято.

Международный Комитет Красного Креста (МККК) с 2014 года постоянно призывает государства ограничить автономность систем вооружений, чтобы гарантировать, что они применяются согласно нормам международного гуманитарного права (МГП).

МККК полагает, что существует вероятность того, что все более автономные системы вооружений могут стать менее предсказуемыми, особенно в случае повышения мобильности, приспособляемости и (или) взаимодействия нескольких систем (например, действующих группой). Снижение предсказуемости результатов применения автономной системы вооружения может указывать на снижение контроля со стороны человека над функционированием данной системы вооружения, при том, что решение о применении силы принимается не человеком, а машинными операциями. Следовательно, могут возникнуть серьезные вопросы относительно соответствия данной системы вооружения нормам МГП и требованиям общественного сознания.

В апреле 2018 г. более 4 тысяч сотрудников Google подписали открытое письмо к руководству корпорации, требуя отказаться от участия в программе Пентагона по разработке ИИ боевых беспилотников. Программа Project Maven, выйти из которой потребовали сотрудники, предполагает разработку алгоритмов анализа изображений, полученных с дронов, для повышения точности их ударов. Руководство «Гугл» не продлило участие в разработке этого проекта.

Аналогичная проблема возникает и применительно к роботизированным транспортным средствам. В настоящее время семь автопроизводителей ведут работы по созданию гибридных автомобилей, где в определенных случаях может включаться робот. Google с Ford уже производят полностью автоматизированные автомобили. Toyota в 2018 г. совместно с правительством Сингапура запустила

полностью автоматизированные городские такси в городе-государстве.

Так или иначе, все роботизированные машины будут управляться ИИ той или иной степени продвинутое™. В США, например, на уровне федерального правительства и штатов отсутствует какое-либо законодательство по этим вопросам. А между тем, в некоторых штатах Google-мобили уже узаконены.

Сами производители подходят у этой проблеме по-разному. Например, Mercedes в 2016 г. опубликовал заявление, что в случае соблюдения дорожных правил долг компании защищать пассажиров, а не пешеходов. В любой ситуации, если роботизированный Mercedes решит, что он соблюдает правила, выбор будет сделан в пользу пассажиров, а не пешеходов.

Принципиально иную позицию заняла компании Google. В новом поколении Google-мобилей, которым предстоит выйти на дороги в скором времени, имеется программный видеофильтр. В случае, если видеосенсоры автомобиля распознают на дороге детей или ребенка, вне зависимости от того, нарушает он правила или нет, автомобиль в качестве приоритета первого порядка будет выбирать сохранение жизни ребенка.

В любом случае возникает юридическая коллизия. Если произошло нарушение дорожных правил, повлекшее смертельный исход, то кто в данном случае будет виноват? В случае с Mercedes понятно, что тяжба будет происходить между семьей пострадавшего и корпорацией Mercedes. Ведь Mercedes в своих правилах прописала обязательный приоритет пассажиров над пешеходами. В случае Google ситуация более запутанная. Казалось бы, Google находится в том же положении, что и Mercedes. В программе Google-мобиля записан приоритет ребенка перед пассажиром. Однако, поскольку данные правила Google записаны в условиях эксплуатации автомобиля, которые подписывает покупатель, то строго говоря, покупатель соглашается с этой нормой и соответственно принимает на себя все риски.

В мае 2018 г. в рамках VIII Петербургского международного юридического форума прошла дискуссионная сессия «Беспилотный транспорт в России: необходимое регулирование для обеспечения технологического лидерства». По ее итогам юристы пришли к выводу, что для недопущения технологического отставания России необходимо в кратчайшие сроки разработать правовое регулирование в этой сфере. При этом анализировались наиболее распространенные требования для тестирования беспилотников на дорогах общего пользования в зарубежных странах, среди которых: дополнительное страхование ответственности владельца, оснащение автомобиля «черным ящиком» или двусторонней связью с диспетчерской, видеофиксация тестирований, наличие водителя или оператора в кабине беспилотного транспортного средства, подтверждение квалификации водителя-испытателя и положительных результатов испытания автомобиля на полигоне.

Четвертая проблема, которую последнее время обозначают, – это этика обращения с самими роботами.

В этой связи интересен материал из Абсурдопедии, в котором перефразированы все четыре закона Азимова:

1. Роботехник не может причинить вред роботу или своим бездействием допустить, чтобы роботу был причинен какой-либо вред.

2. Роботехник должен совершенствовать конструкцию робота, если это не противоречит Первому закону.

3. Роботехник должен защищать себя от посягательств других людей, если это не противоречит Первому и Второму Закону.

4. Роботехник не может совершить действие, причиняющее вред роботечеству и роботехничеству, или своим бездействием допустить, чтобы сообществу был причинен вред.

Следует сказать, что первый прецедент защиты прав роботов появился в 1999 г. в США. Тогда было создано Американское общество за предотвращение жестокости по отношению к роботам (ASPCR). Задача – гарантировать права всех искусственно созданных разумных существ. По мнению ASPCR, любое разумное существо (искусственно созданное или нет) имеет права, обеспеченные его Созданием, – право на существование, независимость и стремление к знаниям. Не исключено, что подобные организации будут появляться по всему свету.

Поделиться:
Популярные книги

Идеальный мир для Лекаря 8

Сапфир Олег
8. Лекарь
Фантастика:
юмористическое фэнтези
аниме
7.00
рейтинг книги
Идеальный мир для Лекаря 8

Последняя Арена 6

Греков Сергей
6. Последняя Арена
Фантастика:
рпг
постапокалипсис
5.00
рейтинг книги
Последняя Арена 6

По воле короля

Леви Кира
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
По воле короля

Душелов. Том 4

Faded Emory
4. Внутренние демоны
Фантастика:
юмористическая фантастика
ранобэ
фэнтези
фантастика: прочее
хентай
эпическая фантастика
5.00
рейтинг книги
Душелов. Том 4

Темный Лекарь 2

Токсик Саша
2. Темный Лекарь
Фантастика:
фэнтези
аниме
5.00
рейтинг книги
Темный Лекарь 2

Эволюция мага

Лисина Александра
2. Гибрид
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Эволюция мага

(Не) моя ДНК

Рымарь Диана
6. Сапфировые истории
Любовные романы:
современные любовные романы
эро литература
5.00
рейтинг книги
(Не) моя ДНК

Протокол "Наследник"

Лисина Александра
1. Гибрид
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Протокол Наследник

Измена. Наследник для дракона

Солт Елена
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Измена. Наследник для дракона

Неудержимый. Книга II

Боярский Андрей
2. Неудержимый
Фантастика:
городское фэнтези
попаданцы
5.00
рейтинг книги
Неудержимый. Книга II

Камень. Книга 4

Минин Станислав
4. Камень
Фантастика:
боевая фантастика
7.77
рейтинг книги
Камень. Книга 4

Измена. Право на сына

Арская Арина
4. Измены
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Измена. Право на сына

Инквизитор Тьмы 4

Шмаков Алексей Семенович
4. Инквизитор Тьмы
Фантастика:
попаданцы
альтернативная история
аниме
5.00
рейтинг книги
Инквизитор Тьмы 4

Кротовский, сколько можно?

Парсиев Дмитрий
5. РОС: Изнанка Империи
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Кротовский, сколько можно?