Футурология
Шрифт:
Приведенные аргументы говорят о серьезности гипотезы возможности ИИ, но окончательным доказательством может быть только его создание.
Можно предположить концептуально простой, с теоретической точки зрения, способ создать интеллект человеческого уровня — сканирование мозга человека и моделирование его на компьютере.
Хорошо известно, что в компьютере сигналы передаются в 10 миллионов раз быстрее, чем в человеческом мозге по причине того, что сигналы в аксонах распространяются крайне медленно, а в электрических проводах —
Таким образом, если реконструкция личности человека по его мозгу станет возможной, то? отсканировав мозг нескольких умных людей и соединив их в продуктивную сеть, мы можем запустить ее со скоростью, в миллионы раз превышающей обычную скорость мышления людей, и получить за 30 секунд результат, эквивалентный групповой работе за год. Ведь человечество умеет усиливать совместный интеллект групп людей, объединяя их в НИИ и т. д.
Английский физик и математик Роджер Пенроуз в книге «Новый ум короля», вышедшей в 1989 году, утверждает, что ИИ невозможен, потому что в мозгу происходят невычислимые квантовые процессы, которые необходимы для творческого мышления и сознания. Нам представляется, что данный вывод не вполне корректен по следующим причинам.
Квантовая природа сознания — это далеко не мэйнстрим науки. Но даже если это так, мы можем использовать квантовые компьютеры или живые нейроны для его моделирования.
Для того чтобы ИИ стал играть важную роль в судьбах человечества, ему не нужно обладать ни сознанием, ни способностью к творчеству. Современный ИИ может обыграть любого человека в шахматы, не используя ни сознания, ни интуиции. Другими словами, интуиция — это только полезная характеристика, сокращающая скорость перебора комбинаций, но заменяемая алгоритмами. Достаточно сказать, что опасный ИИ — это ИИ, который может обыграть человека в любой игре. Война и зарабатывание денег — это разновидности таких игр.
Если обнаружится класс задач, доступных человеку, но не доступных компьютеру, возможна ситуация прямой эксплуатации людей для решения этих задач, при этом каждый из них не будет знать, как именно будет применяться его решение.
Например, сейчас работают спамерские программы — они просят людей на своем сайте с «клубничкой» распознать контрольные цифры на рисунке, взятом с другого сайта, и таким образом получают доступ к этому сайту.
Основная причина, заставляющая людей априори исключать возможность ИИ, — это эзотерические представления о существовании души и чувство собственной важности.
Мы не отвергаем возможность того, что ИИ не будет создан, но мы полагаем, что сам факт невозможности его создания будет открытием некоторого принципиального свойства Вселенной.
Можно сказать, что ИИ — это алгоритм создания алгоритмов, а сверхинтеллект — это способность порождать обычные ИИ, то есть алгоритм в кубе.
Проблема дружественности ИИ
В 1940-е годы Айзек Азимов в рассказе «Хоровод» впервые написал о проблеме возможной враждебности (недружественности) ИИ и предложил для ее решения
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Согласно этим законам, обоснованием безопасности человека является неспособность робота причинить вред, однако само понятие «вреда» никак не определено.
Если нет четкого определения, что такое вред и что такое благо для человека, ситуации с ИИ могут быть непредсказуемыми. Например, если некий ИИ познакомить с религиозными представлениями о мире, он может прийти к выводу, что высшим счастьем для людей является рай, и умертвить человечество, чтобы все души попали на небеса.
Поскольку Азимов никак не определил, что для человека может являться благом, а что вредом, его законы робототехники, по сути, являются лишь благими пожеланиями по поводу того, что бы мы хотели от роботов, но не набором инструкций, которые могут к этому результату привести.
Кроме того, законы, пригодные для домашнего робота с пространством компетенции в несколько десятков метров и интеллектом как у слуги, непригодны для всемирного сверхчеловеческого ИИ, способного предвидеть и планировать на десятки лет вперед.
Наилучшим сценарием нам представляется интеграция людей в единый интеллект, поскольку это позволит сохранить и развить ценности максимально большого числа людей. Однако другой возможный сценарий — это создание независимой от человека компьютерной программы, обладающей интеллектом, который превосходит человеческий.
Вероятно, оба этих направления будут развиваться параллельно и интегрироваться. Однако главным вопросом в отношении сверх-интеллектуальной машины является ее система целей — как сделать, чтобы она служила человеку и не причиняла ему вреда.
Нетривиальность этого вопроса состоит в том, что невозможно предсказать поведение сверхинтеллектуальной машины, поскольку то, что нам кажется удачной системой целей и команд, может привести к чудовищным непредусмотренным последствиям. Юдковски пишет, что он рекомендует любому, кто впервые услышал об этой проблеме, подумать 72 часа до того, как предлагать ее решения.
Примером опасной системы команд может служить такой анекдот: астронавт попросил робота удалить из комнаты все круглые предметы, и тот оторвал ему голову.
Хорошая система целей для ИИ должна не требовать буквального послушания, а следовать принципу: «Делай то, что я имею в виду, а не то, что я сказал буквально».
Проблема дружественного ИИ не имеет общепризнанного решения. Многие исследователи ИИ вообще эту проблему игнорируют, считая, что займутся ею только после решения задачи моделирования мышления. Однако многие предлагаемые архитектуры ИИ менее приспособлены к следованию заранее заложенным правилам.
Диверсант. Дилогия
Фантастика:
альтернативная история
рейтинг книги
