Охота на электроовец. Большая книга искусственного интеллекта
Шрифт:
Известный специалист в области информатики Блез Агуэра-и-Аркас, возглавляющий в Google команды, занимающиеся компьютерным зрением и другими технологиями ИИ, так прокомментировал случай Лемуана:
За последние 2 миллиона лет человеческий род претерпел «интеллектуальный взрыв», отмеченный быстро растущим черепом и всё более изощрённым использованием инструментов, развитием языка и культуры. Согласно гипотезе социального мозга, выдвинутой антропологом Робином Данбаром в конце 1980-х годов (одна из многих теорий о биологическом происхождении интеллекта), этот взрыв произошёл вовсе не из-за необходимости наличия столь развитого интеллекта для выживания во враждебной среде. В конце концов, многие другие животные успешно выживают и с маленьким мозгом. Скорее, интеллектуальный взрыв произошёл из-за конкуренции в задаче моделирования самых сложных объектов в известной нам вселенной: других людей.
Способность людей «проникнуть» в чужую голову и понять, что воспринимают, думают и чувствуют другие, является одним из
Эта способность создавать стабильную психологическую модель себя также широко понимается как ядро феномена, который мы называем «сознанием». С этой точки зрения, сознание — это не таинственный призрак в машине, а просто слово, которое мы используем, чтобы описать, каково же это — моделировать себя и других.
Когда мы моделируем других, которые, в свою очередь, моделируют нас, мы должны проводить процедуру более высокого порядка: что, по их мнению, мы думаем? Что, по их мнению, наш общий друг думает обо мне? Люди с немного большим мозгом имеют репродуктивное преимущество перед своими сверстниками, а более сложный ум сложнее моделировать. Можно видеть, что это может вести к экспоненциальному росту мозга [2428] .
Если отталкиваться от взглядов Данбара и эволюционных психологов в целом, то можно прийти к выводу, что необходимым условием для возникновения сознания у искусственных нейронных сетей является выучивание ими достаточно сложной модели «себя как другого», что возможно в ходе экспериментов в области мультиагентного обучения с подкреплением. Следовательно, у языковых моделей, учащихся предсказывать токены в гигантских текстовых корпусах, вряд ли может возникнуть сознание — ведь здесь отсутствуют и другие интеллектуальные агенты и активное взаимодействие со средой. Однако поскольку тексты, лежащие в основе обучающих выборок языковых моделей, порождены главным образом агентами, обладающими сознанием (т. е. людьми), то языковые модели могут до некоторой степени моделировать отдельные аспекты человеческого сознания. Но их возможности здесь, по всей видимости, существенно ограничены: ведь тексты в массе своей не содержат исчерпывающей информации о внутреннем состоянии агента, порождающего текст, а также о внешних обстоятельствах, при которых этот текст был порождён.
2428
By Invitation (2022). Artificial neural networks are making strides towards consciousness, according to Blaise Aguera y Arcas. / The Economist, June 11th 2022 // https://www.economist.com/by-invitation/2022/09/02/artificial-neural-networks-are-making-strides-towards-consciousness-according-to-blaise-aguera-y-arcas
Тем не менее уже сейчас делаются первые попытки организации вычислительных экспериментов, в которых в ходе обучения искусственные нейронные сети учатся создавать модели подобных им агентов. В июне 2023 г. в журнале Cell была опубликована статья [2429] исследователей из Института автоматизации Китайской академии наук под названием «Импульсная нейронная сеть с моделью психического состояния, вдохновлённой устройством мозга, достигает лучших результатов в мультиагентном сотрудничестве и конкуренции» [A brain-inspired theory of mind spiking neural network improves multi-agent cooperation and competition]. Существующие методы мультиагентного обучения с подкреплением (Multi-Agent Reinforcement Learning, MARL) в основном полагаются при выборе поведения на наблюдения агентов, но им не хватает механизма, аналогичного модели психического состояния [Theory of Mind] у людей, что отрицательно влияет на эффективность обучения. Авторы работы предлагают нейросетевую архитектуру MAToM-DM (Multi-Agent Theory of Mind Decision Making, Принятие решений на основе мультиагентной модели психического состояния), призванную решить эту проблему. Её две подсети должны предсказывать поведение других агентов на основе собственного опыта и наблюдений за другими агентами. Каждый агент может корректировать своё поведение в соответствии с прогнозируемыми действиями других. Авторы работы используют несколько очень простых модельных задач, таких, например, как «охота на оленя», в ходе которой управляемые нейросетями «охотники» охотятся на «оленя» в двумерном игровом мире размером 5 x 5 клеток. Несмотря на обнадёживающие результаты, для создания искусственного сознания, приспособленного к решению задач реального мира, предстоит проделать ещё весьма длинный путь.
2429
Zhao Z., Zhao F., Zhao Y., Zeng Y., Sun Y. (2023). A brain-inspired theory of mind spiking neural network improves multi-agent cooperation and competition. / Cell, June 23, 2023 // https://doi.org/10.1016/j.patter.2023.100775
Впрочем, как часто бывает в науке, всё очень сильно зависит от того, какое именно определение мы вкладываем в используемое понятие — в данном случае в понятия «сознание» и «самосознание». Например, некоторые эксперименты показывают
2430
Kohda M., Hotta T., Takeyama T., Awata S., Tanaka H., Asai J.-Y., Jordan A. L. (2019). If a fish can pass the mark test, what are the implications for consciousness and self-awareness testing in animals? / PNAS Biology, February 7, 2019 // https://doi.org/10.1371/journal.pbio.3000021
В августе 2023 г. группа учёных во главе с философами-когнитивистами Патриком Батлином из Института будущего человечества Оксфордского университета (Future of Humanity Institute, University of Oxford) и Робертом Лонгом из Центра безопасности искусственного интеллекта (Center for AI Safety) в Сан-Франциско опубликовали 80-страничное исследование под названием «Сознание в искусственном интеллекте: представления науки о сознании» [Consciousness in Artificial Intelligence: Insights from the Science of Consciousness] [2431] , в котором рассмотрели вопрос о возможности наличия сознания у ИИ-систем с точки зрения шести современных нейробиологических теорий. На их основе учёные составили перечень из четырнадцати свойств-индикаторов — сформулированных в вычислительных терминах необходимых (но не достаточных) признаков систем, позволяющих судить о наличии или отсутствии у них сознания. Вот их список:
2431
Butlin P., Long R., Elmoznino E., Bengio Y., Birch J., Constant A., Deane G., Fleming S. M., Frith C., Ji X., Kanai R., Klein C., Lindsay G., Michel M., Mudrik L., Peters M. A. K., Schwitzgebel E., Simon J., VanRullen R. (2023). Consciousness in Artificial Intelligence: Insights from the Science of Consciousness // https://arxiv.org/abs/2308.08708
1. Свойства-индикаторы, основанные на положениях теории рекуррентной обработки (Recurrent processing theory, RPT):
• RPT-1: наличие входных модулей, использующих алгоритмически реализованные обратные связи [Input modules using algorithmic recurrence].
Пояснение. Теория рекуррентной обработки утверждает, что для появления сознания требуется, чтобы поступающие сигналы передавались обратно (из более высоких областей обработки в более низкие). Например, при зрительном восприятии для категоризации объектов достаточно обычной обработки поступающих сигналов, но для группировки и привязки объектов, для разделения фигуры и фона уже требуется повторяющаяся обработка. Это похоже на петли обратной связи в мозге, которые позволяют отдельным нейронам многократно обрабатывать информацию. Именно подобная повторяющаяся обработка и создаёт представление визуальных сцен, которые мы наблюдаем в сознании.
Авторы полагают, что для реализации сознания достаточно алгоритмической реализации обратных связей, физическое их наличие необязательно.
• RPT-2: наличие входных модулей, генерирующих организованные, интегрированные представления восприятия [Input modules generating organised, integrated perceptual representations].
Пояснение. Предполагается, что если алгоритмически реализованные обратные связи используются для создания организованного последовательного сюжета со способностью различать фигуры на фоне и с представлением пространственных отношений объектов, то этого будет достаточно для возникновения сознания.
2. Свойства-индикаторы, основанные на положениях теории глобального рабочего пространства (Global workspace theory, GWT):
• GWT-1: наличие нескольких специализированных систем, способных работать параллельно (модулей) [Multiple specialised systems capable of operating in parallel (modules)].
• GWT-2: наличие «рабочего пространства» с ограниченной ёмкостью, что приводит к появлению узкого места в информационном потоке и механизма избирательного внимания [Limited capacity workspace, entailing a bottleneck in information flow and a selective attention mechanism].
• GWT-3: наличие широковещательной передачи: информация в рабочей области должна быть доступна для всех модулей [Global broadcast: availability of information in the workspace to all modules].
• GWT-4: наличие внимания, зависящего от состояния, что даёт возможность использовать рабочее пространство для последовательных запросов модулей при выполнении сложных задач [State-dependent attention, giving rise to the capacity to use the workspace to query modules in succession to perform complex tasks].