Гуманитарное знание и вызовы времени
Шрифт:
Искусственная личность – имитация естественной личности. Такая когнитивно-компьютерная система обеспечивает полную либо частичную имитацию человеческой личности. Компьютерная имитация функционально, поведенчески и в некоторых вариантах не только физически, но даже нанотехнологически неотличима от человеческой личности. У наблюдателя, атрибутирующего x-системе персонологические параметры, отсутствуют какие-либо эссенциалистские предубеждения. Он не знает, да ему и не интересно предполагать природу системы, с которой он имеет дело: с естественной личностью, компьютером, Солярисом или марсианином. Показателем «неотличимости» естественной и искусственной личностей выступает способность системы пройти комплексный тест Тьюринга (Алексеев А. Ю.) [231] или, по крайней мере, полный тест Тьюринга (тест Харнада), который будет рассмотрен ниже. В этих тьюринговых тестах, помимо вербально-коммуникативной, перцептивно-моторной, анатомо-физиологической и даже микрофизической неотличимости искусственной и естественной систем, всесторонне учитываются поддающиеся внешнему наблюдению показатели духовной сферы личности: «смысл», «свобода», «любовь», «ответственность», «право», «творчество», «красота»
231
Алексеев А. Ю. Комплексный тест Тьюринга (философско-методологические и социокультурные аспекты). – М.: ИИнтеЛЛ, 2013. – 300 c.
Дефиниции искусственной личности как имитации естественной личности придерживаются азомбисты. Они напрочь игнорируют онтологическую проблематику реализации «сознания». Не важно, обладает или не обладает персонологическими феноменами компьютерная система фактически, в действительности. Главное, чтобы была создана правдоподобная имитация человека, т. е. такая компьютерная система, которая способна пройти комплексный тест Тьюринга.
Искусственная личность – модель естественной личности. В рамках этого когнитивно-модульного подхода компьютерная система должна включать в свой состав блок «псевдосознания». Это – компьютерная модель, которую исследователи считают функциональным подобием (аналогом) человеческого сознания, самосознания и пр. (Дж. Маккарти). Такого подхода придерживаются нейтральные зомбисты. Главное для них – руководствоваться психологическими, логическими, лингвистическими и др. моделями для решения инженерной задачи: построения систем, способствующих интеллектуальной деятельности человека. Блок «псевдосознания» предназначен для эффективного манипулирования «данными» и «знаниями» интеллектуальной системы, по аналогии с тем, как, например, осознание боли у человека является механизмом организации эффективной сигнализации о том, что с целостностью его что-то не в порядке. Формальные персонологические зависимости, образуемые в отношениях между когнитивными и компьютерными компонентами, задаются посредством вычислительных элементов, операций и функций. Каузальные зависимости этих отношений принципиально представимы в способах функционирования комплексной машины Корсакова – Тьюринга [232] . Компьютинг понимается расширенно. Объединяются два подхода: репрезентативный, моделирующий данные и знания предметной области, и коннекционистский, моделирующий динамику нейтральной системы. Полученные при этом интегральные репрезентативно-коннекционистские кодовые структуры (этот способ иногда называется «двойным кодированием») операционализируются средствами квазиалгоритмической обработки. В результате многошаговой редукции получаем дефиницию искусственной личности: личностное (персональное) суть квазиалгоритмическое вычисление.
232
По поводу комплексной машины Корсакова – Тьюринга см.: Алексеев А. Ю. Комплексная, коннекционистско-репрезентативная интерпретация машины Корсакова // Материалы Шестой международной научно-практической конференции «Актуальные проблемы современной когнитивной науки». – Иваново: ОАО «Издательство Иваново», 2013. – 330 с. – С. 53–64; Алексеев А. Ю. Протонейрокомпьютер Корсакова // Нейрокомпьютеры: Разработка и применение. – М., 2013. – № 7. – С. 6–17.
Степень адекватности компьютерных моделей личности, однако, сомнительна из-за многочисленных шагов редукции: персональное редуцируется к ментальному; ментальное – к интеллектуальному; интеллектуальное – к структурно-функциональной архитектуре компьютера. Следует отметить практический ориентир такого определения. Однако иногда исследователи из-за сложности модельных отношений начинают заблуждаться по поводу онтологического статуса компьютерной системы. Например, нейрокомпьютерная система представляется им фактически интеллектуальной, ведь она реализует нейрофизиологическую модель интеллектуальной деятельности, а нейрофизиологи ошибиться не могут, так как они – специалисты в данной предметной области (Л. Н. Ясницкий). Очевидно, что это совершенно некорректная позиция.
Искусственная личность – репродукция естественной личности. Согласно данному определению, компьютерная система фактически воспроизводит общие и единичные феномены сознания посредством реализации сложной функциональной зависимости нейрофизиологических кодов субъективной реальности на субстрате, инвариантном относительно физиологического строения человеческого мозга (Д. И. Дубровский). Данное определение четко поддерживается антизомбистами.
Искусственная личность – креация естественной личности. Проект искусственной личности креацирует феномены, которые не имеют натуральных персонологических аналогов у человеческого индивида (Д. Деннетт). В предельном варианте данная дефиниция подводит к понятию глобального искусственного интеллекта, т. е. компьютерной системы как «сверхличности», своеобразного варианта понятия «ноосферы».
Репродукционное и креационное определения автор кратко обозначил, так как не считает их значимыми для развития теории и практики построения искусственной личности. В философском отношении они, возможно, интересны, так как раскрывают предельные технологические перспективы. Однако к научному дискурсу имеют достаточно отдаленное отношение. Принципиально отрицательная позиция к таким подходам будет высказана в заключение данной работы. Здесь же подчеркнем то, что современные проекты искусственной личности развиваются в условиях лингвистической разобщенности, т. е. в условиях многообразия дефиниций искусственной личности. Причем, заметим, разнообразие интерпретаций возникает не только в силу различий в определении «человеческой личности» (здесь выработка
Многообразие проектов искусственной личности. По сути, история философии искусственного интеллекта – это история обсуждения возможностей компьютерной реализации персонологических параметров. Достаточно вспомнить полемический стандарт А. Тьюринга по поводу построения мыслящих машин (1950) как совокупность аргументов и контраргументов в решении «основного вопроса» философии искусственного интеллекта: «Может ли машина мыслить?» [233] В «стандарт» вошли аргументы и контраргументы, не имеющие прямого отношения к «интеллекту»: теологический, антисциентистский, креационистский, «от первого лица», «от другого сознания» и даже экстрасенсорный.
233
Серию аргументов и контраргументов, приводимую А. Тьюрингом для дискуссии по поводу мыслящих машин, мы предложили назвать Полемическим стандартом Тьюринга, так как она придала форму и отчасти содержание всем современным дискуссиям в области философии искусственного интеллекта (см.: Алексеев А. Ю. Возможности искусственного интеллекта: Можно ли пройти тесты Тьюринга // Искусственный интеллект: Междисциплинарный подход / Под ред. Д. И. Дубровского и В. А. Лекторского. – М.: ИИнтеЛЛ, 2006. – С. 223–243.
С начала 1990-х годов в широкой печати выделяются следующие крупные проекты ИЛ: 1) OSCAR Дж. Поллока, сформулированный в рамках «универсальной теории рациональности» с ее приложениями для построения искусственных рациональных агентов («артилектов») [234] ; 2) проект «человекоподобных агентов» А. Сломана, призванный реализовать широкий спектр персонологических параметров, например, «любовь», «свободу» [235] ; 3) проект гуманоидных роботов КОГ, в котором Д. Деннетт усматривает апробацию собственной теории «множественных набросков», где персональное возникает из сложного сочетания безграничной серии нарративов, а личность и социум – это субстанциональные системы бесчисленных роботов, в которых «ментальное» представляется компонентой функциональной самоорганизации [236] .
234
Серёдкина Е. В. Общая теория рациональности и артилекты в проекте OSCAR Дж. Поллока // Философско-методологические проблемы искусственного интеллекта: Материалы постоянно действующего теоретического междисциплинарного семинара / Под ред. Е. В. Серёдкиной. – Пермь: Изд-во Перм. гос. техн. ун-та, 2007. – С. 108–122.
235
Sloman A. What sorts of machines can love? Architectural requirements for human-like agents both natural and artificial. – Mode of access: http://www.sbc.org.uk/literate.htm
236
Деннетт Д. С. Виды психики: На пути к пониманию сознания / Пер. с англ. А. Веретенникова; Под общ. ред. Л. Б. Макеевой. – М.: Идея-Пресс, 2004. – 184 с.
В этих проектах предлагаются концептуальные, логико-математические, программные решения. Рассмотрим одно из них.
Типовая когнитивно-компьютерная архитектура искусственной личности. Как правило, рассматривается трехуровневая архитектура когнитивно-компьютерной системы, претендующей на проект ИЛ: 1) уровень коннекционистских образов (паттернов), осуществляющий перцептивную обработку данных; 2) уровень первичных репрезентаций, переводящий восприятия в дискретные представления и суждения; 3) уровень вторичных репрезентаций, на котором осуществляется представление представлений (моделирование других моделей представления знаний и моделирование собственной модели). Особо показателен подход А. Сломана. Он задает конкретный вопрос: «Какие машины могут любить?» – и предлагает архитектуру «любящих» компьютеров, состоящую из: 1) реактивного; 2) обдумывающего; 3) рефлективного (метауправляющего) уровней [237] .
237
Ряд технических характерстик трехуровневой архитектуры представлен в работе: Алексеев А. Ю. Трудности и проблемы проекта искусственной личности // Полигнозис. – М., 2008. – № 1. – С. 20–44.
Помимо внутренней архитектуры системы искусственной личности, немаловажным является вопрос о внешнем, физическом подобии искусственной и естественной систем. Показательными представляются два подхода: 1) Дугласа Лената, автора широко известной программы «Автоматический математик» (1976), который считает, что следует подражать психологическим, социокультурным, лингвистическим, интеллектуальным и др. особенностям личности, а физическое подобие системы – второстепенный, несущественный фактор; 2) подход Родни Брукса, ученика Д. Лената, автора вышеупомянутого робота КОГ и знаменитой версии Kismet, имитирующей мимику человеческого лица. Р. Брукс полагает, что физическая антропоморфность системы (робота) – первичное и необходимое качество его персонологического подобия, так как все социокультурные понятия, на основании которых будет функционировать робот, предопределены физическими особенностями. Например, «безногому» роботу трудно будет уловить «смысл» выражения «перевернуть с головы на ноги».
Подход Д. Лената и Р. Брукса можно обозначить, соответственно, как неантропоморфный и антропоморфный подходы к построению ИЛ.
Чтобы четче обозначить различия между этими подходами, рассмотрим иерархию тестов Тьюринга (ТТ), предложенную С. Харнадом (тест Харнада) [238] .
ТX0. Это – уровень «игрушечных» ТТ – не полноправных тестов, но лишь некоторых фрагментов, ограниченных как по длине, так и по содержанию. Такие тесты не отвечают исходному замыслу А. Тьюринга (частично они реализованы в играх на премию Лойбнера). Однако все попытки моделирования интеллекта, известные на сегодняшний день, выше данного уровня не поднялись.
238
Harnad S. Minds, machines and turing: The indistinguishability of indistinguishables // J. of logic, language, and information. – Mode of access: http://www.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad00.turing.html