Футурология
Шрифт:
Однако у «Плана 2» есть и свои недостатки:
накопление углекислоты продолжится, что приведет к росту кислотности океана, гибели кораллов, образованию в океане мертвых зон и дальнейшим выбросам метана из него;
любой сбой в непрерывной работе системы поддержания температуры Земли чреват резким скачком глобальной температуры;
у «Плана 2» могут быть свои непредвидимые последствия;
само наличие «Плана 2» снижает решимость государств следовать «Плану 1» – ограничивать выбросы парниковых газов.
Однако мы полагаем, что именно «План 2» будет применен на практике,
Оценка рисков и необходимые меры
Одно из объяснений загадки молчания космоса, известное как парадокс Ферми, состоит в том, что все цивилизации, возникающие во Вселенной, с неизбежностью самоуничтожаются. С 1990-х годов за рубежом опубликовано несколько работ, в которых исследуются глобальные риски такой катастрофы, которая может привести к полному необратимому уничтожению земной цивилизации.
Мартин Рис в книге «Наш последний час. Предупреждение ученого: как террор, ошибка и природная катастрофа угрожают будущему человечества в этом веке и далее» (2003) оценил шансы вымирания человечества в XXI веке в 50%.
Джон Лесли в книге «Конец света. Наука и этика человеческого вымирания» (1996) впервые показал высокие оценки риска полного вымирания человечества и представил публике так называемый Doomsday argument Картера–Лесли, который показывает, что вероятность глобальной катастрофы в ближайшем будущем весьма велика.
Книга Ричарда Познера «Катастрофа. Риск и реакция» (2004) посвящена дотошному экономическому анализу рисков глобальной катастрофы и необходимых мер по ее предотвращению, кроме того в ней рассмотрены юридические вопросы вроде допустимости пыток террористов, угрожающих глобальной катастрофой.
Ник Бостром в статье «Угрозы существованию. Анализ сценариев вымирания» (2001) дал полный обзор глобальных рисков и предложил их определенную классификацию по силе и по моменту наступления.
Каждая из статей Э. Юдковски «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения, влияющие на оценку глобальных рисков», опубликованных в 2006 году, открыла новую область в изучении глобальных рисков.
Общий вывод, который делают все авторы, — неуправляемое развитие новых технологий может привести к глобальной катастрофе. Оценки этих рисков довольно велики.
Бостром пишет, что было бы неразумно оценивать риски вымирания человечества менее чем в 25% в ближайшие 200 лет.
Рис полагает, что шансы вымирания человечества в XXI веке равны 50%, Лесли оценивает их в 30% в ближайшие 500 лет, то есть оценки носят примерно один и тот же порядок.
Очевидно, что длительно существовать в изменчивой внутренней и внешней среде может только цивилизация, которая имеет одной из своих первоочередных целей собственное сохранение, то есть, как сказал А. А. Кононов, реализует задачу неуничтожимости цивилизации. Для реализации этой цели необходимы единое управление цивилизацией и высокий уровень
Для выживания цивилизации необходима эффективная футурология.
Линии обороны от глобальных рисков, которые может создать цивилизация
Линия обороны
Содержание
Описание
Сопутствующие риски
Рост осознания проблемы
Тщательное исследование проблемы, принятие международных соглашений в отношении известных рисков
На этой стадии мы находимся сейчас
Промедление, увязание в интеллектуальных спорах, ошибочное определение приоритетов
Создание глобального центра принятия решений по всемирным угрозам, суперООН
Установление контроля над отдельными субъектами, которые могут пользоваться результатами разработок опасных технологий, ограничение исследований в опасных направлениях и ускоренные исследования в тех областях, которые могут дать средства защиты
Нечто вроде современной системы контроля за ядерным нераспространением (МАГАТЭ)
Ошибочная команда единого центра управления может распространиться по всей Земле. Например, ошибочное решение о войне в Ираке в 2003 году было принято с целью уничтождения там оружия массового поражения
Размещение глобальных систем защиты
Биощит, нанощит и ИИщит — это нечто вроде предлагающейся сейчас всемирной системы ПРО, но для других технологий
Проблема всех систем защиты в том, что они пассивно реагируют на возникающие угрозы и поэтому отстают от них на десятилетия
Эти щиты могут создавать новые риски по типу «автоиммунных реакций» или просто в результате сбоев в работе
«Глобальный план Б»
Создание специализированных убежищ-ковчегов разных типов, в которых достаточное число людей сможет пережить катастрофу
Уже сейчас можно теоретически создать убежища от глобального радиоактивного, химического и биологического заражений, которые могли бы быть автономны в течение десятков лет
В случае ядерной войны убежища станут целями; в хорошо защищенных убежищах может продолжаться гонка вооружений, например разработка биологического оружия
«Глобальный план С»
Создание автономных космических поселений, способных защитить потомков людей почти от всех видов земных катастроф
К этому варианту призывает Стивен Хокинг, по мнению которого, если человечество хочет уцелеть в ближайшие 100 лет, оно должно интенсивнее осваивать космос
Риском освоения космоса может быть, например, овладение мощными источниками энергии и средствами доставки оружия
Примечания