Какие малые действия можно сделать, что изменить ситуацию с глобальными катастрофами

Данила Медведев предложил мне составить список реальных проектов, которые могут уменьшить вероятность глобальной катастрофы, но при этом не связаны с распространением информации в духе пропаганды. Каждый такой проект может иметь и обратную сторону (opportunity cost) в виде новых рисков, напрасно потраченных денег, которые можно было бы потратить более эффективно, морального ущерба в виде ложного чувства безопасности, ущерба главным ценностям цивилизации и возможного конфликта вокруг попыток реализации такого проекта, что приведёт к терроризму или другим формам борьбы против этого проекта. Плюс репутационные риски — некоторые из этих проектов или выглядят бессмысленными, или нереализуемыми, или фашистскими/евгеническими, и реклама таких проектов может привести к негативному отношению к другим проектам, которые лишены этих недостатков, но продвигаются теми же людьми или с теми же целями.

Одна из основных проблем таких предложений — что нет субъекта (единого мирового органа власти), который мог бы их реализовать. Хочу подчеркнуть, что когда я говорю о едином человечестве, я имею в виду всемирное демократическое правительство, избираемое людьми, опирающееся на открытое общество и контролируемое независимой журналистикой и т. д. Опыт показывает, что демократии менее склонны к рискованным и вообще ошибочным решениям, чем авторитарные правители. Открытый обмен информацией позволяет усиливать слабые сигналы. Демократии обладают и более высоким интеллектуальным потенциалом, так как распределённым образом используют интеллектуальные ресурсы многих людей. Демократии менее склонны к войнам, во всяком случае глобальным. При этом уровень коррупции в демократиях ниже, чем при диктатурах, а значит, законы об ограничениях опасных технологий будут в них работать чётче. (И уже работают — в области производства наркотиков (запрет), запуска самодельных ракет -лицензирование и т. д.)

Есть несколько мирных способов объединения государств — сетевые объединения, транснациональные корпорации, глобальная экономика, система международных соглашений и организаций, интеграция по типу европейской и объединение перед общим врагом как это было после терактов 11 сентября. Наиболее крупные державы и страны изгои будут в наибольшей мере противится любым формам интеграции. Немирными формами интеграции является экспорт революций (то есть смена правительств тайными методами) и прямой завоевание. Завоевание остаётся худшим решением.

Помимо цены вопроса, мы можем для каждого случая оценить вероятность того, что этот проект будет реализован.

Виды спасающих воздействий: накопление информации, создание модели, информационное влияние на общество, превентивное воздействие на точки распространения (лицензирование, охота на потенциальных террористов), средства ограничения силы воздействия после выхода из точки распространения (биозащита), разные варианты плана Б (бункеры, Луна) и плана С (маловероятные проекты последнего шанса на спасение, вроде ДНК на Луне).

Здесь я упорядочил проекты по возрастанию их стоимости.

Написать книгу «Гид по восстановлению цивилизации», в которой описать все необходимые знания по охоте, промышленности, добычи полезных ископаемых, и все предупреждения о рисках. Оттестировать разные разделы на добровольцах. Запечатлеть книгу в камне/металле/другом прочном носителе во многих копиях по всему миру. Добавить в книгу букварь, чтобы ее можно было расшифровать, когда язык изменится. Закопать клады с инструментами/книгами/семенами в разных местах мира. Стоимость: 1-100 млн. долларов. Полезность (то есть уменьшение вероятности глобальной катастрофы по сравнению с базовым сценарием, в котором вероятность принимается равной 50% в XXI веке, предварительная интуитивная оценка): 0,1 %. Риски: может быть напрасной тратой денег.

Собрать денег на работу Института Сингулярности в Калифорнии в области создания дружественного ИИ. Им нужно 3 млн. долларов. Это проект имеет максимальное соотношение затраты-отдача. То есть он реально может, по моей интуитивной оценке, увеличить шансы выживания человечества на примерно 1 процент. (Это определяется произведением оценок вероятности событий — возможность ИИ, то, что SIAI решит эту проблему, то, что он решит ее первым, и то, что он решит проблему дружественности, и того, что этих денег им хватит.) Риски: непредсказуемость последствий.

Крионировать во льду Антарктиды (температура -57 С, кроме того можно создать устойчивую область с более низкой температурой закачав жидкий азот и охладив ее) несколько человек, с тем что если на Земле возникнет иная развитая цивилизация, то можно было бы их воскресить. Несколько миллионов долларов расходы. Реализовать другие проекты по сохранению человеческих знаний в духе предложенных фондом LongNow титановых дисков в записью информации. Риски: противодействие религиозных организаций, репутационные риски. Некоторые люди вероятно, и так уже захоронены в Антарктике — Скотт?

Создать систему космического наблюдения в инфракрасном диапазоне за кометами и астероидами и таким образом окончательно ответить на вопрос о том, угрожают ли какие-либо тёмные кометы и прочие необычные тела Земле как источники глобального риска (то есть объекты более 1 км в диаметре), если нет, то вычеркнуть задачу отклонения астероидов из класса задач по борьбе с глобальными рисками и перевести её в область борьбы с региональными рисками — отслеживание объектов в несколько сот метров и меньше. Уже выведен на орбиту инфракрасный телескоп Wise.

Отправить ДНК человека на Луну в время устойчивой капсуле. Несколько десятков миллионов долларов. Так же можно отправить мозг человека крионированный. Идея здесь в том, что если человечество погибнет, то когда-нибудь прилетят инопланетяне и воскресят человека по этим данным. Расходы — 20-50 млн. долларов, вероятность успеха 0.001%. Рассылать ДНК человека по космосу иными способами. Риски: бессмысленная трата денег и общественного внимания. Какое-то количество человеческой ДНК и даже клеток могло остаться в спускаемых модулях Аполлона или на некоторых спутниках, однако из-за перепадов температур они обречены на деградацию. Акой проект можно было бы осуществить почти бесплатно параллельно со следующим посещением Луны автоматическим аппаратом.

Ускоренная разработка универсальных вакцин. Создание всемирных запасов мощных средств обеззараживания на случай глобальной эпидемии, создание запасов антвирусных препаратов и вакцин от большинства известных опасных вирусов, которых бы хватило на большую часть человечества. Создание средств вирусного мониторинга и мгновенной диагностики (тест-полоски). Создание и производство в количестве миллиардов штук продвинутых обеззараживающих средств вроде персональных УФ-ламп, нанотехнологических повязок на лицо, перчаток и т. д. Миллиарды или сотни миллиардов долларов в год. Создание личных запасов еды и воды у каждого дома на месяц. Разработка средств снабжения, исключающих контакт людей друг с другом. Переход к медленному глобальному транспорту (корабли) на случай пандемии. Обучение медперсонала и создание запасных койко-мест в больницах. Создание и тестирование на реальных проблемах огромных заводов, которые за несколько недель могут разработать и произвести миллиарды доз вакцин. Совершенствование законодательства в области карантина. Прирост вероятности выживания 2-3 процента. Риски: рост числа биолабораторий приведёт к росту потенциальных биотеррористов.

Создание автономных бункеров с запасом еды на несколько десятков лет и с постоянными «экипажами», способными восстановить человечество. Порядка 1-10 млрд. долларов. Сохранение тех видов ресурсов, которые человечество могло бы использовать на пост-апокалиптической стадии  для  восстановления.  Риски:  ложное  чувство  спокойствия.

Преимущество в бункерах одной из сторон может дать основу для первого удара в случае глобальной войны.

Создание научного суда по адронному коллайдеру и другим потенциально опасным проектам, в котором физикам-теоретикам будут выплачиваться значительные суммы денег за открытие потенциальных уязвимостей. Риски: может привести к задержке прорывных исследований, которые могут открыть новые источники энергии.

Адаптация МКС к функции бункера на случай катастрофы на Земле — создание на МКС серии дополнительных модулей, могущих поддержать существование экипажа в течение 10 лет. Расходы — десятки миллиардов долларов. Риски: неэффективная трата денег.

Создание автономной самоподдерживающейся базы на Луне. При нынешнем уровне технологий — около 1 триллиона долларов или более. Правильная стратегия развития космоса удешевит ее — то есть инвестиции в новые типы двигателей и дешёвые средства доставки. Прирост выживания на 1 процент. (Но есть и свои новые риски: космическая война).

Тоже самое на Марсе. Несколько триллионов. Прирост выживания на 1-2 процента.

Создание межзвёздного ядерного корабля-ковчега — десятки триллионов долларов. Прирост выживания на 1-2 процента. Риски: создание большого количества ядерных бомб

(Далее следуют пункты, для решения которых недостаточно одних денег, но нужна политическая воля.) Уничтожение стран-изгоев и создание всемирного государства. 10 процентов прироста выживаемости. Однако высокие риски в процессе: мировая война, утрата разнообразия, всемирный тоталитаризм.

Создание всемирного центра быстрого реагирования на глобальные риски. Нечто вроде спецназа или МЧС, который можно бросить на глобальные риски. Наделение его правом мгновенного принятия решения, в том числе и о военных действиях, а также разведкой. Наделение его правом вето на опасные эксперименты. Укрепление систем гражданской обороны на местах. Риски: ошибочная реакция, диктатура.

Запрет на частную науку (в смысле в гараже) и создание нескольких сертифицированных центров науки (наукоградов с централизованным контролем безопасности в процессе) с высоким уровнем финансирования прорывных исследований. В области биотехнологий, ядерных технологий, ИИ и нано. Это поможет избежать распространения знаний массового поражения, но при этом не приведёт к остановке прогресса. Это только после упразднения национальных государств. Несколько процентов прироста выживаемости. Эти наукограды могут свободно обмениваться технической информацией между собой, но не имеют права выпускать ее во внешний мир. Риски: не отменит рост военной государственной науки; приведёт к развитию нелегальных подпольных сетей с обилием преступных элементов.

Законодательно обязательное дублирование всех жизненноважных ресурсов и видов деятельности — что сделает невозможным коллапс цивилизации по принципу домино при сбое в одной точке. Запрет на сверхсложные системы общественной организации, поведение которых непредсказуемо и тоже склонно к эффекту домино, и замену их на линейные повторяющиеся системы производства — то есть противостояние экономической глобализации. Риски: снижение экономического роста.

Сертификация и лицензирование исследователей био, нано, ИИ и ядерных технологий. Законодательное требование проверять любые свои и чужие изобретения на предмет глобальных рисков, с ними связанных, и обязательство разрабатывать одновременно средства защиты на случай выхода их изобретений из-под контроля.

Закон о повышении уровня интеллекта население -оплодотворение половины населения от нескольких сот лучших отцов по уровню интеллекта и здравомыслия и неприязни к рискам. (Вторая половина размножается обычным образом для сохранения генетического разнообразия; проект реализуется без насилия за счёт денежных выплат. Это уже происходит сейчас, многие женщины выбирают искусственное оплодотворение от высококачественных отцов.) Плюс реформа образования, где школа заменяется на систему тренингов, в которых уделена важная роль здравомыслию и знанию логики. Риски: восстание биоконсерваторов. Кроме того, рост интеллекта увеличит число потенциальных террористов.

Ограничение капиталистической конкуренции как мотора экономики, так как она приводит к недооценке рисков в долгосрочном плане. Риски: снижение экономического роста.

Опережающие инвестиции в прорывные области вроде нанотехнологий в лучших и в наиболее ответственных центрах, чтобы быстрее проскочить опасный период. Риски: слишком быстрое создание прорывных технологий, когда общество ещё не адоптировалось к ним.

Рост систем информационного контроля и тотального видеонаблюдения, плюс сертификации данных в них и распознавания образов. Контроль в Интернете и личная авторизация при входе в сеть. Непрерывное наблюдение за всеми людьми, обладающими потенциально опасными знаниями. Риски: всемирный тоталитаризм и борьба с ним террористов.

Сюда можно добавить создание всемирного мозгового танка из лучших специалистов по глобальным рискам и постановка перед ними задачи по выработке позитивных сценариев. При этом нужно понять, какой способ объединение таких специалистов был бы наиболее эффективнее, чтобы А) они не перегрызлись из-за разных идей и чувства собственной крутизны. Б) Чтобы это не превратилось в «пилилку» денег для своих. В) Чтобы они за это получали деньги, которые позволили бы им полностью сконцентрироваться на этой проблематике. То есть это нечто вроде реферируемого журнала, вики, научного суда или рынка предсказаний. Но способ объединения не должен быть слишком экзотичным, так как экзотичные способы надо отрабатывать на менее важных предметах.

Объявить денежные премии за новые сценарии уязвимостей, так и за новые сценарии их предотвращения. При этом, возможно, публиковать открыто только сценарии предотвращения.

Создать режим секретности, не мешающий обмену знаниями между специалистами по глобальным рискам. Например, некоторая база данных закрыта для анонимного доступа, но любой, заявивший о себе как исследователь о глобальных рисках, может получить к ней доступ. При этом он соглашается на то, что его персона будет находится под большим контролем. Это открывает обмен информацией специалистам и «интеллекту толпы», но ограничивает доступ к потенциально опасным знаниям анонимных террористов.

Однако создание точной и убедительной для всех модели глобальных рисков снизило бы по крайней мере вдвое вероятность глобальной катастрофы. И мы всё ещё находимся на стадии создания такой модели. Поэтому способы создания модели и способы ее аутентификации являются сейчас самым важным, хотя, возможно, время уже упущено. После того, как такая модель будет создана, необходимо максимально широко распространить, разрекламировать её, или даже заставить учёных и политиков сдавать зачёт по ней как по технике безопасности. Создание политической партии, требующей законов об обеспечении неуничтожимости цивилизации и победа ее во всех государствах мира. Рост образованности в области глобальных рисков через обучение, лекции, книги. Государственная пропаганда на уровне «промывки мозгов» о важности недопущения рисков эффективность сомнительна, так как всегда найдутся те, кто будут действовать вопреки. Кроме того, это будет отрицательная скрытая команда в духе НЛП — ведь сначала надо представить себя реализующим риск, чтобы потом запретить себе это делать. Возможны более хитрые подходы: отказ от голливудского кино, пропагандирующего «конец света» и подсознательно программирующего на него людей. Объединение человечества ради преодоления некой внешней общей угрозы (НЛО, болезнь, нехватка ресурсов).

Подчеркну, что основные проблемы глобальных рисков относятся к сфере знаний, а не к сфере действий. То есть основная проблема, что мы не знаем, где нам подстелить «соломочку», а не в том, что у нас нет «соломочки». Риски создаются знаниями и устраняются знаниями.

Реализация этих мер технически возможна и могла бы снизить вероятность глобальных катастроф в XXI веке, по моей оценке, в 10 раз. Вместе с тем вряд ли мы можем ожидать, что все эти меры будут реализованы. Некоторые из них более реалистичны, некоторые менее. Я полагаю, что лишь десятая доля этих мер будет реализована, и то под воздействием обстоятельств, а не общественного движения.

Понравилась статья? Поделиться с друзьями: