Очевидно, что если удастся выяснить, что существует несколько простых, очевидных и надёжных способов противостоять глобальным катастрофам, то мы значительно улучшим свою безопасность, а ряд глобальных рисков перестанет нам угрожать. Напротив, если окажется, что во всех предлагающихся мерах и средствах защиты есть свои изъяны, которые делают их в лучшем случае неэффективными, а в худшем — просто опасными, то нам необходимо придумать нечто кардинально новое. Представляется, что система защиты — на каждой фазе развития глобального риска — должна осуществлять следующие функции:
Наблюдение.
Анализ информации и принятие решения.
Уничтожение источника угрозы.
Эта стратегия хорошо отработана в контрразведке, борьбе с терроризмом и военном деле. Другая стратегия предполагает бегство от источника угрозы (космические поселения, бункеры). Очевидно, эта вторая стратегия должна применяться в случае провала первой (или одновременно с ней, на всякий случай).
Глобальные риски различаются по степени того, насколько возможно их предотвращение. Например, вполне реально запретить некий класс опасных экспериментов на ускорителях, если научное сообщество придёт к выводу, что эти эксперименты создают определённый риск. Поскольку в мире всего несколько больших ускорителей, которые управляются достаточно открыто, и потому что сами учёные не желают катастрофы и не имеют от неё никаких выгод, то кажется очень простым отменить эксперименты. Фактически, для этого нужно только общее понимание их опасности. То есть максимально предотвратимый риск — это риск, который:
легко предвидеть,
легко достичь научного консенсуса в отношении такого предвидения,
• этого консенсуса достаточно, чтобы отказаться от действий, ведущих к данному риску.
Отказаться от действий, ведущих к некому риску (например, запретить некую опасную технологию), легко лишь при определённых условиях:
• Если опасные процессы создаются только людьми;
Если эти процессы создаются в небольшом числе широко известных мест. (Как, например, физические эксперименты на огромных ускорителях);
Если люди не ждут никакой выгоды от этих процессов;
Если опасные процессы предсказуемы как по моменту своего возникновения, так и по ходу развития;
Если опасные объекты и процессы легко распознаваемы. То есть мы легко, быстро и наверняка узнаём, что началась некая опасная ситуация, и мы правильно оцениваем степень её опасности;
• Если у нас есть достаточно времени в силу специфики процесса, чтобы разработать и принять адекватные меры.
Соответственно, риски, которые трудно предотвращать, характеризуются тем, что:
Их трудно предвидеть, даже трудно предположить об их возможности. (Даже предположить, что в SETI может быть риск, было трудно.)
Даже если кто-то осознаёт этот риск, ему крайне трудно убедить в этом кого-либо ещё (примеры: трудности с осознанием ИИ и SETI как источника риска, трудности Доказательство Конца Света).
Даже если будет достигнуто общественное согласие о том, что подобные риски действительно опасны, это не приведёт к тому, что люди добровольно откажутся от данного источника риска. (Примеры: ядерное оружие.)
Последнее связано с тем, что:
Источники риска доступны большому числу людей, а кто эти люди — неизвестно (можно поставить на учёт всех физиков ядерщиков, но не хакеров-самоучек).
Источники риска находятся в неизвестном месте и/или их легко скрыть (биолаборатории).
Риски создаются независящими от человека природными факторами, или в результате взаимовлияния человеческих действий и природных факторов.
Источник опасности сулит не только риски, но и выгоды, в частности, является оружием.
Момент начала аварийной ситуации непредсказуем, равно как и то, как она будет развиваться.
Опасную ситуацию трудно опознать в качестве таковой, это требует много времени и содержит элемент неопределённости. (Например, трудно определить, что некая новая бактерия является опасной, пока она кого-то не заразит и пока её распространение не достигнет таких масштабов, когда можно понять, что это именно эпидемия.)
Опасный процесс развивается быстрее, чем мы успеваем на него адекватно реагировать. Предотвратимость некоторых рисков, однако, не должна приводить к тому, что их следует сбрасывать со счёта, поскольку не обязательно означает, что риск в конечном счёте будет предотвращён. Например, астероидная опасность относится к числу относительно легко предотвратимых рисков, однако реальной противоастероидной (и, что важнее, противокометной) системы защиты у нас сейчас нет. И пока её нет, «предотвратимость» угрозы остаётся чисто гипотетической, поскольку мы не знаем, насколько эффективной и безопасной будет будущая защита, появится ли она вообще и если появится, то когда.