Глобальными рисками третьего рода мы назовём любые события, которые замедляют или ускоряют ход, или меняют порядок развития сверхтехнологий на Земле, и в силу этого оказывают косвенное, но решающее влияние на возможные сценарии глобальных катастроф.
Можно обнаружить следующие взаимосвязи между катастрофами и событиями разных масштабов и их влиянием на развитие и очерёдность возникновения технологий.
Любая крупная авария или катастрофа может замедлить развитие технологий. Например, экономический кризис, то есть экономическая катастрофа, приведёт к остановке работ на ускорителях, что уменьшит шансы на создание «чёрной дыры», поскольку ускорители — это крайне дорогие многомиллиардные проекты. Так и произошло с российскими ускорителями после распада СССР. Уменьшится выделение денег на био- и ИИ исследования, но их это затронет в меньшей степени, поскольку они могут финансироваться частным образом и гораздо дешевле.
Колоссальная, но не окончательная катастрофа остановит почти все исследования, даже если некоторое количество людей выживет.
Любая авария средней тяжести приведёт к увеличению мер безопасности и сокращению проектов в своей области. Например, Чернобыльская авария привела как к росту мер безопасности на реакторах, так и к повсеместному отказу от строительства новых реакторов.
Военный конфликт приведёт к гонке вооружений и росту числа исследований. Направления перспективных исследований будут выбираться с учётом мнения неких ключевых специалистов. Например, в РФ сейчас стартовала программа в области нанотехнологий. Этого не произошло, если бы те, кто принимают решения и их советники, никогда не слышали про нанотехнологии. Ядерная программа США не началась бы, если б не известное письмо Эйнштейна президенту Ф. Рузвельту. С другой стороны, универсальный ИИ как абсолютное оружие сейчас обойдён вниманием властей (насколько это известно). Однако, вечно это продолжаться не будет. Как только власти поймут, что частные лаборатории, создающие сильный ИИ, возможно, обладают силами для глобального мятежа — они приберут их к рукам. Соответственно, прослышав, что в одной стране власти сделали ставку на мощный ИИ, и другие страны могут так поступить; отдельные организации и крупные фирмы могут также начать разработку своих проектов. Однако разрушение информационной связности может отбросить всю науку об ИИ назад.
5. Само изобретение даже не очень сильного ИИ позволит резко ускорить прогресс в других областях. Кроме того, любые принципиальные открытия могут изменить баланс сил.
Итак, некие события могут или сильно снизить уровень исследований в мире, в силу чего, например, более дешёвые проекты получат преимущество перед дорогими, или резко ускорить исследования. Наоборот, разрушение информационной связности затормозит дешёвые проекты, опирающиеся на доступную информацию из Интернета, и не остановит дорогие проекты, например, создание кобальтовой супербомбы.