Как мы уже говорили, нанотехнологии позволят создавать очень эффективное оружие, которое способно истребить всех людей, даже не обладая способностью к саморепликации. Облако нанороботов может распространиться по некой местности…
Структура глобальной катастрофы
Борьба ИИ-проектов между собой
Уже сейчас между компаниями, разрабатывающими ИИ, идёт жёсткая конкуренция и за внимание инвесторов и за правильность идей именно их способа создания универсального ИИ. Когда некая компания создаст первый…
Сокращение ядерных вооружений
Сокращение ядерных вооружений должно радовать борца с глобальными рисками, так как снижает вероятность глобальной катастрофы. Уменьшение суммарного числа зарядов у двух сверхдержав уменьшает размер потенциальной максимальной катастрофы (которая…
Проблемы вычисления вероятностей различных сценариев
Чтение этого раздела можно пропустить без ущерба для дальнейшего понимания текста. Основной вывод состоит в том, что невозможно вычислить объективные вероятности глобальных катастроф, поскольку это уникальные события, и…
Неизвестные нам сейчас причины катастроф
Можно сформулировать своего рода «Закон Мура» в отношении глобальных катастроф. Каждые N лет (примерно оцениваемое мной в 30 лет) удваивается известное нам число природных катастроф, которые могут угрожать…
Технологическая Сингулярность
Одно из глубоких наблюдений в духе идеи «кризиса кризисов» изложено в статье А. Д. Панова «Кризис планетарного цикла Универсальной истории и возможная роль программы SETI в посткризисном развитии»…
Война как сценарный фактор
Войны были всю историю человечества. Сама по себе обычная война между людьми не может привести к человеческому вымиранию, поскольку всегда остаются выжившие победители. По Клаузевицу, бывают войны двух…
Системные кризисы
Возможно ли, чтобы глобальная катастрофа произошла не по той довольно очевидной схеме, которую мы описали выше? То есть не зародившись в одной точке в конкретный момент времени и…
Как когнитивные искажения, которые могут касаться любых проблем, влияют на оценку глобальных рисков
1. Основной причиной человеческих ошибок является сверхуверенность. Сверхуверенность означает повышенную убеждённость в правильности своей картины миры и неспособность её существенно изменить при поступлении новой информации. Иначе говоря, сверхуверенность…
Бесконечность Вселенной и вопрос об окончательности человеческого вымирания
Вполне материалистическим является предположение о бесконечности Вселенной. Если это так, то можно ожидать, что в ней возникают или уже существуют все возможные миры. В том числе в ней…
Риски, связанные с размыванием границ между человеческим и нечеловеческим
Мощные процессы генетической модификации людей, протезирования частей тела, в том числе элементов мозга, соединения мозга с компьютером, переноса сознания в компьютер и т. д. создадут новый тип рисков…
Падение астероидов
Падение астероидов и комет часто рассматривается как одна из возможных причин вымирания человечества. И хотя такие столкновения вполне возможны, шансы тотального вымирания в результате них, вероятно, преувеличиваются. См….
Армии крупных боевых роботов, выходящие из-под контроля
Хотя армия США определённо нацелена на полную автоматизацию и замену людей роботами, до достижения этого ещё не менее десяти лет, а скорее всего, значительно больше. Как мы уже…
Система целей
Ключевым после решения проблем создания ИИ является вопрос системы целей ИИ, или, иначе говоря, его «дружественности», хотя бы по отношению к хозяевам. Здесь два варианта: или ИИ строго…
Ядерный терроризм как фактор глобальной катастрофы
Само по себе явление ядерного терроризма — то есть анонимный взрыв бомбы небольшой мощности — не может привести к человеческому вымиранию. Вместе с тем такое событие резко усилит…
Рассматриваемый промежуток времени: XXI век
Есть два различных класса прогнозов — о том, что именно произойдет, и о том, когда это случится. Идеальный прогноз должен отвечать на оба эти вопроса. Однако, поскольку до…
Ускорение субъективного времени с целью избежания катастрофы
Сигналы в нейронах распространяются со скоростью примерно 30 метров в секунду, в том время как сигналы в компьютерах распространяются со скоростью света, то есть в 10 миллионов раз…
Криптовойна
Важным фактором будущих глобальных рисков является появление возможности «криптовойн» — то есть внезапных анонимных ударов, когда неизвестно, кто нападающий, а иногда даже неочевиден сам факт нападения (термин С….
Сопоставление различных технологических рисков
Для каждой сверхтехнологии можно ввести фактор опасности Y=a*b, который отражает как вероятность возникновения этой технологии (а), так и вероятность её злонамеренного применения (b). Например, ядерные технологии уже существуют…
События, изменяющие вероятность глобальной катастрофы. Определение и общие соображения
Будем называть глобальным риском второго рода любое событие, которое значительно повышает вероятность вымирания человечества. Сочетание таких событий создаёт окно уязвимости. Исторически известно, что вымерло 99 % видов живых…