Можно рассматривать системный кризис всего современного общества без учёта тех новых возможностей и опасностей, которые создают новые технологии. Тогда этот кризис будет описываться в терминах экономического, политического или…

Окончательный крах технологической цивилизации, скажем, необратимый возврат к родоплеменному строю, означает вымирание с отсрочкой в несколько миллионов лет, поскольку в этом случае человек становится снова одним из обычных…

Теоретически возможны следующие примеры взаимной нейтрализации опасных технологий и катастроф: Ядерная война останавливает развитие технологий вообще. Тотальный ИИ предотвращает биотерроризм. Биотерроризм делает невозможным развитие ИИ Ядерная зима предотвращает…

Следующий сценарий — глобальное радиоактивное заражение. Можно выделить два вида заражения — краткосрочное заражение, возникающее в первые часы и дни после взрыва и вызываемое короткоживущими элементами, и долгосрочное,…

«Философским зомби» называется (термин введён Д. Чалмерсом в 1996 г. в связи с дискуссиями об искусственном интеллекте) некий объект, который изображает человека, но при этом не имеет внутренних…

ИИ является абсолютным оружием, сила которого пока недооценивается государствами — насколько нам известно. (Однако довольно успешный проект Эвриско начала 80-х получил финансовую поддержку DARPA1.) Однако идея о нанотехнологиях…

Есть предположение, что можно создать озонное оружие, которое приведёт к очень эффективному каталитическому истреблению озонового слоя. Тем не менее, даже если поток солнечного ультрафиолета будет очень силён и…

Есть другое предположение о причинах возможного взрыва планет, помимо взрывов урановых реакторов в центре планет по Анисичкину, а именно, особые химические реакции в электролизованном льде. Э. М. Дробышевский…

Анализируя любое явление или изобретение в качестве возможного фактора глобального риска, нам следует уделять больше внимания тому, может ли этот фактор за конечное время воздействовать на абсолютно всех…

Для каждой сверхтехнологии можно ввести фактор опасности Y=a*b, который отражает как вероятность возникновения этой технологии (а), так и вероятность её злонамеренного применения (b). Например, ядерные технологии уже существуют…

Это утверждение опирается на следующие посылки, которые мы по отдельности обсудили в предыдущих главах. Большинство крупных технологических катастроф, начиная с катастрофы «Титаника», носили системный характер, то есть не…

Глобальными рисками третьего рода мы назовём любые события, которые замедляют или ускоряют ход, или меняют порядок развития сверхтехнологий на Земле, и в силу этого оказывают косвенное, но решающее…

Ещё одной идеей, которая даёт принципиальную надежду на выживание, является идея о том, что процессы киборгизации человека будут идти быстрее, чем процессы создания опасных вооружений. Например, если заменить…

Следующим способом непрямой оценки вероятности гибели человечества является специфическое и довольно спорное приложение теории вероятности, именуемое Doomsday argument (DA), или Доказательство Конца Света. Я сознательно опускаю огромный объём…

Весь разговор о предотвращении глобальных рисков имеет смысл, только если сохранение человечества является целью, или необходимым средством для каких-либо целей. Хотя нам это кажется само собой разумеющимся, это…

Вероятность глобальной катастрофы, связанной с ИИ, является произведением вероятностей того, что он вообще когда-либо будет создан и того, что он будет применён неким ошибочным образом. Я полагаю, что…

Наиболее опасным является вариант, при котором значительное открытие совершится совершенно внезапно в ходе обычного эксперимента, как уже неоднократно бывало в истории науки, и проявится в виде непредвиденных последствий….

Встречаются предположения, что на периферии Солнечной системы находится невидимая звезда (называемая Немезидой) или крупная планета, которая вращается по сильно эллиптической орбите и своим гравитационным возмущением регулярно приводит к…