Часто путают глобальные катастрофы, ведущие к вымиранию человечества (англ. термин «existential risks))), и любые другие колоссальные катастрофы, которые могут принести огромный ущерб, отбросить цивилизацию далеко назад и истребить…

Чтение этого раздела можно пропустить без ущерба для дальнейшего понимания текста. Основной вывод состоит в том, что невозможно вычислить объективные вероятности глобальных катастроф, поскольку это уникальные события, и…

Сокращение ядерных вооружений должно радовать борца с глобальными рисками, так как снижает вероятность глобальной катастрофы. Уменьшение суммарного числа зарядов у двух сверхдержав уменьшает размер потенциальной максимальной катастрофы (которая…

Хотя армия США определённо нацелена на полную автоматизацию и замену людей роботами, до достижения этого ещё не менее десяти лет, а скорее всего, значительно больше. Как мы уже…

Падение астероидов и комет часто рассматривается как одна из возможных причин вымирания человечества. И хотя такие столкновения вполне возможны, шансы тотального вымирания в результате них, вероятно, преувеличиваются. См….

Если люди овладеют генетическими технологиями, то это может позволить как устроить крах биосферы невероятных масштабов, так и найти ресурсы для её защиты и «ремонта». Можно представить себе сценарий,…

Сам факт быстрого развития сильных технологий создаёт особую зону риска. Технологии имеют тенденцию содействовать друг другу в развитии. Скажем, развитие компьютеров помогает рассчитывать свойства новых материалов, а новые…

Те явления, в которых возникает ничем не ограниченная положительная обратная связь, являются основными источниками глобальных рисков, то есть способны распространиться по всей Земле. Этот вопрос подробно рассмотрен мной…

Мало иметь систему тотального контроля — нужно обладать возможностью предотвратить риск. Сейчас обычно в качестве крайней меры рассматривается удар ракетно-ядерными силами по точке источника риска. Здесь наблюдается любопытное…

Мы стремимся сохранить жизнь людей и человечества только потому, что она имеет ценность. Хотя у нас не может быть точного знания о том, что именно создаёт ценность человеческой…

1.     Основной причиной человеческих ошибок является сверхуверенность. Сверхуверенность означает повышенную убеждённость в правильности своей картины миры и неспособность её существенно изменить при поступлении новой информации. Иначе говоря, сверхуверенность…

Далее я привожу известные мне оценки ведущих экспертов в этой области, которые публиковали исследования с оценками рисков человеческого вымирания (но эти оценки могут быть искажены в сторону пессимизма,…

Угроза ядерной катастрофы часто недооценивается или переоценивается. Недооценка в основном связана с рассуждениями о том, что раз катастрофы давно не было, то она маловероятна. Это неверное рассуждение, поскольку…

Уже сейчас между компаниями, разрабатывающими ИИ, идёт жёсткая конкуренция и за внимание инвесторов и за правильность идей именно их способа создания универсального ИИ. Когда некая компания создаст первый…

Как мы уже говорили, нанотехнологии позволят создавать очень эффективное оружие, которое способно истребить всех людей, даже не обладая способностью к саморепликации. Облако нанороботов может распространиться по некой местности…

Нетрудно заметить, что прямые риски столкновения с астероидом убывают по мере технологического развития. В первую очередь, они убывают за счёт более точного измерения этой самой вероятности — то…

Распространение мутагенов (огромное количество разных веществ), накопление генетических дефектов в результате прекращения генетического отбора, нарушение моделей полового отбора, более позднее рождение детей (больше поломок ДНК успевает накопиться) может…

Рассмотрим для начала гипотетические парные сценарии глобальной катастрофы, иначе говоря, разные варианты взаимоусиления основных факторов, взятых парами. При этом понятно, что в реальности они будут действовать все вместе,…