Как когнитивные искажения, которые могут касаться любых проблем, влияют на оценку глобальных рисков

1.     Основной причиной человеческих ошибок является сверхуверенность. Сверхуверенность означает повышенную убеждённость в правильности своей картины миры и неспособность её существенно изменить при поступлении новой информации. Иначе говоря, сверхуверенность означает неспособность человека предположить, что он в настоящий момент ошибается. Поэтому в каком-то смысле сверхуверенность относится к ошибкам о природе ошибок. Сверхуверенность закреплена несколькими психологическими механизмами, и вероятно, имела эволюционное значение. Поэтому
обнаружить её в себе и искоренить очень трудно. Человек, демонстрирующий большую уверенность, может претендовать на большую власть в обществе. И, вероятно, само устройство человеческого мышления противоречит идее рассмотрения множества равновероятных вариантов будущего: гораздо привычнее думать о том, что нечто или есть, или его нет. Само слово «будущее) употребляется в единственном числе, как будто оно одно. Наконец, выбор, сделанный однажды в пользу некой интерпретации идеи, становится фильтром, который подбирает информацию так, чтобы она подтверждала эту идею.

2. Чрезмерное внимание к медленно развивающимся процессам и недооценка быстрых. Медленные процессы удобнее анализировать, и по ним накоплено больше данных. Однако системы легче адаптируются к медленным изменениям и часто гибнут от быстрых. Катастрофы опаснее угасания. При этом медленное угасание делает систему уязвимой к быстрым катастрофам. Разработка новых технологий — нано-, био-, ИИ, когнитивных наук — относится к быстрым процессам. Их стремительное развитие затмевает любые процессы, которые будут проявлять себя после 2030 года. Однако это не значит, что надо совсем отказаться от анализа медленных вековых изменений.

3.  Возрастные особенности восприятия глобальных рисков. Молодёжь склонна недооценивать глобальные риски, поскольку они в большей мере биологически нацелены на завоевание новых пространств, а не на безопасность. Более пожилые люди склонны придавать достаточно большое значение безопасности, но им труднее принять возможность принципиально новых технологий.

4.  Споры о глобальных рисках не рождают истину.

Дискуссии между людьми обычно приводят к поляризации мнений. Человек, который сначала имел две гипотезы, и приписывал им равные вероятности, редуцирует свою позицию до одной гипотезы, противоположной гипотезе оппонента. Таким образом, он сужает своё представление о возможном будущем. Подробнее см. статью Юдковски об оценке рисков [Yudkowsky 2008а].

5.  Навык ведения споров вреден.

Как я уже говорил в предисловии, Юдковски подчёркивает, что навык ведения споров вреден, так как позволяет переспорить любого оппонента, не вникая по существу в его позицию. Особенно опасно применение данного списка когнитивных искажений для того, чтобы обвинять в них оппонента. Это может привести к интеллектуальной слепоте.

6.  Желание смерти.

Фрейд высказал идею о Танатосе, стремлении к смерти, которое есть у каждого. Подобные идеи высказывались и другими учёными. Это желание может неосознанно влиять на человека, заставляя его недооценивать или переоценивать риски или стремиться к ним. Можно предположить, что любой, кто отвергает идею жить 1000 лет, испытывает определённое стремление к смерти. Это может подталкивать человека к бессознательному выбору стратегий поведения, ведущих к глобальным рискам.

7.   Консервативность мышления, связанная с естественным отбором наиболее устойчивых систем мировоззрения.

Ч. Докинз, автор книги «Эгоистичный ген)) [Докинз 2005], рассматривает каждую отдельную идею, циркулирующую в обществе, в качестве репликатора, способного к разной скорости самораспространения, и называет подобные идеи мемами (meme). Чтобы защитится от мемов, человеческое сознание вынуждено вырабатывать своеобразную «иммунную систему), одним из наиболее эффективных вариантов которой является система «отбрасывай всё новое). История полна примерами того, как очевидно полезные новые идеи отвергались без видимых причин в течение длительного периода. Например, от предложения использовать закись азота для анестезии в хирургии в конце XVIII века до начала реального применения в 1840-е годы прошло почти 50 лет, то же самое касается и правила мыть руки перед операциями. Однако в наш век перемен нужно очень гибкое и свободное мышление, чтобы учесть и принять всерьёз все варианты глобальных рисков.

8.     Обнаружение ошибок в рассуждении о возможности конкретной катастрофы не является способом укрепления безопасности.

Есть два вида рассуждений — доказательства безопасности некой системы и доказательства её опасности. Эти рассуждения неравноценны логически — в первом случае речь идёт обо всех возможных случаях, тогда как во втором — хотя бы об одном случае. Чтобы опровергнуть всеобщее утверждение, достаточно одного контрпримера. Однако опровержение одного контрпримера почти не прибавляет истинности всеобщему утверждению.

Например: для того, чтобы доказать опасность определённой модели самолёта, достаточно обратить внимание на то, что в некоторых экспериментах материал обшивки проявил склонность к эффекту «усталости металла». Однако для того, чтобы доказать безопасность этой модели, совершенно недостаточно обнаружить некорректность в проведении экспериментов по измерению усталости металла. Вместо этого необходимо доказать, что выбранный материал действительно выдержит данный режим нагрузок.

Иначе говоря, если направить все интеллектуальные усилия на опровержение различных катастрофических сценариев, не уделяя равного внимания их возможностям и ошибкам в системе безопасности, — то суммарная безопасность системы понизится. Все перечисленные правила должны применяться для поиска ошибок в рассуждениях о том, что некая катастрофа невозможна, — тогда это способствует повышению безопасности. В проектах сложных технических систем всегда есть «технические обоснования безопасности», где описывается «максимальная проектная авария» и способы её локализации. Реальным доказательством безопасности какого-либо устройства является строгое доказательство того, что с ним ничего не может случиться ни при каких обстоятельствах плюс практический опыт использования данного устройства во всех возможных режимах в течение длительного времени.

С точки зрения науки мы должны доказывать существование объекта, а с точки зрения безопасности — доказывать, что нечто не существует. Обязанность доказательства безопасности полётов лежит на конструкторах самолёта, а не на пассажирах. Поэтому, когда разработчики обращаются к сторонним экспертам с требованием типа «докажите, что данный риск реален», это наносит ущерб общей безопасности.

9. Ни одно из направлений исследований в области новых технологий не может обеспечивать свою безопасность само по себе.

Общепринятой практикой является отделение контролирующих органов от объектов контроля. Потому что каждая система стремится к самосохранению, а разговоры об опасности новых технологий могут привести к закрытию новых проектов. Например, сайт «Коммерческая биотехнология» перепечатывает в основном те статьи, которые опровергают угрозы биотерроризма, а потом сам же публикует на них опровержения. Или схожая ситуация в случае с реакторами: сторонники АЭС будут тратить свои усилия не на поиск уязвимостей в безопасности станций, а на споры с экологами и попытки доказать, что существующая конструкция безопасна.

10.    Ошибочное представление о том, что проблемы надо решать по мере их поступления.

Наиболее серьёзные проблемы, как правило, возникают внезапно. Например, несчастные случаи. Чем серьёзнее проблема, тем больше её энергия и быстрее темп её развития. И, соответственно, тем труднее к ней готовиться. Глобальные катастрофы — это мощные проблемы. Поэтому они могут развиваться слишком быстро, для того чтобы было время на подготовку к ним в процессе. Кроме того, у нас нет опыта, который позволил бы определить предвестников глобальной катастрофы.

11. Конкретные риски воспринимаются как более опасные, чем риски описанные в общих словах.

Например, "мятеж на ядерной подводной лодке" выглядит более устрашающим, чем "крупная морская катастрофа". Юдковски пишет: «С точки зрения теории вероятностей, добавление дополнительной детали к истории делает её менее вероятной… Но с точки зрения человеческой психологии добавление каждой новой детали делает историю всё более достоверной) [Yudkowsky 2008b].

12. Представления о том, что мышление о глобальных рисках — пессимистично.

Это приводит к тому, что людей, думающих о «конце света), осуждают — а значит, и отрицают их идеи. Но по минному полю надо идти осознано: танцевать на нём с закрытыми глазами — это не оптимизм.

13. «Теории заговора» как препятствие для научного анализа глобальных рисков.

Циркулирующие в обществе разнообразные «теории заговоров) (вроде новой хронологии Фоменко) набили оскомину. Тем более, что большинство из них, если не все, ложно, а предсказания их сторонников почти никогда не сбываются. Часто «теории заговоров) тоже предсказывают некие риски. Но они структурно отличаются от научного анализа рисков. Теория заговора обычно утверждает, что человечеству угрожает только один риск, и этот риск реализуется конкретным образом в конкретный момент времени: Например, «доллар рухнет осенью 2007)). Как правило, автор подобного предсказания также знает рецепт борьбы с этим риском. Тогда как правильнее допускать, что человечеству угрожает каскадная реакция из нескольких рисков, и мы не знаем, когда и что случится.

Чем меньше степень уверенности в наших прогнозах на будущее, тем оно опаснее. Главная опасность будущего — его непредсказуемость.

«Теории заговора) вредны для предсказания будущего, так как сужают представление о множестве будущих возможностей. При этом они предполагают сверхуверенность в собственных прогностических способностях. Правильно сделанный прогноз на будущее не предсказывает конкретные факты, а описывает пространство возможных сценариев. И на основании этого знания можно выделить узловые точки этого пространства и защитить их.

Более того, такие "предсказания" подрывают доверие к здравым идеям, лежащим в их основе, например, о том, что крупный теракт может ослабить доллар и вызвать цепную реакцию обвала. И что Бен Ладен, например, на это, возможно, рассчитывает. «Теории заговора) всегда подразумевают, что есть некие ОНИ, которые что-то делают с нашим сознанием, скрывают какие-то важные знания и т. д. Это подрывает осознание своей ответственности за происходящее в мире, и что не менее важно, отвергает роль случайности, как важного фактора катастрофического процесса. Кроме того, «теории заговора) неспособны стыковаться друг с другом, формируя пространство возможностей. И ни одна теория заговора не признаёт себя в качестве маргинальной теории. Эти теории распространяются в обществе как мемы, самокопирующиеся информационные единицы.

Вместе с тем из того, что сам принцип теории заговоров скомпрометирован и большинство из них ложно, не следует, что некоторые из таких теорий не могут оказаться правдой. Как говорится в китайской пословице: «Даже если вы не можете поймать чёрного кота в чёрной комнате — это ещё не значит, что его там нет).

14. Ошибки, связанные с путаницей в понятиях о краткосрочных, среднесрочных и долгосрочных прогнозах.

Краткосрочные прогнозы учитывают текущее состояние системы, к таковым относится большинство обсуждений политических тем. Среднесрочные учитывают возможности системы и текущие тенденции. Долгосрочные учитывают только развитие возможностей. Поясню это следующим примером:

Допустим, у нас есть корабль с порохом, по которому ходят матросы и курят махорку. Краткосрочно можно рассуждать так: одни матросы стоят высоко на рее, а другие спят, поэтому сегодня взрыва не будет. Но в среднесрочной перспективе важно только количество пороха и количество курящих матросов, которые определяют вероятность взрыва, потому что рано или поздно какой-нибудь курящий матрос окажется в непосредственной близости от пороха. Тогда как в дальнесрочной перспективе в счёт идёт только количество пороха, а уж огонь как-нибудь да найдётся. Точно так же и с угрозой ядерной войны. Когда мы обсуждаем её вероятность в ближайшие два месяца, для нас имеет значение конкретное поведение мировых держав. Когда мы говорим о ближайших пяти годах, в счёт идёт количество ядерных держав и ракет. Когда мы говорим о перспективе на десятки лет, учитывается только количество наработанного плутония.

При этом в разных областях знания временной масштаб краткосрочности прогноза может различаться. Например, в области угледобычи 25 лет — это краткосрочный прогноз. А в области производства микропроцессоров — 1 год.

15.   Особенности человеческой эмоции страха. Способность
человека бояться включается в ответ на конкретный стимул в конкретной
ситуации. Наша эмоция страха не предназначена для реакции на отдалённые
риски. Это выражено в русской пословице: «Пока гром не грянет, мужик не
перекрестится». С другой стороны, страх может подавлять мысли о
возможных опасностях. Например, когда человек отказывается сдавать
анализы, потому что боится, что у него что-то найдут.

В отношении глобальных катастроф и реакции на их угрозу получается замкнутый круг: для того, чтобы вероятность некой надвигающейся глобальной катастрофы стала общепризнанной — должен «грянуть гром» — то есть должно произойти какое-то событие, однозначно её определяющее, и, возможно, делающее её практически неизбежной.

Недооценка значения удалённых событий (discount rate). Естественным свойством человека является то, что он придаёт меньшее значение событиям, удалённым в пространстве и отдаленным по времени. Например, случившееся в древности наводнение, погубившее миллион человек, будет эквивалентно по значимости современной катастрофе с тысячью жертв в отдалённой стране или пожару в соседнем доме с несколькими жертвами. Это явление известно как «discount rate» — «уровень скидки»1. Эта скидка действует в отношении оценки полезности и риска будущих событий. При этом она имеет как рациональный, так и иррациональный характер. Рациональный уровень скидки — это скидка, которую делает экономический субъект, предпочитая получить, скажем, 100 долларов сегодня, а не 105 через год, — и эта скидка есть медленно убывающая функция от времени. Наоборот, эмоциональная оценка ситуации включает очень быстро падающий уровень скидки, который гиперболически убывает во времени. Это приводит к тому, что глобальная катастрофа, отстоящая на годы от настоящего момента, приобретает почти нулевой вес.

Сознательное нежелание знать неприятные факты. Этот феномен проявляется в ситуации, когда человек откладывает поход к врачу, чтобы не знать неприятный диагноз. Хотя это уменьшает его шансы выжить в отдалённом будущем, зато он выигрывает в спокойном ближайшем будущем — то есть здесь тоже проявляется уровень скидки.

Эффект смещения внимания. Чем больше внимания человек уделяет одной возможной причине глобальной катастрофы, тем меньшее значение он придаёт другим, и в результате его знания приобретают определённый сдвиг в сторону его специализации. Поэтому переоценка какого-то одного глобального риска ведёт к недооценке других и так же вредна.

Интернет как источник возможных ошибок. Интернет, как подчёркивает сэр Мартин Рис [Rees 2003], позволяет создать газету «я сегодня), путём отбора только тех сайтов, которые поддерживают исходную точку зрения субъекта, который затем укрепляет себя в выбранной позиции, постоянно читая только своих единомышленников. Не говоря о том, что уровень достоверности информации в Интернете весьма низок, поскольку значительная часть хорошей достоверной информации находится в платных изданиях (например, статьи в Nature по 30 долларов за статью), а любой человек может свободно выложить свои тексты в сети, создавая высокий информационный шум. При этом более сенсационные материалы распространяются быстрее, чем менее сенсационные. Иначе говоря, если раньше печатная продукция способствовала более быстрому распространению более качественных текстов, то теперь Интернет способствует более быстрому распространению менее качественных, но более назойливых в своей рекламе источников. С другой стороны, Интернет упрощает доступ к информации и ускоряет её поиск.

Верования. Трудно отрефлексировать свои верования, так как они воспринимаются как достоверное знание или как неподсудный императив, но легко заметить, как те или иные суеверия влияют на оценку рисков другими людьми. Например, высокая аварийность в Турции связана, в частности, с принципом «иншала)) — на всё воля Аллаха: поскольку судьбы всех людей уже записаны в книге у Аллаха, то не важно, что ты делаешь -день твоей смерти уже назначен. Поэтому можно как угодно рисковать. Сэр Мартин Рис пишет [Rees 2003], что в администрации Рейгана за окружающую среду отвечал религиозный фундаменталист Джеймс Уатт, который верил, что Апокалипсис наступит раньше, чем исчерпаются запасы нефти, погибнут леса и наступит глобальное потепление, так что расточать ресурсы — это почти что наша обязанность. Многие верования могут носить более тонкий, околонаучный или «научный) характер, например, вера в правоту или неправоту Эйнштейна, опасность или безопасность того или иного риска и т. д. Верования не подразумевают возможность фальсификации. Чтобы выявить верование полезно задаться вопросом: «Какое событие или рассуждение заставило бы меня изменить мою точку зрения на этот вопрос?)

21.   Врождённые страхи и приобретённые фобии. У многих людей есть врождённые страхи — боязнь змей, высоты, воды, болезней. Нетрудно предположить, что такие люди будут переоценивать события, напоминающие эти страхи, и недооценивать те, которые на них непохожи. На оценку рисков может влиять и посттравматический синдром, когда запоминается некий сильный испуг и начинают пугать все похожие вещи. Сильные желания, наоборот, могут подавлять страхи, в духе поговорки: «Если нельзя, но очень хочется, то можно». Например, человек с врождённой брезгливостью может переоценивать риск биологической войны и недооценивать риск падения астероида, а, человек, переживший автокатастрофу, будет преувеличивать риск падения астероида, и недооценивать биологические риски.

22.     Ошибка, возникающая в результате борьбы не с источником риска как таковым, а с сообщениями о риске. В данном случае недовольство переносится не на сам источник риска, а на человека, который о нём сообщил, в духе восточного правила: «Убить гонца, принёсшего плохую весть». Так, в попытках вынести на обсуждение те или иные риски автор неоднократно сталкивался с жёсткой критикой, направленной на его «личные недостатки», вплоть до обвинений в паранойе.

Трудность в определении границ собственного знания. Я не знаю того, чего я не знаю. Это создаёт ощущение того, что я знаю всё, потому что я знаю всё, что я знаю. То есть создаёт ложное ощущение всеведения, ведущее к интеллектуальной слепоте и нежеланию принять новые сведения. Как справедливо заметил А. Камю: «Гений — это ум, осознавший свои пределы» [Камю 1990]. Но пока мы полностью не познаем мир, мы не можем исчерпать список глобальных рисков.

Юмор как фактор возможных ошибок. Шутка даёт человеку право законно говорить неправду. Соответственно, те, кто слышит неожиданную новость, часто воспринимают её как шутку. Например, перед терактом 7 августа 1998 охранник американского посольства в Кении позвонил напарнику и сообщил, что к воротам подъехали террористы с пистолетом; тот не поверил и выключил связь; бомба взорвалась. Поскольку мы не знаем, в какой форме к нам может прийти глобальная угроза, мы можем воспринять сообщение о ней, как шутку. Можно вспомнить и шутку Рейгана о том, что ядерная атака на СССР начнётся через 5 минут, которую он сказал для проверки микрофона перед выступлением, что привело к приведению Советской армии в боевую готовность.

Паника. Гипертрофированная реакция на стресс приводит к ошибочным и опасным действиям. Например, человек может выпрыгнуть из окна при пожаре, хотя огонь ещё не дошёл до него. Очевидно, что паника оказывает влияние и на мысли человека в состоянии стресса. Например, Бэрнс Уоллес [Rees 2003], в мирное время придерживавшийся ахимсы (принцип йоги о ненасилии), во время войны разрабатывал план взрыва дамб в Германии с помощью прыгающих бомб, чтобы затопить города. То есть паника может быть достаточно длительным состоянием, существенно изменяющим модели поведения. Но и кратковременная паника опасна, поскольку угроза глобального риска может развиваться очень быстро, в течение часов и даже минут, и за это время нужно будет успеть принять стратегические решения.

26. Сонливость и другие факторы естественной неустойчивости человеческого сознания, влияющие на появление ошибок. По одной из версий, Наполеон проиграл Ватерлоо, потому что был простужен. Каким образом можно ожидать, что президент примет верное решение, будучи разбуженным среди ночи? Сюда можно добавить и принципиальную неспособность человека точно следовать инструкциям, и конечность длины инструкций, которые он может понять и выполнить. Хотя этот фактор относится в первую очередь к ошибкам операторов, можно представить, что состояние временного помутнения сознания повлияет и на выводы конструктора или составителя некой инструкции, приведя к, допустим, ошибке в чертеже.

27. Склонность людей бороться с опасностями, которые уже были в прошлом. Например, после цунами 2004 года в Индонезии, все стали строить системы предупреждений о цунами, отвлекаясь от других проектов. Но в будущем может произойти катастрофа, отличная от цунами. При этом с течением времени тревога людей убывает, а вероятность повторного сильного землетрясения (но не афтершока) — возрастает.

28.   Усталость от ожидания катастрофы. Типичная ошибка, состоящая в том, что после некой катастрофы, все начинают ожидать её повторения в ближайшем будущем, и после того, как это ожидание не оправдывается, переводят эту катастрофу в разряд «это было давно и неправда). Так было после теракта 11 сентября 2001 г. Сначала ожидались повторные атаки на небоскрёбы, и их строительство в мире затормозилось. Теперь же об этом почти забыли, и строительство небоскрёбов идёт ударными темпами. Это противоречит тому, что в реальности катастрофы такого масштаба могут происходить с периодичностью во много лет, и поэтому именно после длительного промежутка времени их вероятность реально возрастает. Усталость от ожидания катастрофы выражается и в утрате чувствительности общества к предупреждениям.

29.      Экспертные оценки, не основанные на строгих вычислениях, не могут служить мерой реальной вероятности. В отличие от ситуации на фондовых рынках, где среднестатистическая оценка лучших экспертов используется для предсказания будущего результата, мы не можем оценивать и отбирать экспертов по глобальным рискам по количеству угаданных ими катастроф. И то, что ставка в оценке глобальных рисков очень высока, — выживание человечества, — не приводит автоматически к более точным предсказаниям.

В экспериментах по предсказанию обнаружена следующая статистика: «Только 73 % ответов, на которые сделали ставки 100:1, были верны (вместо 99,1 %). Точность возросла до 81 % при ставках 1000:1 и до 87 % при 10 000:1. Для ответов, на которые ставили 1 000 000:1, точность составляла 90 %, то есть соответствующий уровень доверия должен был бы порождать ставки 9:1. В итоге, испытуемые часто ошибались даже при высочайших уровнях ставок. Более того, они были склонны делать очень высокие ставки. Более чем половина их ставок была более чем 50:1)

[Yudkowsky 2008b].

«Подобные уровни ошибок были обнаружены и у экспертов. Hynes и Vanmarke (1976) опросили семь всемирно известных геотехников на предмет высоты дамбы, которая вызовет разрушение фундамента из глинистых пород, и попросили оценить интервал 50 % уверенности вокруг этой оценки. Оказалось, что ни один из предложенных интервалов не включал в себя правильную высоту) [Yudkowsky 2008b]. Причиной этой ошибки является «сверхуверенность экспертов), — например, ситуация, когда эксперт боится потерять свой статус эксперта, если будет слишком сомневаться в своих предположениях.

30.   Игнорирование какого-либо из рисков по причине его незначительности по мнению эксперта. Даже если некая теория действительно неразумна, стоит потратить время и усилия, чтобы опровергнуть её ясным и убедительным для всех образом в открытой дискуссии. Кроме того, незначительность не означает невозможность. Незначительность риска должна быть результатом исследования, а не поводом отказаться от исследования. Кроме того, нужно правильное понимание незначительности. Например, если мы сочтём оценку 10 —8
для вероятности глобальной катастрофы незначительной (а именно так оценивает ЦЕРН риск катастрофы на новом ускорителе), то если проводить эксперименты с подобными шансами на катастрофу каждый день, то это даст 3 % вероятность вымирания в течение 100 лет или гарантированное вымирание в течение 3000 лет.

31.       Недооценка или переоценка нашей способности противостоять глобальным рискам. Если мы недооцениваем нашу способность противостоять глобальным рискам, то в силу этого мы не будем предпринимать тех действий, которые могли бы нас спасти. Если мы переоцениваем наши способности им противостоять, то это может привести нас к излишнему благодушию.

32.  Стокгольмский синдром. Речь идёт об эффекте лояльности заложников по отношению к похитителю или даже влюблённости в него. В каком-то смысле этот эффект может проявляться в так называемом «смертничестве» — философской концепции, которая одобряет смертность человека и ограниченность его срока жизни одной сотней лет. («Ты — вечности заложник. У времени в плену». — Пастернак.) То есть люди склонны оправдывать конечность человеческой жизни в качестве механизма психологической компенсации своего страха смерти. Но если смертность человека одобряется, то отсюда один шаг до одобрения смертности всего человечества.

33.  За ошибками оператора стоит неправильная подготовка. За конкретными ошибками пилотов, операторов, диспетчеров и политиков часто стоят концептуальные ошибки в их отборе и подготовке. Например, потакание авторитету (случай со знаменитым египетским пилотом рейса 604 Flash Airlines, который по определению не мог ошибаться — и разбил самолёт) и экономия на обучении специалистов. Распространение знаний о глобальных рисках можно рассматривать как часть подготовки для лиц, которые будут принимать важные решения.

34.   Группа людей может принимать худшие решения, чем каждый человек в отдельности. В зависимости от формы организации группы, она может способствовать или препятствовать выработке разумных решений. Хороший вариант группы — штаб или НИИ, плохой — любая толпа или страна, охваченная гражданской войной. До тех пор, пока в мире нет единой общепризнанной группы, принимающей решения о предотвращении глобальных рисков, ситуация с организованностью групп в данном случае ближе к плохому варианту. В некоторых случаях группа может быть эффективнее отдельного человека, и это используют так называемее «рынки предсказаний».

Нехватка внимания по причине естественных ограничений рабочей памяти мозга. Ограниченность числа свободных регистров в уме человека и модель мышления, отражающаяся в каждом предложении: субъект-объект-действие являются возможными источниками ошибок. Эта ограниченность заставляет человека концентрироваться на одних аспектах проблемы, например, нападёт ли А на Б, уменьшая при этом (погружая в тень внимания) другие аспекты. Ни один человек не может охватить своим умом все мировые проблемы так, чтобы ранжировать их по степени опасности и приоритетности. Даже целая организация вряд ли на такое способна.

Раскол футурологии на разные независимые друг от друга дисциплины.

Есть несколько направлений мышлений о будущем, и они имеют склонность странным образом не пересекаться, как будто речь идёт о разных мирах:

Прогнозы наступления «Сингулярности). Суперкомпьютеры, биотехнологии, и нанороботы.

Прогнозы системных кризисов в экономике, геополитике и войнах.

Прогнозы в духе традиционной футурологии о демографии, ресурсах, потеплении.

Особый тип прогнозов — большие катастрофы: астероиды, супервулканы, сверхвспышки на Солнце, переполюсовка магнитного поля Земли, а также религиозные сценарии и фантастические произведения.

37.    Ситуация, когда вслед за меньшей проблемой следует большая, но мы неспособны этого заметить («Беда не приходит одна»). Глобальная катастрофа может наступить в результате цепочки событий, масштаб которых нарастает по мере их возникновения, однако первое из этих событий может приглушить для нас восприятие последующих рисков.

Причинами этого могут быть:

1)   Наше внимание в момент аварии полностью отвлекается. Например, попав в маленькую аварию, водитель начинает ходить вокруг машины, оценивая ущерб, и попадает под другую машину.

2) Влияние состояния аффекта.

Человек сам совершает ещё большую ошибку в процессе исправления мелкой. Например, когда мелкий воришка стреляет в полицейского, чтобы скрыться.

Непонимание того, что первая авария создаёт неочевидную цепочку причин и следствий, которая может запуститься в самый неожиданный момент.

Первая неприятность постепенно ослабляет сопротивляемость организма к более быстрым и внезапным переменам. Например, при неправильном лечении грипп чреват воспалением лёгких.

Непонимание того, что обе аварии могут быть вызваны некой общей причиной. Например, в доме что-то обваливается, человек идёт посмотреть, что происходит, и попадает под новый обвал.

Эйфория от преодоления первой катастрофы может заставить потерять благоразумие. Например, у человека, стремившегося выйти из больницы пораньше, расходятся швы.

38.    Эффект избирательности внимания. Часто у людей, следящих за некими предсказаниями, например в экономике, возникает вопрос: «По какой причине то, что должно вот-вот рухнуть, всё не рушится и не рушится?) Вероятно, мы имеем дело со специфической ошибкой в оценке рисков. Замечая трещины в фундаменте, мы говорим себе: "Так! Оно же вот-вот рухнет", и начинаем искать другие трещины. Разумеется, мы их находим, и нам нетрудно связать их в умозрительную сеть. Но, занимаясь поискам трещин, мы перестаём смотреть на опоры. Наше внимание становится избирательным, нам хочется подтвердить свою гипотезу.

Мы попадаем в порочный круг избирательного накопления информации только об одном аспекте неустойчивости системы, игнорируя причины её неустойчивости, а также другие риски, связанные с этой системой. Завышение некоторых рисков, в конечном счёте, приводит также к их недооценке, поскольку общество приобретает иммунитет к негативным прогнозам и утрачивает доверие к экспертам. Например, перед станцией предупреждения о цунами на Гавайях перед приходом небольшой волны встала дилемма: если предупредить население о риске цунами, то в следующий раз предупреждению не поверят, а если не предупредить -возможно, что именно в этот раз цунами окажется опасным. Таиландская служба оповещения в 2004 году решила не предупреждать людей о цунами, боясь напугать туристов, что привело к большим жертвам.

39.  Подсознательное желание катастрофы. Стремление эксперта по рискам доказать правоту своих прогнозов вызывает у него неосознанное желание того, чтобы прогнозируемая катастрофа всё-таки случилась. Это подталкивает его или придать большее значение предвестникам катастрофы, или даже попустительствовать тем событиям, которые могут к ней привести. Люди также могут хотеть катастроф от скуки или в силу мазохистского механизма «негативного наслаждения».

40.    Использование сообщений о рисках для привлечения внимания к себе, выбивания денег и повышения своего социального статуса. Этот тип поведения можно определить как «синдром Скарамеллы», — в честь итальянского мошенника, выдававшего себя за эксперта по вопросам безопасности. В крайне остром случае человек выдумывает некие риски, потому что знает, что общество и масс-медиа на них резко отреагируют. Эта модель поведения опасна тем, что из общего контекста выдёргивается несколько самых зрелищных рисков, а не менее опасные, но не столь завлекательно звучащие риски умалчиваются. Кроме того, у общества возникает привыкание к сообщениям о рисках, как в притче о мальчике, который в шутку кричал «Волки, волки!». Когда же волки пришли на самом деле, никто мальчику не поверил. Более того, возникает общественная аллергия на сообщения о рисках, и они начинают трактоваться в контексте пиара и деления денег.

41.  Использование темы глобальных рисков в качестве сюжета для развлекательных масс-медиа. Выделение адреналина в критических ситуациях по-своему приятно, и небольшой укол его можно получить, посмотрев фильм-катастрофу. Это приводит к тому, что разговоры о рисках начинают восприниматься как нечто несерьёзное, не имеющее отношение к личной реальности и проблемам, и даже как нечто приятное и желанное.

42.      Логическая ошибка генерализации на основании художественного вымысла. Описана у Бострома [Bostrom 2001] как «искажение в духе «хорошей истории). Регулярное потребление развлекательных произведений — фильмов, романов – подсознательно формирует модель риска, который назревает, угрожает, интересно развивается, но затем зрелищно преодолевается, — и вся игра идёт почти на равных. Реальные риски не обязаны соответствовать этой модели. Даже если мы стараемся избегать воздействия художественных произведений, фильм «Терминатор) сидит у нас в подсознании, создавая, например, ошибочное представление, что проблемы с Искусственным Интеллектом — это обязательно война с роботами. Одна из форм этой ошибки состоит в том, что в фантастическом романе берётся неизменным обычный мир и к нему добавляется одна фантастическая деталь, а затем рассматриваются возможные последствия этого. Другая форма ошибки заключается в том, что противники создаются равными по силе. Третья — в том, что нормой завершения истории считается «хэппи-энд). Однако в деле предотвращения глобальных рисков не может быть никакого конца вообще — если мы предотвратили все риски в XXI веке, то тоже надо делать и в XXII веке и так далее.

43.  Идеи о противостоянии глобальным рискам с помощью организации единомышленников, связанных общей целью – обеспечить благо человечества. Эта идея порочна, потому что всегда, когда есть «мы)), есть и «они). У любой организации есть самостоятельная групповая динамика, направленная на укрепление и выживание этой организации. У любой организации есть конкурент. Внутри организации запускается групповая динамика стада-племени, побуждающая бороться за власть и реализовывать другие скрытые цели. В результате возможна борьба спасителей человечества между собой.

44.  Секретность как источник ошибок в управлении рисками.

Исследования по безопасности, ведущиеся в секрете, утрачивают возможность получать обратную связь от потребителей этой информации и, в итоге, могут содержать больше ошибок, чем открытые источники. Засекречивание результатов неких испытаний и катастроф обесценивает их значение для предотвращения последующих катастроф, потому что этих результатов почти никто не знает.

45.  Интеллектуальная установка на острую критику мешает обнаруживать опасные катастрофические сценарии. Сверхкритичность препятствует начальной фазе мозгового штурма, на которой набирается банк возможных идей. Поскольку безопасности часто угрожают невероятные  стечения  обстоятельств,  «тяжёлые  хвосты),  то  именно странные идеи могут быть полезными. Корни критической настройки могут быть, например в том, что критикующий начинает претендовать на более высокий социальный статус.

Ошибочность идеи о том, что безопасность чего-либо можно доказать теоретически. Однако единственный реальный критерий безопасности — практика. Десятки лет безотказной работы — лучший показатель. История знает массу примеров, когда приборы или проекты, теоретически имевшие высокую безопасность, рушились из-за непредусмотренных сценариев развития событий. Например, падение самолёта «Конкорд» в Париже, вызванное фрагментом шасси другого самолёта на взлётно-посадочной полосе. Герой фильма Стивена Спилберга «Парк Юрского периода» хорошо сказал об этом: «Чтобы заключить, что ваша система безопасности ненадёжна и не может во всех случая обеспечить изоляцию полигона от окружающей среды, мне вовсе не обязательно знать, как именно она устроена».

Недооценка человеческого фактора. От 50 до 80 % катастроф происходят в результате ошибок операторов, пилотов и других людей, осуществляющих непосредственное управление системой. Ещё более значительная доля катастрофических человеческих ошибок приходится на техническое обслуживание, предполётную подготовку и ошибки при конструировании. Даже сверхнадёжную систему можно привести в критическое состояние определённой последовательностью команд. Человек достаточно умён, чтобы обойти любую «защиту от дурака» и натворить глупостей. Поэтому мы не можем отвергнуть ни один из сценариев глобальной катастрофы, исходя из того, что люди никогда не будут воплощать его в жизнь.

Ошибочность идеи о том, что можно создать безошибочную систему, многократно проверив её проект и исходный код. Сами проверки вносят некоторое число новых ошибок, и, в силу этого, на определённом уровне число ошибок стабилизируется. (Этот уровень примерно соответствует квадрату числа ошибок, — то есть, если человек делает одну ошибку на 1000, то, сколько бы он ни проверял себя, он не создаст безошибочный «код» длиною более 1 000 000.)

49.   Статистика как источник возможных ошибок. В самой природе статистики есть возможность совершения ошибок, намеренных искажений и ложных интерпретаций. Это связано с тем, что статистика является не описанием однократно свершившихся фактов, а обобщением множества фактов при помощи описаний. Проблемы статистики связаны, в частности, со способом выборки, разными методами вычисления среднего показателя, со степенью округления, с интерпретацией полученных результатов и способами их зрительного представления для других людей.

50.     Ошибка, связанная со склонностью людей большее значение придавать широко известным или легко запоминающимся фактам. Все помнят, какого числа на Хиросиму сбросили атомную бомбу, но мало кто знает, где и когда впервые зафиксирован грипп «испанка), унёсший в 100 раз больше жизней (по одной из версий — 8 марта 1918 г., около Канзас-Сити, США). В результате одни риски переоцениваются, и уже в силу этого другие риски остаются без внимания. Юдковски в своей статье об оценке рисков [Yudkowsky 2008b] называет это когнитивным искажением, связанным со степенью доступности информации.

Двойная ошибка. Многие перечисленные источники ошибок могут приводить как к переоценке наших способностей противостоять рискам, так и к недооценке самих факторов риска. Следовательно, каждая ошибка может сказаться дважды.

Анализ глобальных рисков не есть создание прогнозов. Прогноз содержит конкретные данные о времени и месте события. Но такие точные попадания очень редки и, скорее, случайны. Более того, прогноз и анализ рисков требует разных реакций от властей. Неудачные прогнозы компрометируют свою тему и людей, которые их дают. Поэтому некоторые люди дают очень много прогнозов, надеясь, что хоть один из них попадёт в цель и даст возможность прославиться. Анализ рисков, к примеру, в авиации требует усовершенствования разных механизмов самолёта, а прогноз авиакатастрофы предполагает, что люди откажутся от рейса в данный день.

Иллюзия знания задним числом. Иногда люди, говоря «Я знал это с самого начала), переоценивают свои прогностические способности, и ожидают подобных догадок от других. В отношении глобальных рисков у нас, естественно, не может быть никакого знания задним числом. А в отношении многих других, обычных, рисков оно есть. Это приводит к тому, что нам кажется, будто глобальные риски так же легко оценить. Иначе говоря, эффект знания задним числом в отношении глобальных рисков приводит к их недооценке. Подробнее см. в статье об ошибках Юдковски [Yudkowsky 2008b], который называет эту систематическую ошибку «hindsight bias)).

54.    Эффект настройки на источники информации. Читая литературу, человек может стать проводником идей, которые в него вкладывает автор. Это позволяет ему сходу отвергать концепции других людей. В результате он становится невосприимчивым к новой информации, и его эффективность в анализе рисков падает. Ощущение собственной правоты, образованности, навыки ведения споров — всё это усиливает информационную «глухоту) человека. Поскольку глобальные риски — вопрос  в  первую  очередь  теоретический  (ведь  мы  не  хотим экспериментальной проверки), то теоретические разногласия имеют тенденцию проявляться в нём особенно ярко.

Принятие малого процесса за начало большой катастрофы. Например, изменение курса доллара на несколько процентов может восприниматься как предвестник глобального краха американской валюты. Это приводит к преждевременным высказываниям в духе: «ну вот, я же говорил!), — что затем, когда выясняется незначительность изменений, подрывает веру, в первую очередь, свою собственную, в возможность катастрофы и её предвидения.

Более простое объяснение катастрофы подменяет более сложное. На выяснение более сложного варианта уходят годы анализа, например, так часто бывает при анализе авиакатастроф. (Не говоря о том, что участники анализа стремятся немедленно подтасовать факты, если эти факты означают их уголовную и финансовую ответственность.) Это более сложное объяснение не доходит до широкой публики и остаётся в качестве некоторого информационного фона. Чем позже будет найдено точное определение причин аварии, тем дальше отодвигается возможность защиты от аварии подобного рода. Когда речь идёт о быстрых процессах, такое отставание понимания может стать критическим.

57.      Использование апокалиптических сценариев, чтобы
привлечь внимание к своим проектам и добиться их финансирования.

Действительно, подобная форма саморекламы распространена, особенно среди представителей псевдонауки, что приводит к аллергии на такого рода заявления. Даже если 99,9 % людей, придумывающих разные апокалиптические сценарии, явно не правы, выдвигаемые ими гипотезы, вероятно, следует принимать к сведению, так как ставки в игре слишком велики, и неизвестные физические эффекты могут угрожать нам и до того, как их официально подтвердит наука. Иначе говоря, суммарные расходы на проверку почти наверняка ложных идей меньше, чем возможный ущерб от того, что хотя бы одна из них окажется верной.

58.  Стремление людей установить некий приемлемый для них уровень риска. У каждого человека есть представление о норме риска. Поэтому, например, водители более безопасных машин предпочитают более опасный стиль езды, что в целом сглаживает эффект безопасности машины. Как бы ни была безопасна система, человек стремится довести её до своей нормы риска. Поскольку ожидаемая продолжительность жизни человека имеет порядок 10 000-20 000 дней, то, установив для себя норму риска в 1 к 100 000 в день (по своим интуитивным представлениям или в духе «все так делают)), человек не сильно изменит свою ожидаемую продолжительность жизни. Однако по отношению к глобальным рискам такая позиция означала бы 30 % шансы вымирания в ближайшие 100 лет. При этом есть отдельные «лихачи) с гораздо более высокой нормой риска.

59.   Эффект «сверхуверенности молодого профессионала». Он возникает у водителей и пилотов на определённом этапе обучения, когда они перестают бояться и начинают чувствовать, что уже всё могут. Переоценивая свои способности, они попадают в аварии. Человечество в целом, возможно, находится на такой стадии по отношению к сверхтехнологиям. (Хотя на ядерных технологиях уже хорошо обожглись в Чернобыле.)

60.   Ощущение неуязвимости у выживших. Сверхуверенность молодого профессионала усугубляется эффектом наблюдательной селекции. Его можно наблюдать в случае с отвоевавшими определённый срок без ранений солдатами, когда они начинают чувствовать свою «неуязвимость», и всё более и более повышает свою норму риска. То же самое может происходить и с цивилизацией, — чем дольше не реализуются угрозы атомной войны, тем в большей мере кажется, что она вообще невозможна, а значит можно проводить более рискованную политику.

61.     Переоценка  собственных  профессиональных  навыков.

Поскольку глобальные риски охватывают все сферы знаний — от биологии до астрофизики и от психологии до политики, — то, чтобы получить адекватную картинку ситуации, любой специалист вынужден выйти за пределы своих знаний. Поскольку чувствовать себя профессионалом приятно, человек может испытывать склонность к преувеличению своих способностей. Это мешает ему проконсультироваться по существенным вопросам у специалистов. Стереотип «спасителя мира» как героя-одиночки, который способен на всё, может помешать ему скооперироваться с другими исследователями и сделать свой ценный вклад в общее дело. В равной мере и представление об ордене «джедаев», тайно спасающих мир, может быть некорректным и целиком заимствованным из развлекательного кино.

62.     Ошибка, связанная с концентрацией на мерах по предотвращению небольшой катастрофы вместо мер по предотвращению максимально возможной. Например, в Йеллоустоунском национальном парке так успешно предотвращали пожары в течение многих лет, что в лесу скопилось очень много сухих деревьев, и в результате произошёл колоссальный пожар, справиться с которым было почти невозможно. Юдковски [Yudkowsky 2008b] приводит пример со строительством дамб на одной реке в США, в результате которого количество наводнений уменьшилось, а ущерб от каждого отдельного наводнения увеличился, и в сумме ежегодный ущерб оказался выше, чем до строительства. Это было связано с тем, что после строительства дамб люди чувствовали себя увереннее, и возводили более дорогие постройки на более низко расположенных землях, поэтому, когда наводнение всё же случалось, оно наносило больший ущерб.

63.    Усталость исследователя. Энтузиазм отдельных людей нарастает волнами. В силу этого человек, который, допустим, начал выпускать некий бюллетень, может, утратив энтузиазм, начать выпускать его всё реже, что с точки зрения стороннего наблюдателя будет означать снижение интенсивности событий в этой области. Тем более, что работа исследователя глобальных рисков неблагодарна — он никогда не увидит реализации своих пророчеств, даже если они сбудутся. И у него никогда не будет уверенности, что ему на самом деле удалось что-то предотвратить. Только в кино спаситель мира получает за свою работу благодарность всего человечества и любовь красавицы. Не будем забывать, что Черчилль проиграл выборы сразу после войны, хотя верил, что заслужил переизбрания. Чтобы избежать эффекта «перегорания), на американском флоте во время Второй мировой войны применяли регулярную ротацию высшего состава — одна смена воевала, а другая отдыхала на берегу. Юдковски [Yudkowsky 2008b] по этому поводу пишет: мы никогда не слышали о героических превентивных мерах.

64.  Страх исследователей перед потерей социального статуса.

Существует ряд тем, интерес к которым нашим обществом воспринимается как симптом определённого рода неполноценности. Люди, интересующиеся этими вопросами, автоматически считаются (или даже выдавливаются в соответствующие «экологические ниши)) второсортными, сумасшедшими, клоунами и маргиналами. И другие исследователи даже могут стремиться избегать контакта с такими людьми и чтения их работ. Клеймлению подвергнуты темы телепатии и прочей парапсихологии, НЛО, а также сомнение в реальности мира. Однако важно отметить, что если хотя бы одно сообщение об НЛО было истинно и необъяснимо, то это потребовало бы переделки всей имеющейся картины мира, и не могло бы не влиять на вопросы безопасности (военные воспринимают подобные сообщения гораздо серьёзнее, чем учёные). Более того, те исследователи, которые потеряли свой статус, проявив интерес к НЛО и т. п., утратили вместе с ним и возможность доносить свои мысли до представителей власти. Военные исследования в этой области настолько засекречены, что неизвестно, имеются ли такие исследования вообще, и соответственно, неясно, в какой мере можно доверять людям, говорящим от имени исследователей необъяснимых явлений. Иначе говоря, секретность настолько инкапсулирует некую исследовательскую организацию, что она перестаёт существовать для внешнего мира, как чёрная дыра, которая не выпускает своих лучей — особенно в том случае, если высшее руководство страны ничего не знает о ней. (Характерен пример с канцлером Германии А. Меркель, которой отказывались говорить, что за люди ходят по резиденции, пока она категорически не потребовала объяснений,- это оказались сотрудники службы безопасности.)

Количество внимания, которое общество может уделить рискам, ограничено. Поэтому преувеличение некоторых рисков не менее опасно, чем умалчивание о других, так как съедает то количество внимания (и ресурсов), которое можно потратить на анализ более опасных рисков. Кроме того, оно создаёт ложную успокоенность у отдельно взятого человека, которому кажется, что он сделал достаточный вклад в спасение Земли, например, заправив свой автомобиль спиртом.

Пренебрежение экономикой. Такие выражения, как «деньги -это только бумажки», или «банковские вклады — это только нолики в компьютерах» могут быть отражением широко распространённого мнения, что крах экономики не так важен, как, скажем, война или некие более зрелищные катастрофы. Однако экономика — это материальное воплощение структурности всей человеческой деятельности. Для понимания роли экономики важно отметить, что кризис 1929 года нанёс США ущерб в 2 раза больший, чем Вторая мировая война, а крах СССР произошёл не в результате прямой агрессии, а результате структурно-экономического кризиса. Даже вымирание динозавров и другие крупные вымирания биологи связывают не с космической катастрофой, а с изменением условий конкуренции между видами.

Все риски имеют стоимостное выражение. Экономические последствия даже небольших катастроф (в сравнении с глобальными) могут иметь огромное стоимостное выражение. Теракты 11 сентября 2001 г. нанесли ущерб американской экономике в 100 млрд. долларов, и возможно, ущерб будет гораздо больше, если учесть потенциальные потери от политики снижения процентных ставок (пузырь на рынке недвижимости), а также триллионы долларов, потраченных на войну в Ираке. При этом цена разрушенных зданий составляла только несколько миллиардов долларов. 7 писем с сибирской язвой отправленных в США террористами в 2001 г. нанесли ущерб в 1 миллиард долларов.

Итак, даже небольшие аварии могут наносить огромный ущерб и приводить к утрате стабильности экономики, а крах экономики сделает систему менее устойчивой к ещё большим катастрофам. Это может привести к положительной обратной связи, то есть к самоусиливающемуся катастрофическому процессу.

По мере глобализации экономики, всё больше возрастает опасность глобального системного кризиса. Конечно, трудно поверить, что мир погибнет от того, что несколько крупных банков обанкротились, однако это может запустить «эффект домино».

67.    Ошибки, связанные с переоценкой или недооценкой значения морального состояния общества и его элит. Одна из версий крушения Римской империи — деградация её элит, состоящая в том, что люди, из которых рекрутировались правители всех уровней, действовали исключительно в своих личных краткосрочных интересах, иначе говоря, глупо и эгоистично (что, по одной из теорий, может быть связано с тем, что они употребляли воду из водопровода со свинцовыми трубами, отрицательно влиявшую на мозг). При этом предполагается, что эффективное действие в своих долгосрочных интересах совпадает с интересами общества в целом, что, вообще говоря, не бесспорно. Другой метафорой является сравнение «морального духа), например, войска — со способностью молекул некого вещества образовывать единый кристалл (подробно на эту тему рассуждал Лев Толстой в «Войне и мире)).

С другой стороны, на падение нравов жаловались ещё сами древние римляне, и до сих пор этот процесс не помешал развитию производственных сил общества. Корень ошибки здесь может быть в конфликте поколений, а именно в том, что опытные и старые оценивают молодых и задиристых, не внося возрастную поправку и забывая, что сами были такими же.

Однако в случае современных глобальных рисков огромный ущерб может быть нанесён небольшой группой, скажем, террористов, которые в рамках своей стратегии действуют долгосрочно и эффективно. Или конфликтом двух обществ, каждое из которых внутри себя продвигает некие позитивные идеалы. Причём конфликт может быть вокруг точных определений этих идеалов, например, что лучше: демократия или религия? Наконец, даже высокоморальный человек может уничтожить мир по ошибке. В то время как человек, лишённый морали, будет безопасен, так как будет коротать свой срок в тюрьме, например, за мелкую кражу, и никогда не получит доступа к высоко опасным технологиям.

Ошибка, связанная со стремлением доказывать идею, вместо того, чтобы проверять её на истинность. Одни идеи проще доказывать, чем другие. Это приводит к сдвигу в оценке вероятностей. Юдковский [Yudkowsky 2008b] пишет об этом в связи с систематической ошибкой, связанной со степенью доступности информации. Чем более очевидна идея, тем легче превратить её яркий агитационный фильм. Например, легче устраивать шумиху вокруг угрозы от глобального потепления, чем от Искусственного интеллекта, потому что последняя незрима. Кроме того, человеку свойственно вовлекаться в процесс доказывания идеи массам, что приводит к отождествлению исследователя с этой идеей, стремлению сделать её проще и доступнее.

Склонность людей без раздумий предлагать «простые» и «очевидные» решения в сложных ситуациях. А затем упорствовать, защищая их и подбирая под них аргументацию. Человеку очень трудно «передумать). Здесь можно вспомнить закон Мёрфи: «Любая сложная проблема имеет простое, очевидное и неправильное решение). Юдковски [Yudkowsky 2008b] подробно пишет о важности того малого промежутка времени между моментом возникновения вопроса и тем моментом, когда человек сделал окончательный выбор в пользу одного из ответов, в течение которого, собственно, и происходит мышление. Людям психологически трудно передумать, потому что это якобы означает признать себя глупыми и способными ошибаться, и особенно трудно передумать, если позиция уже оглашена публична и стала предметом спора.

Общественная дискуссия о рисках разных исследований может привести к тому, что учёные будут скрывать возможные риски, чтобы их проекты не закрыли. Юдковски [Yudkowsky 2008b] пишет об этой проблеме, честно признавая, что не видит никакого её решения: «И если власти вводят закон, по которому даже мельчайший риск существованию человечества достаточен для того, чтобы закрыть проект; или если де-факто нормой политики становится то, что ни одно возможное вычисление не способно перевесить груз однажды сделанного предположения, то тогда ни один учёный не рискнёт больше высказывать предположения».

Ошибка, связанная с неправильной корреляцией силы и безопасности. Эмоционально нам кажется, что технологии делятся на хорошие, то есть сильные и безопасные, и плохие — то есть слабые и опасные. Однако, на самом деле, чем сильнее некое орудие, чем больше его влияние на мир, — тем оно опаснее, тем больше способов направить его на разрушение. «Анализ, основанный на недостаточной информации, преподносит эмоциональную оценку технологий, в результате чего информация о преимуществах имеет тенденцию смягчать воспринимаемый риск», — пишет Юдковски [Yudkowsky 2008b]. Понятно так же, что новые технологии сильнее старых технологий, — иначе бы не было коммерческого смысла их создавать.

Преждевременные инвестиции. Если бы в середине XIX века люди поняли, что в XX веке им угрожает атомное оружие, и на предотвращение этого риска были бы выделены миллионы, то нет сомнений, что эти деньги были бы потрачены не по назначению, и у будущих поколений выработалась бы аллергия на такие проекты. Возможный пример: по некоторым данным, СССР в 80-е годы получил дезинформацию о том, что США вовсю разрабатывают беспилотные летательные аппараты, и развернул свою огромную программу, в результате которой возникли такие аппараты как «Пчела» — автоматические самолёты-разведчики весом около тонны, огромной стоимости и малой надёжности. В результате российские военные разочаровались в БПЛА именно к тому моменту, когда в США была принята программа их реального создания. Другой пример: до 1939 года было абсурдно бороться против атомного оружия, а после — уже поздно.

73.  Склонность людей смешивать свои ожидания вероятного и наилучшего исходов. «Реальность, как оказалось, зачастую выдаёт результаты, худшие, чем самый плохой ожидаемый исход), — пишет Юдковски [Yudkowsky 2008b], приводя в своей статье эксперимент со студентами, где их просили оценить наиболее вероятное и наихудшее ( в смысле самое позднее) время сдачи дипломной работы. В результате среднее время сдачи дипломной работы оказалось хуже, чем наихудший случай. Даже ясное предупреждение о том, что людям свойственно совершать такую ошибку в оценке не привело к тому, что испытуемые правильно скорректировали свои ожидания. Даже я сам, невзирая на то, что перевёл вышеупомянутую статью и хорошо знал о необходимости поправки, всё равно пал жертвой этой ошибки, оценивая ожидаемые сроки выхода данной книги в печать.

Апатия прохожего. Глобальные риски не попадают под личную ответственность кого бы то ни было, поэтому весьма соблазнительно рассуждать в духе «раз никто ничего не делает в связи с происходящим, почему я должен?). Более того, подобный тип поведения возникает бессознательно, просто как стадный рефлекс. Типичный пример: когда человек лежит на тротуаре и мимо идёт толпа, как правило, никто не стремится помочь. Но если человек, идя по лесу в одиночестве, увидит на тропинке лежащего, он, скорее всего, остановится и предложит помощь. Юдковски [Yudkowsky 2008b] определяет эту модель поведения как важный фактор возможной недооценки глобальных рисков.

Потребность в завершении. Эта концепция когнитивной психологии, обозначает стремление человека как можно скорее найти ответ на беспокоящий вопрос («need for closure)) — так её называет Круглански [Kruglanski 1989]). Это стремление приводит к тому, что человек предпочитает быстрое и неверное решение более долгому поиску правильного ответа. И хотя мы не можем искать правильную стратегию работы с глобальными рисками бесконечно долго — не стоит забывать, что мы ограничены во времени! — нам стоит хорошо подумать перед тем, как прийти к каким-то выводам.

Влияние авторитета и социальное давление группы. Этот вопрос подробно рассматривается в книге «Человек и ситуация) [Росс, Нисбетт 1999]. В частности, хорошо известны эксперименты Милграма, где одну группу испытуемых принуждали воздействовать на другую электрическим током со всё большим напряжением (на самом деле вторая группа состояла из «подсадных уток), и ни какого тока на самом деле не подавалось), чтобы те «учились), и при этом испытуемые доходили до смертельно опасного предела, — напряжения в 400 вольт, невзирая на то, что «жертвы) просили и умоляли о прекращении испытания. Несмотря на то, что сначала люди из первой группы были уверены, что они не стали бы это делать, в реальных опытах 66 % испытуемых повели себя именно так. В качестве причин такого поведения было обнаружено влияние авторитета, удалённость жертвы и воздействие аналогичного поведения группы. Очевидно, что те же факторы могут действовать на нас, когда мы оцениваем риск, связанный с некоторым фактором или технологией. Если потенциальные жертвы её находятся от нас далеко во времени и в пространстве, если рядом с нами высокоавторитетная личность высказывается в пользу этой технологии, а также, если мы окружены группой людей, придерживающегося противоположного мнения, всё это окажет влияние на наш выбор.

Разрыв между обзорными и точечными исследованиями, между «деревом и лесом». Обзорные исследования могут предлагать системные сценарии глобальной катастрофы или обсуждать последствия некоторых новых открытий, но не могут сказать, как именно сделать нечто опасное. Наоборот, прикладные исследования могут дать точную оценку рисков, скажем, отдельного астероида, но не суммарную оценку рисков ото всех причин. Этот разрыв ярко заметен в области нанотехнологий. Есть уровень обзорных проектных исследований, где в первую очередь уделяется внимание тому, что можно и нужно сделать, то есть идёт движение от заявленной цели к разным вариантам её воплощения. И есть уровень конкретных исследований свойств отдельных материалов. С точки зрения представителей первого направления прикладники «за деревом не видят леса», с точки зрения прикладников — первые «занимаются верхоглядством и фантастикой». Причём оба обвинения могут быть отчасти справедливы.

Ошибка, связанная с интеллектуальной проекцией.

Эта ошибка возникает, когда мы неосознанно приписываем предметам обладание свойствами, которые на самом деле существуют только в наших представлениях о них. Пример такой ошибочности рассуждение вроде: «ИИ будет добрый, поэтому он не может меня убить». Тогда как доброта — это не свойство самого ИИ, а наша оценка его действия по отношению к нам, и причинная связь здесь обратная — мы называем ИИ «добрым», потому что он нас не убивает. Юдковски её определяет так: «Это частный случай глубокой, запутывающей и чрезвычайно распространённой ошибки, которую E. T. Jaynes назвал ошибочностью, связанной с умственной проекцией (mind projection fallacy). Jaynes, специалист по байесовской теории достоверности, определил «ошибочность, связанную с умственной проекцией» как ошибку возникающую потому, что состояния знания перепутаны со свойствами объектов. Например, фраза «мистический феномен» подразумевает, что мистичность — это свойство самого феномена — но если я неосведомлен относительно некого феномена, то это факт о моём состоянии сознания, а не о самом феномене.)»

Представление о том, что изменять обстоятельства следует, уничтожая их причины. Однако спичка, от которой загорелся пожар, уже погасла. Стремление уничтожить любую систему, от государства до тараканов и микроорганизмов, приводит к тому, что эта система оптимизируется для борьбы, становится сильнее. А тот, кто с ней борется, вынужден приобретать качества своего врага, чтобы действовать с ним на одной территории.

Забвение основного принципа медицины — «Не навреди!» А вот другая формулировка этого принципа: «Когда не знаешь что делать, -не делай ничего). За этим стоит вековой опыт, который говорит, что необдуманные действия скорее принесут вред, чем помогут. Транслируя этот принцип на наш предмет, — глобальные катастрофы, можно сказать, что попытки их предотвращения могут, напротив, усугубить положение вещей.

81.       Путаница между объективными и субъективными врагами.

Когда некто преследует цели, мешающие моим целям, он является моим объективным врагом. (тигр, который хочет съесть козу; противник в игре в шахматы; конкурент в бизнесе). Однако между людьми врагом становится тот, кто стремится уничтожить лично мое эго, меня. Это понятие сходно с кровной местью. И ловушка тут в том, что объективный враг начинает восприниматься как субъективный. Это подобно тому, чтобы, стоя перед мчащимся поездом, заявить, что именно он вознамеривается уничтожить меня. Однако между людьми бывает и реальные ситуации «субъективной) вражды, когда один хочет уничтожить другого, не имея никаких иных за этим целей или полезностей. Применительно к глобальным рискам это означает, что люди, которые могут уничтожить мир, вовсе не будут лично ко мне злы или выглядеть как исчадия ада. Это могут быть честные, благородные, красивые люди, которые совершат некую очень маленькую и неочевидную ошибку.

82.   Предсказания или мечты о катастрофе, на самом деле обусловленные завистью. Яркий пример этого — множество форумов в Интернете, где люди, обиженные распадом СССР, мечтают увидеть крах США и выискивают признаки этого процесса. (Но это не значит, что в американской экономике нет проблем.) Один из вариантов того, когда неосознаваемые желания могут влиять на описание действительности.

83.     Страх утраты идентичности. Нежелание изменяться, трансформироваться, которое свойственно системе, связано с тем, что она опасается потерять самое себя. То есть для системы утратить свои определяющие свойство — равносильно смерти. Это одна из причин борьбы против глобализации. Некто может предпочесть смерть утрате идентичности. То есть предпочесть глобальную катастрофу трансформации того мира, в котором он живёт.

84.     Понятная катастрофа может быть привлекательнее непонятного будущего. В целом глобальную катастрофу проще представить, чем будущее, с некими ещё не открытыми технологиями. (То есть здесь действует когнитивное искажение, связанное с доступностью информации.) Непонятное может вызывать страх.

Неправильное применение философского правила «бритва Оккама». Мы не должны отсекать сложные гипотезы на основании бритвы Оккама. Бритву Оккама можно рассмотреть через призму байесовой логики. Тогда гипотеза, требующая большего числа независимых предположений, оказывается менее вероятной. Например, гипотеза, базирующаяся на 10 независимых предположениях, будет иметь только 1 к 1024 шанс на истинность. Однако и это не мало, если речь идёт о гипотезе, которая означает риск вымирания человечества!

Верхняя граница возможной катастрофы формируется на основании прошлого опыта. Вот что пишет Юдковски [Yudkowsky 2008b] в связи с уже упоминавшимися дамбами: «Недавно пережитые наводнения, по-видимому, устанавливают границу потерь, начиная с которой хозяева верят, что появился повод для беспокойства. Когда дамбы и насыпи построены, они уменьшают частоту наводнений, таким образом, видимо, создавая фальшивое чувство безопасности, которое ведет к уменьшению предосторожности. В то время как строительство дамб уменьшает частоту наводнений, ущерб от каждого наводнения с построенными дамбами настолько возрастает, что среднегодовой ущерб, в конечном счете, увеличивается. Кажется, что люди не способны экстраполировать пережитые малые опасности на возможность более серьёзного риска; напротив, прошлый опыт малых опасностей устанавливает ощущаемую верхнюю границу для рисков).

Ошибка, связанная с неверным переносом закономерностей одной системы на другую.

А) Игнорирование роста сложности структуры как фактора, снижающего надёжность системы. Если от растения можно отрезать большую часть, не повредив его способности к полноценному восстановлению, то, чтобы убить животное, достаточно удалить очень маленький кусочек организма. То есть, чем сложнее система, тем больше в ней уязвимых точек. Нельзя не отметить, что, по мере нарастания процессов глобализации, связность и структурность земной цивилизации растёт.

Б) Снижение надёжности системы пропорционально четвёртой степени плотности энергии. Это эмпирическое обобщение (точное значение степенного показателя может отличаться в зависимости от разных факторов) можно обнаружить, сравнивая надёжность самолётов и ракет: при равных размерах, количестве и затратах надёжность ракет примерно в десять миллионов раз меньше — в значительной мере за счёт того, что плотность энергии в двигателях в несколько раз больше, и ряда других факторов. Похожее эмпирическое обобщение верно и для статистики смертельных аварий автомобилей в зависимости от скорости. Нельзя не отметить, что энерговооружённость человечества постоянно растёт.

88.  Двусмысленность и многозначность любого высказывания как источник возможной ошибки. С точки зрения авторов регламента работ на Чернобыльском реакторе персонал нарушил их требования, а с точки зрения персонала, пользовавшегося этим регламентом, он действовал точно в соответствии с его требованиями. Регламент требовал «заглушить реактор» — но разработчики считали, что это надо произвести немедленно, а операторы — что постепенно. Другой вариант — когда автоматическая система спасения и пилот могут совершать набор действий, каждый из которых в отдельности спас бы самолёт, но вместе они накладываются друг на друга и приводят к катастрофе (гибель А310 в 1994 году в Сибири). Трудно достичь однозначного понимания терминов, когда у нас нет экспериментального опыта, как в случае с глобальными катастрофами.

Отказ рассматривать некий сценарий по причине его «невероятности». Однако большинство катастроф случаются в результате именно невероятного стечения обстоятельств. Гибель «Титаника» связана с экзотической, если так можно сказать, комбинацией 24 (!) обстоятельств.

Переход от обмана к самообману. Сознательный обман других людей с целью получения определённой выгоды, в нашем контексте — сокрытия рисков — может незаметно принять форму самогипноза. Самообман может быть гораздо более устойчив, чем иллюзия или непреднамеренное заблуждение. Ещё один вариант такого опасного самогипноза — команда себе: «Я подумаю об этом завтра» (но завтра никогда не наступает).

91.      Переоценка собственных возможностей вообще и выживаемости в частности. Просто проиллюстрирую это цитатой из статьи Бострома об угрозах существованию: «Эмпирические данные о предубеждениях в оценке рисков двусмысленны. Доказано, что мы страдаем от систематических предубеждений, когда мы оцениваем наши собственные перспективы рисков в целом. Некоторые данные показывают, что людям свойственно переоценивать собственные способности и перспективы. Три четверти всех автолюбителей думают, что они более аккуратные водители, чем среднестатистический водитель. Согласно одному исследованию, почти половина социологов верит в то, что они принадлежат к лучшим десяти учёным в своей области, и 94 % социологов думают, что они лучше в своей работе, чем их коллеги в среднем. Также было показано, что находящиеся в депрессии люди имеют более точные предсказания, чем нормальные люди, за исключением тех предсказаний, которые касаются безнадёжности их ситуации.  Большинство  людей  думает,  что  они  сами  с  меньшей вероятностью подвержены обычным рискам, чем другие люди. Широко распространено убеждение, что публика склонна переоценивать вероятности часто освещаемых в печати рисков (таких, как катастрофы самолётов, убийства, отравления едой и т. д.), и недавнее исследование показывает, что публика переоценивает большое количество распространённых рисков здоровью в отношении себя. Другое недавнее исследование, однако, предполагает, что доступная информация согласуется с предположением, что публика рационально оценивает риск (хотя и с некоторым сужением из-за расхода мыслительных усилий на удержание в уме точной информации)).

Стремление к прекрасному будущему, заслоняющее восприятие рисков. Это явление можно заметить у революционеров. Опыт Великой Французской революции вполне мог научить, что революция ведёт к гражданской войне, диктатуре и внешним войнам, однако русские революционеры начала ХХ века питали те же иллюзии, что и их французские коллеги за 120 лет до них, хотя, в конечном счёте, получили аналогичный результат. И у современных сторонников радикального развития технологий есть необъективность такого же рода — то есть вера в том, что новые технологии не приведут новым видам оружия, его применению, и новым технологическим катастрофам. Психологически это связано с тем, что человек отвергает размышления о рисках, как препятствия на пути к светлому будущему.

Фильтры, мешающие поступлению информации к руководству. Информация существует не в вакууме, а внутри конкретной системы. Ценность информации определяется её новизной и суммарной способностью системы реагировать на неё. Поэтому важно исследовать не только высказывания о глобальных рисках, но и то, как они могут распространяться в обществе. Г.Г. Малинецкий в книге «Риск. Устойчивое развитие. Синергетика) [Капица, Курдюмов, Малинецкий 2001] пишет: «Еще одна особенность информации в условиях возникновения ЧС состоит в том, что поступающие в систему управления данные проходят через ряд фильтров. Первыми из них являются используемые в системе управления методы изучения и анализа внешней среды, посредством реализации которых входная информация, прежде чем поступить к руководству, отсеивается. Этот фильтр, как правило, настроен на прошлое и настоящее, а не на возможные экстремальные изменения ситуации в будущем.

Вторым фильтром является психологический, суть которого заключается в неприятии руководством информации вследствие ее стратегической новизны.

Третий фильтр на пути поступающей информации образует руководящая иерархия. Новая информация не сможет влиять на формирование реакции на изменения, если руководители не будут обладать достаточной властью, чтобы официально признать актуальность этой информации.

Четвертый фильтр связан с тем, что в последние годы информация рассматривается как ценный стратегический товар, к которому следует относиться бережно и не передавать его по первому требованию. Подчеркнем, что в условиях ЧС любые задержки в передаче исходной информации не только безнравственны, но и преступны».

Любопытство может оказаться сильнее страха смерти. Вовсе не любая информация о глобальных рисках полезна. Например, если мы произведём некий опасный эксперимент и в результате выживем, мы узнаем, что этот тип экспериментов безопасен. Но стоит ли это знание того риска, которому мы себя подвергли? Тем не менее, людям свойственно рисковать жизнью ради знаний или переживаний. Можно вспомнить, что были жертвы в толпе любопытных, наблюдавших штурм Белого дома в 93 году. И, я уверен, многим людям любопытно, каков будет «конец света». Кто-то может согласиться на опасные эксперименты попросту ради любопытства.

Система и регламент. Глобальная катастрофа, как и любая обычная техногенная авария, может быть не результатом какой-то одной фатальной ошибки, а следствием случайного фатального совпадения десятка незначительных ошибок. Для гладкого функционирования системы приходится позволять нарушать регламент по мелочам. И в какой-то момент эти нарушения складываются подходящим образом — непотушенный окурок, незакрытый бак, упрощённая схема запуска — и приводят к образованию цепочки событий, ведущей к катастрофе. Дальше происходит следующее: «Мне приходилось принимать участие в расследованиях (или изучать материалы) несчастных случаев и аварий в промышленности (неатомной). По их результатам я для себя сделал следующий вывод: практически никогда не бывает какой-то "единственной главной" причины и соответственно "главного виновного" (я имею в виду не официальные выводы комиссий, а фактическую сторону дела). Как правило, происходит то, что я для себя условно называю: десять маленьких разгильдяйств. Все эти маленькие разгильдяйства совершаются у всех на виду в течение многих лет подряд, а т.к. по отдельности каждое из них не способно привести к тяжелым последствиям, то в силу этого внимание на них не обращается. Но когда все они происходят в одно время, в одном месте и с одними людьми -это приводит к трагическому результату. Ну а когда происшествие имеет общественный резонанс — тогда обычно и назначают главного стрелочника по принципу: "кто не спрятался, я не виноват"1.

Эффект «стрелочника». Вместо поиска подлинных причин аварии ищут стрелочника, в результате чего подлинные причины не устраняются, и она становится возможной ещё раз. В отношении глобальной катастрофы этот может иметь тот смысл, что вместо того, чтобы обнаруживать и устранять общесистемные закономерности, ведущие к ней, будет вестись борьба с частными проявлениями. Общесистемными закономерностями, ведущими к глобальной катастрофе, являются технический прогресс, принципиальная невозможность экспериментальной проверки, сверхуверенность людей и т. д., тогда как распространение генетического кода одного взятого вируса — частным проявлениям этих закономерностей.

97.       Минимальный воспринимаемый риск. Существует минимальный воспринимаемый риск, то есть, если вероятность события меньше некого порога, человек воспринимает её как нулевую. Было выдвинуто предположение, что это обусловлено тем, что человек принимает решения, исходя не из реальных вероятностей, возможных вариантов событий pi, а из своих представлений о них fp). Например, ряд экспериментов показывает, что человек не воспринимает вероятности меньше 10-5, несмотря на очень большой возможный ущерб [Капица, Курдюмов, Малинецкий 2001]. Это мы выше объясняли исходя из того, что такой уровень риска незаметен на фоне ежедневного риска, которому подвергается человек.

Отвержение новых идей. Люди и учёные часто отвергают новые идеи, так как это означало бы признать собственную неправоту. Динамика такого процесса обрисована Куном в его теории научных революций, и, к сожалению, дискуссии о новых идеях часто окрашены теми же моделями поведения, что и борьба за власть в стае обезьян. Часто предупреждения о новых рисках носят не вполне доказанный характер. Пример такого отвержения, стоивший миллионы жизней — длительное отвержение идей венгерского врача Игнаца Филиппа Земмельвейса (1818­1865), который утверждал, что родильная горячка связана с тем, что врачи не моют руки после вскрытия трупов.

Воздействие эмоциональной реакции шока. Известно, что катастрофы провоцируют определённую последовательность психологических переживаний, каждое из которых влияет на объективность принимаемых решений. В книге «Психогении в экстремальных условиях) сказано: «… психологические реакции при катастрофах подразделяются на четыре фазы: героизма, «медового месяца), разочарования и восстановления) [Александровский 1991] при этом фазе героизма может предшествовать период отрицания, паники или паралича в первые мгновения катастрофы.

Каждая из этих стадий создаёт свой вид необъективности. Если начнётся глобальная катастрофа, то она будет настолько ужасна, что вызовет реакцию отрицания в духе «не может быть), «это какая-то ошибка) и т. д. Например, видеокадры о теракте 11 сентября многие восприняли как кадры из нового голливудского кинофильма. Затем идёт стадия сверхреакции, которая может создать новые опасности из-за опрометчивого поведения. Например, лётчики, вылетевшие патрулировать 11 сентября небо над Нью-Йорком, были уверены, что началась война с русскими. В том же духе было и заявление президента Буша о том, что «мы объявляем войну» в тот же день. Затем на стадии эйфории чувство опасности притупляется, хотя на самом деле опасная ситуация ещё не закончилась. Уныние, наоборот, связано не с уменьшением оценки риска, а с уменьшением мотивации с ним бороться, возможно, связанное с масштабами потерь и осознанием неизбежности. Принятие приводит к тому, что катастрофы забываются, а риск принимается как должное. То есть на этой стадии происходит и уменьшение оценки риски, и уменьшение мотивации по его преодолению. Такое описание относится к переживанию катастроф, которые начались и закончились, вроде землетрясений, и клинике острого горя при смерти близких. Однако глобальная катастрофа не относится к таким событиям -скорее, если её наступление удастся заметить, она будет выглядеть как всё более нарастающий грозный процесс.

При этом важно то, что эмоции воздействует на поведение людей независимо от того, хотят они этого, или нет, даже если они знают об этом воздействии, и хотят его избежать. На этом основано действие рекламы. Кроме того, если начнётся глобальная катастрофа, например, всеобщая эпидемия, то у почти каждого будут близкие люди, умершие в результате неё или находящиеся в зоне повышенного риска. В голливудском кинематографе это изображается обычно так: главный герой успевает и страну спасти, и высвободить любимую девушку из завалов. Но это весьма сказочный, нереальный сценарий развития событий. Все люди, и принимающие решения, и исполнители, в случае глобальной катастрофы будут думать не только о судьбах планеты, но и о спасении своих близких (а также своих стран, родных городов и других общностей, с которыми они связаны), и в силу этого их выбор будет неоптимален. Даже если они примут решение пожертвовать своими близкими и целиком сосредоточиться на предотвращении катастрофы, эмоциональный стресс от такого решения нанесёт вред их объективности и работоспособности. Фактически, они будут находиться в состоянии острого горя или шока. Г. Г. Малинецкий пишет: «Ряд специалистов по психологии риска считают, что доля руководителей, способных адекватно действовать в условиях ЧС, не превышает 0,5 %» [Капица, Курдюмов, Малинецкий 2001].

100. Проблемы отбора экспертов. Поскольку по каждому отдельному вопросу мы вынуждены полагаться на мнение наиболее компетентных людей в этой области, нам нужен эффективный способ отбора таких людей — или их книг. Методики отбора экспертов обычно таковы: во-первых, имеют значение их регалии: индекс цитирования, научные звания, должности и т. д. Во-вторых, можно полагать на число сбывшихся прогнозов для того, чтобы определить вероятность их правоты. Третий способ состоит в том, чтобы не доверять никому, и перепроверять самому все чужие выкладки. Наконец, можно отбирать людей по тому, насколько они разделяют ваши убеждения — верят ли они в Сингулярность, Пик Хубберта, либеральную модель экономики и т.д. — очевидно, что в этом случае мы не узнаем ничего нового, кроме того, что и так подразумевалось нашим отбором. А очевидно, что все способы отбора экспертов содержат свои подводные камни. Например, в отношении глобальных катастроф не может быть сбывшихся прогнозов.

Вина и ответственность как факторы предотвращения рисков. Нашему уму свойственно пытаться определить того, кто именно виноват в той или иной катастрофе. Вина опирается на концепции свободы воли, вменяемости и последующего наказания. Однако в случае глобальной катастрофы она утрачивает всякий смысл, так как не будет ни расследования, ни наказания, ни пользы от этого наказания, ни страха наказания. С другой стороны, концентрация на поиске виноватых отвлекает от видения целостной картинки катастрофы. Фактически, мы думаем, что если мы определим виноватых и заменим их на более эффективных исполнителей, то следующий раз катастрофы не будет, а всем разгильдяям будет хороший урок и дисциплина на производстве повысится. Очевидно, однако, что наказание виноватых бесполезно, когда речь идёт о глобальных катастрофах. Возможно, имело бы смысл «судить победителей) — то есть людей, которые допустили некий глобальный риск, даже если катастрофы в результате не произошло. При этом важно повышать ответственность людей за сохранение мира, в котором они живут.

Недооценка сил инерции как фактора устойчивости систем. Помимо общих соображений о сложности и механизмах обратной связи, делающих систему устойчивой, можно использовать формулу Готта (см. главу «Непрямые способы оценки рисков)) для того чтобы оценить время существования системы в будущем, исходя из прошлого времени её существования. Формула Готта математически подкрепляет такие вероятностные коллизии из повседневности, — например, если автобуса не было в течении часа, то маловероятно его прибытие в ближайшую минуту. То есть прошлое время существования системы создаёт, так сказать, «временную инерцию). Когда оказывается, что некая система более устойчива, чем нам казалось, исходя из наших теорий, мы начинаем сомневаться в наших теориях, которые могут быть по сути правильными, но ошибаться в датировке событий. Таким образом, недооценка устойчивости ведёт к недооценке рисков.

Мнения, обусловленные мировоззрением. Суть ошибки состоит в предположении о том, что существуют истинные высказывания, не обусловленные мировоззрением. Все дискуссии о рисках глобальной катастрофы происходят на платформе определённого научного, культурного и исторического мировоззрения, которое для нас настолько очевидно, что кажется прозрачным и является незаметным. Однако возможно, что представитель другой культуры и религии будет рассуждать принципиально по-другому и предвзятость наших рассуждений будет для него также очевидна.

Борьба за научный приоритет. Например, в отношении глобального потепления есть несколько разных терминов, выдвинутых разными авторами с целью закрепить свой приоритет на эту концепцию: «планетарная катастрофа) у Ал. Гора, «парниковая катастрофа) у А.В.Карнаухова, «runaway global warming)) в другой зарубежной литературе. Это приводит к тому, что поиск по одному из синонимов не выдаёт результатов по другому. Кроме того, важно отметить те трудности, которые испытывает наука с удостоверением уникальных событий, которые имели конечное число наблюдателей (весьма в духе известного решения французской Академии наук о том, что «камни с неба падать не могут), касательно метеоритов.)

Вообще, есть много разных тонких моментов, касающихся борьбы за гранты, здания, приоритет, рейтинг цитирования, влияние на политику, а также связанных с личной неприязнью, которые превращают науку из храма знаний в банку с пауками.

105.  Ошибка, связанная с сознательным и бессознательным нежеланием людей признать свою вину и масштаб катастрофы. И вытекающие из этого неправильное информирование начальства о ситуации. Сознательное — когда, например, военные скрывают некую аварию, чтобы их не наказали, желая справится своими силами. Когда люди не вызывают пожарных, сами туша пожар до тех пор, пока он не становится слишком обширным. Бессознательная — когда люди верят в то описание, которое уменьшает масштаб аварии и их вину. В Чернобыле организатор испытаний Дятлов верил, что взорвался не реактор, а бак с водой охлаждения — и продолжал подавать команды на несуществующий реактор. Вероятно, такое нежелание может распространяться и на будущее время, заставляя людей не принимать на себя ответственность за будущие глобальные катастрофы.

106.  Систематическая ошибка, связанная с эгоцентричностью.

Она состоит в том, что люди приписывают себе большее влияние на результаты коллективных действий, чем это есть на самом деле. Иногда люди преувеличивают негативное влияние (мегаломания). По мнению Майкла Анисимова, по этой причине люди преувеличивают значение собственной смерти и недооценивают смерть всей цивилизации [Ross, Sicoly 1979].

107. Систематическая ошибка, возникающая в связи с наличием или отсутствием явной причины событий.Людям свойственно более толерантно относиться к событиям, происходящим естественным образом (например, смерти от старости), чем к событиям, имеющим явную причину (смерти от болезни), и особенно — событиям, связанным со злым умыслом (убийство). В случае с глобальными рисками в настоящий момент нет объекта или человека, которого мы могли бы обвинить в том, что человеческая цивилизация находится под угрозой вымирания. Майкл Анисимов пишет: «Поскольку на горизонте не видно плохого парня, чтобы с ним бороться, люди не испытывают такого энтузиазма, который бы они, например, испытывали, протестуя против Буша».

107.  Зависимость реакции от скорости изменения величины. Человеку свойственно сильнее реагировать на внезапно возникшие

угрозы, чем на угрозы той же силы, но развившиеся постепенно. Ал Гор в своём фильме о глобальном потеплении приводит в качестве примера опыт с лягушкой. Если лягушку бросить в горячую воду, она тут же выпрыгнет, но если поместить её в сосуд с холодной водой и нагревать, она будет сидеть в нём, пока не свариться. Точно так же и жители острова Пасхи так медленно сводили деревья, что для каждого поколения проблема была не заметна.

108.   Коммерческие интересы как причины сознательного и бессознательного искажения результатов.

Ещё К. Маркс писал о том, что нет такого обмана, на который капитал не пойдёт ради прибыли, и о том, что мнения человека могут быть обусловлены его принадлежностью к тому или иному общественному классу (а также национальной группе, добавим мы сейчас), чьи интересы он вольно или невольно разделяет. Кроме того, неоднократно звучали обвинении фармацевтических компаний в подлоге или систематическом искажении результатов ради получения прибыли. Часть таких обвинений сама может быть результатом борьбы с конкурентами.

Понравилась статья? Поделиться с друзьями:
SQL - 51 | 0,190 сек. | 13.25 МБ