Риски, связанные с самокопирующимися идеями (мемами)

В книге «Эгоистичный ген» Докинз [Докинз 1993] предложил концепцию «мемов» — идей, которые способны реплицироваться, передаваясь от одного человека к другому, так ведут себя, например, слухи. Любая область, где способны существовать самовоспроизводящиеся элементы, и которая может касаться всех людей, потенциально является источником глобального риска. Возможен ли такой мем, который мог бы привести к гибели всех людей?

С одной стороны, имеем в истории примеры крайне опасных мемов: радикальные политические теории и разные формы религиозного фанатизма. С другой стороны, мему, чтобы распространяться, нужны живые люди. И поскольку люди уже существуют давно, можно предположить, что нет таких опасных мемов, которые могли бы легко самозародиться и всех истребить. Наконец, мем — это только мысль, и она не убивает сама по себе. Маловероятно, что возможна идея, которая влияла бы на всех людей без исключения, и влияла бы смертельно. Наконец, в обществе существует равновесие различных мемов. С другой стороны, опасные мемы попадают под концепцию «знаний массового поражения», введённую Биллом Джоем в статье «Нужны ли мы будущему».

Однако в нынешнюю эпоху мемы обрели возможность существовать и независимо от людей — в текстах и компьютерных программах. В современную эпоху самокопирующийся опасный мем может получить поддержку от неких технических средств. Очевидно, что сейчас я не могу придумать пример реально опасного мема, потому что если бы я его написал здесь, то это было бы преступным актом. Информация о том, как производить опасный сверхнаркотик была бы таким опасным мемом.

И подобно тому, как в случае биологического оружия опасен не один какой-либо особенно вирулентный вирус, а возможность производить много разных штаммов, быстрее, чем от них возможна защита, так и здесь может быть опасен не один какой-то мем, а то, что их появится настолько много, что они затопят любую защиту. Например, искусственный интеллект может генерировать опасные мемы.

Список существующих сейчас мемов, которые в некоторой степени

опасны:

1)   Представления об исключительности своей религии. А.П. Назаретян считает неизбежно присущее религиям свойство нетерпимости к другим религиям — важнейшей угрозой выживанию человечества в XXI веке. Он полагает, что религия, как социальный институт, способствует объединению группы людей через ненависть к другой группе. Выход он видит в создании светской системы целей, которая не подразделяет людей на плохих и хороших. Точно также работают идеи, связанные с национальными и расовыми различиями людей.

2) Знания о производстве наркотиков.

Организации, в которых основной целью является вербовка новых членов, например, секты или действующая в США банда «М13».

Самосбывающиеся пророчества о катастрофах. Ярким примером такого события было бы официальное сообщение о неизбежности глобальной катастрофы в ближайшем будущем. Например, о столкновении Земли через год с огромным астероидом. Даже если бы это сообщение было ложным, последствия его обнародования были бы катастрофическими. Большинство людей прекратило бы заниматься долгосрочными проектами, и вообще работать. Кто-то бы ударился в религию, кто-то бы совершал акты немотивированного насилия, злоупотреблял наркотиками и т. д., стремясь получить максимум удовольствия за оставшееся время. Последовавшая анархия сделала бы невозможными усилия по предотвращению катастрофы, даже если бы в них был определённый смысл.

Некая модель поведения, ведущая к распространению опасной болезни. Пример: каннибализм у неандертальцев, который возможно, стал причиной их вымирания за счёт того, что они заражались прионом вроде вызывающего «коровье бешенство», поедая мозги своих соплеменников. Или сексуальная революция, ведущая к распространению ВИЧ.

Необычайно масштабные и яркие мечты, ведущие к принятию ради них более высоких норм риска и/или «дающее право» убивать много других людей. Например, «красный террор» оправдывался тем, что, в конечном счёте, коммунизм принесёт благо гораздо большему числу людей. Новые технологии открывают перед человеком почти божественные возможности, порождая невероятные соблазны и побуждая допускать больший риск.

Мощные идеологические системы, вроде фашизма.

Борцы с глобальным риском сами могут стать глобальным риском. В каждый момент времени на Земле найдется десятки или сотни человек, считающие, что то или иное событие в ближайшем будущем является глобальным риском. С их точки зрения является «рациональным» идти на любые жертвы, чтобы остановить этот риск. Например, сбросить атомную бомбу на коллайдер.

Понравилась статья? Поделиться с друзьями: