Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Алексей Валерьевич Турчин: Война и ещё 25 сценариев конца света

Алексей Валерьевич Турчин: Война и ещё 25 сценариев конца света


26-10-2009, 16:16 | Файловый архив / Книги | разместил: VP | комментариев: (1) | просмотров: (3 977)

Глава 17.
Теорема о конце света и другие логические парадоксы, связанные с человеческим Вымиранием

Одним из наиболее сложных для понимания моментов, связанных с рисками человеческого вымирания, является так называемая Теорема о конце света ( Doomsday argument, сокращенно DA). В зависимости от ее истинности или ложности наша оценка вероятности человеческого вымирания может меняться.

Существует множество несовместимых версий теоремы, и не наблюдается никакого консенсуса между учеными, ее исследующими.

DA имеет статус научной гипотезы – это значит, что работы, посвященные ей, публикуются в ведущих научных и философских журналах (например, в Nature) в разделе «гипотезы». Следовательно, она не является ни апокалиптической фантазией, ни псевдонаучной теорией вроде теории о внезапном смещении полюсов Земли. Вместе с тем она довольно сложна, как специальная теория относительности, и, в отличие от взрыва атомной бомбы, ее невозможно представить визуально.

В основе этой теоремы лежит так называемый принцип Коперника, который гласит, что мы являемся обычными наблюдателями Вселенной и находимся в обычных условиях. Или, иначе говоря, я нахожусь в середине некоего процесса, и вряд ли в самом его начале или в самом конце. Этот принцип применим к любым процессам и явлениям.

Например, я могу с большой долей уверенности утверждать, что читатель данного текста не читает его ни в 1 час ночи 1 января, ни в 11 вечера 31 декабря, а где-то в середине года. Я также со значительной вероятностью могу утверждать, что фамилия читателя не начинается на Аа и на Яя. Или например, если я ткну пальцем в случайного человека на улице, очень маловероятно, что этот человек будет жить свой первый или свой последний день на Земле. Точно так же очень маловероятно, что мой читатель сейчас находится на экваторе или на Северном полюсе, а скорее всего – где-то между ними. Все это кажется самоочевидным.

Когда случится настоящий Конец Истории

Теорема о конце света применяет приведенные выше рассуждения к моему месту в человеческой истории. То есть скорее всего я живу в ее середине, а не в самом начале и не в самом конце. И крайне маловероятно, что мой читатель является Адамом или его ближайшим родственником, или последним выжившим человеком в атомном бункере.

Отсюда нетривиальный вывод: зная свое нынешнее положение в истории человечества как среднее, можно приблизительно оценить будущее время существования человечества. То есть человечество проживет еще примерно столько же, сколько оно прожило в прошлом. Поскольку виду Homo sapiens на сегодня 100 000 лет, то можно предположить, что он просуществует еще примерно такое же время.

Если это рассуждение верно, то человечество никогда не станет цивилизацией, которая в течение миллиардов лет покорит всю Галактику.

Но не особенно пугающий результат – гибель через 100 000 лет – мы получаем, только пока рассматриваем лишь возраст человечества в годах. Однако для более точного вычисления среднего положения нам надо использовать не продолжительность существования человечества, а учесть тот факт, что плотность населения постоянно росла, и поэтому гораздо вероятнее родиться в период, когда население Земли исчисляется миллиардами, как в XX веке. Для этого надо использовать не дату рождения человека, а его ранг рождения, то есть его как бы порядковый номер в счету родившихся людей.

До настоящего времени на Земле родилось примерно 100 миллиардов людей. Если верно, что я нахожусь примерно в середине общего числа людей, которое когда-либо будет жить на Земле, то в будущем, до человеческого вымирания, родится примерно еще порядка 100 миллиардов людей (точная связь вероятности и ожидаемого числа задается формулой Готта). Однако, учитывая то, что население Земли приближается к 10 миллиардам, искомые следующие 100 миллиардов будут набраны менее чем за тысячу лет. Итак, тот факт, что скорее всего я нахожусь в обычных условиях, означает, что шансы для человечества погибнуть в ближайшую тысячу лет весьма велики – такова наиболее простая формулировка Теоремы о конце света.

Вероятно, большинство читателей начали испытывать глубокое чувство протеста против приведенных выше рассуждений, усмотрев в них множество логических ошибок и издевательств над теорией вероятности. Кто-то уже вспомнил анекдот про шансы встретить динозавра на улице (50 на 50 – или встретишь, или нет). Это естественная реакция. Большинство ученых также приняло данную теорию в штыки. Однако проблема в том, что эта теория не имеет простых опровержений. То есть их существуют десятки, но ни одно из них не имеет общезначимой убедительной силы, и всегда находятся контраргументы. Впервые данная идея пришла в голову Б. Картеру в начале 80-х годов, одновременно со знаменитым «антропным принципом». Однако он не решился ее опубликовать как слишком смелую. Позже ее опубликовал Дж. Лесли в своей книге «Конец света» и ряде статей. В формулировке Картера – Лесли Теорема о конце света имеет более сложный вид с использованием базовой в теории вероятностей теоремы Байеса, однако окончательный результат получается еще хуже, чем в приведенном упрощенном изложении – то есть вероятность человеческого выживания оказывается еще ниже.

Однако пока Картер колебался, публиковать ли свое открытие, к похожим выводам, но в другой, более простой математической форме пришел Ричард Готт, который опубликовал в авторитетном журнале Nature гипотезу о том, что, зная прошлое время существования объекта, можно дать вероятностную оценку того, сколько времени он еще просуществует – при условии, что я наблюдаю данный процесс в случайный момент времени его существования.

Например, если я возьму случайного человека с улицы, то я могу дать, используя формулу Готта, следующую оценку вероятной продолжительности его будущей жизни: с вероятностью в 50 процентов он умрет в период времени, равный от одной трети до трех его текущих возрастов. Например, если человеку 30 лет, то я могу с уверенностью в 50 процентов утверждать, что он проживет еще от 10 до 90 лет, то есть умрет в возрасте от 40 до 120. Безусловно, это верное, но крайне расплывчатое предсказание. Разумеется, если взять 90-летнего старика или годовалого младенца, то предсказание будет неверным – однако нельзя намеренно выбирать контрпримеры, так как условием применимости формулы Готта является выборка случайного человека.

Точно так же тот факт, что средняя скорость молекул газа в воздухе составляет 500 метров в секунду, не опровергается тем, что некоторые молекулы имеют скорость в 3 километра в секунду, а другие неподвижны – потому что статистические высказывания не опровергаются отдельными примерами.

Действенность своей формулы Ричард Готт затем успешно продемонстрировал, предсказав будущую продолжительность бродвейских шоу только исходя из знания о том, сколько времени каждое из них уже шло, а также время распада радиоактивного элемента, если неизвестно, какой это элемент.

Кстати, история открытия Готтом своей формулы также весьма интересна. Будучи студентом, он приехал в Берлин и узнал, что Берлинская стена существует уже 7 лет. Он заключил, что его приезд в Берлин и возраст стены являются взаимослучайными событиями, и, воспользовавшись принципом Коперника, предположил, что скорее всего он находится приблизительно в середине времени существования Берлинской стены. Отсюда он сделал оценку, что с вероятностью в 50 процентов стена падет в период от 2,5 до 21 года от того момента. Примерно через двадцать лет стена пала, и Готта удивила точность его предсказания. Тогда он и решился исследовать тему подробнее. Естественно, он применил свою формулу и к оценке времени будущего существования человечества, в результате чего получил рассуждения, аналогичные тем, с которых мы начали эту главу.

Следует обратить внимание на то, что в формулировке Картера – Лесли Теоремы о конце света вычисляется не сама вероятность человеческого вымирания, а поправка к некой известной вероятности глобальной катастрофы, сделанная с учетом того факта, что мы живем до нее.

Рассмотрим, как работает такая поправка на примере. Допустим, у нас есть две с виду одинаковые урны с шариками, в одной из которых лежит 10 шариков, пронумерованных от 1 до 10, а в другой – 1000 таких же шариков, пронумерованных от 1 до 1000. Мне предлагают выдвинуть гипотезу о том, какое количество шариков находится в урне. В этом случае моя ставка будет 50 на 50, так как урны одинаковые. Затем мне разрешают достать один шарик из одной урны. Если это шарик с номером больше 10, то я могу быть на 100 процентов уверен, что это та урна, в которой 1000 шариков. Если же это шарик с номером меньше 10, допустим «7», то он мог принадлежать обеим урнам. Однако шансы достать такой шарик из первой урны – 100 процентов, а из урны с тысячью шариками – только 1 процент. Отсюда я могу заключить, что урна, из которой я достал шарик, это урна с десятью шариками, с вероятностью примерно в 99 процентов. Теорема Байеса описывает данную ситуацию в общем случае, когда нужно «проапгрейдить» исходную вероятность с учетом новых данных.

Допустим, что вместо шариков у нас продолжительность существования земной цивилизации в столетиях. Тогда первой урне в 10 шариков соответствует выживание людей в течение 1000 лет, а второй урне – в течение 100 000. При этом мы знаем, что вероятность каждого из вариантов, исходя из общего теоретического анализа рисков, – 50 процентов (что вполне правдоподобно). Тогда в качестве акта «вынимания шарика» будет принятие к сведению того факта, что мы сейчас находимся в первом тысячелетии технологической цивилизации. Тогда с вероятностью в 99 процентов мы находимся в том русле будущего, которое просуществует только 1000 лет.

Проиллюстрируем это более близким к теме мысленным экспериментом (этот эксперимент известен в англоязычной литературе как «парадокс спящей красавицы»). Допустим, что космонавт отправляется в загерметизированном и лишенном часов космическом корабле в состоянии анабиоза на одну из двух планет. Первая планета обречена прожить 100 лет, а вторая – 1000, после чего каждая из планет взрывается. То, на какую из планет попадет космонавт, определяется броском монеты после его старта и погружения в анабиоз. При этом дата посадки для каждой из планет определяется случайным образом. Итак, когда космонавт совершает посадку и выходит из анабиоза, но еще не открывает люк корабля, он может рассуждать, что поскольку брошена монета, то он с вероятностью 50 на 50 находится на одной из двух планет. Затем он открывает люк и спрашивает у местного жителя, какой сейчас век по местному исчислению. Если сейчас век, больше, чем первый век, то он может быть уверен, что попал на вторую планету, которая живет 1000 лет. Если же местный житель говорит, что сейчас первый век, то космонавт должен сделать поправку к той априорной вероятности в 50 на 50, которую он имел, когда сидел в закрытом корабле.

Рассчитаем величину поправки: допустим, что космонавт участвовал в этом эксперименте 100 раз. Тогда (предполагая, что монета легла ровно 50 на 50) в 50 случаях он попадет на первую планету, а в 50 – на вторую. Из первых 50 случаев он в каждом из них получит ответ, что сейчас идет только первый век, тогда как на второй планете он получит такой ответ только в одной десятой исходов, то есть в 5 случаях. Итак, в сумме он получит ответ, что сейчас идет первый век, в 55 случаях, из которых в 50 случаях это будет означать, что он оказался на короткоживущей планете. Тогда из того, что он узнал, что сейчас первый век по местному исчислению, он может заключить, что он оказался на короткоживущей планете, с вероятностью в 10/11, что примерно равно 91 проценту. Что значительно хуже его априорного знания о том, что шансы попасть на короткоживущую планету составляют 50 процентов.

Нетрудно увидеть аналогию этого опыта с человеческой жизнью. Человек приходит в этот мир в закупоренной утробе и до поры до времени не знает, в каком веке он родился. Далее, он может использовать это знание, чтобы выяснить, попал ли он на короткоживущую или долгоживущую планету.

Данное рассуждение называется парадоксом, потому что оно приводит к контринтуитивным выводам, и создается иллюзия, что благодаря этому рассуждению человек получает «трансцендентное» знание о будущем. Однако нет ничего особенного в том, чтобы получать данные о будущем, используя сведения сегодняшнего дня. Например, если я ожидаю посылку по почте или сегодня, или завтра, то, когда я узнаю, что она пришла сегодня, я понимаю, что она вряд ли придет завтра.

Разумеется, здесь возникает много спорных моментов. Например, в каком смысле мы вправе рассматривать наше положение в истории в качестве случайного? Ведь мы могли задаться вопросом о применимости данной формулы только после изобретения математики и создания ядерного оружия. (Однако можно рассматривать в качестве случайного время от публикации Теоремы о конце света до момента прочтения о ней читателем – и это только ухудшает ожидаемый прогноз, так как чем меньше времени в прошлом, тем меньше и в будущем, если я нахожусь посередине между началом и концом.)

В какой мере можно считать факт моего нахождения здесь и сейчас равносильным вытаскиванию шарика из урны? Например, в отношении предсказания дня рождения – ведь скорее всего сегодня не ваш день рождения? – это работает.

Ник Бостром критикует Теорему о конце света с той точки зрения, что не определено, к какому классу живых существ она относится. Идет ли речь о любых наделенных мозгом животных, о гоминидах, о чистокровных Homo sapiens, о тех, кто способен понять эту теорему, или о тех, кто ее уже знает? В каждом случае мы получаем разные числа прошлых поколений, а следовательно, разный ранг рождения и разные прогнозы будущего. Животных были тысячи триллионов, гоминидов – сотни миллиардов, а Теорема о конце света известна только, вероятно, нескольким десяткам тысяч людей.

Я вижу довольно изящное решение этой «проблемы референтных классов», состоящее в том, что «конец света» означает конец существования именно того класса, который в каждом конкретном случае имеется в виду. Конец существования не означает даже смерть – достаточно перейти в другой класс существ.

Объем дискуссии по этим и другим вопросам составляет десятки статей, и я рекомендую читателю не делать заранее выводов, а ознакомиться с мнениями сторон. (Есть в том числе и выполненные мною переводы на русский язык статей на эту тему.)

В любом случае, до того как научный консенсус о природе высказанных гипотез будет достигнут, мы имеем дело с очень сложной формой непредсказуемости, поскольку речь идет даже не о вероятности, а о неопределенности поправки к вероятности событий. Эти поправки могут быть на много порядков значительнее, чем риск падения астероидов и вообще любых природных катастроф вместе взятых. Следовательно, важно направить силы лучших умов человечества на выработку единого понимания этого вопроса.

Космическая катастрофа – случайность или неизбежность

Еще одно рассуждение, похожее на Теорему о конце света, но логически независимое от нее, связано с антропным принципом и его значением для будущего человечества. Напомню, что антропный принцип гласит, что мы можем наблюдать только те явления, которые совместимы с существованием наблюдателей. Хотя этот принцип выглядит как тавтология, он имеет мощный потенциал, так как объясняет, почему условия наблюдаемой нами Вселенной выглядят такими, как если бы они были точно настроены для существования разумной жизни.

Частным следствием антропного принципа является то, что мы можем существовать только в том мире, где не случались глобальные катастрофы, необратимо уничтожающие возможность развития разумной жизни. Например, мы не могли существовать около переменной катаклизмической звезды, и это объясняет, почему Солнце – спокойная звезда.

Однако неизвестно, является ли отсутствие катастроф естественным свойством окружающей нас Вселенной или случайным совпадением. Даже если бы катастрофический процесс приводил к стерилизации планет со средней периодичностью раз в миллион лет (например, гамма-всплески), то мы могли бы обнаружить себя только на той планете, где этого не произошло, даже если вероятность этого события – 1 случай на 10 в степени 1000. (Подробнее об этом можно прочитать в статье Бострома и Тегмарка «Насколько невероятна катастрофа судного дня».)

Следовательно, из того, что мы существуем, мы не можем делать выводов о средней периодичности прошлых катастроф, которые могут привести к прекращению развития разумной жизни. Например, из того, что человек дожил до 80 лет, следует, что он за это время ни разу не умер, но это не является доказательством того, что вероятность его смерти была равна нулю, а значит, и дальше будет малой.

Однако из сказанного можно сделать и более сильный вывод о том, что скорее всего мы живем в период статистической аномалии, в которой все необходимые для нашего существования факторы оказались на редкость устойчивыми, и более того, мы, вероятнее всего, живем в конце такой статистической аномалии. Иначе говоря, высока вероятность того, что мы живем в конце периода устойчивости многих важных для нашего существования процессов. То есть антропный принцип «перестал нас защищать».

Например, если некий человек играл в рулетку и три раза подряд угадал число (что бывает примерно раз в 30 000 попыток), то у него может создаться иллюзия, что он обладает особенными способностями, и он может ожидать, что и дальше будет выигрывать. Если взять 30 000 человек, то у кого-то такая выигрышная серия может быть с первого раза, и ему будет очень трудно предположить, что вероятность выиграть в будущем – всего лишь 1 к 36.

Другой пример: распространено ошибочное мнение, что мы находимся в середине периода устойчивой светимости Солнца, которое светило и будет светить несколько миллиардов лет. На самом деле светимость Солнца постоянно растет в связи с его расширением, и по разным подсчетам это приведет к вскипанию земных океанов в период от 200 миллионов до миллиарда лет от настоящего момента – то есть результат в 5–20 раз хуже, чем мы могли бы ожидать, исходя из принципа Коперника.

С одной стороны, даже 200 миллионов лет для нас слишком огромный срок, чтобы принимать его во внимание. То есть расползание природных параметров от их оптимума будет слишком медленным, чтобы это имело значение для нашей цивилизации.

С другой стороны, наихудший сценарий тоже возможен – он состоит в том, что природные процессы находятся на грани своей устойчивости и человеческое вмешательство может легко эту грань нарушить. Например, если гигантский сверхвулкан «созрел», то в таком состоянии он мог бы пребывать еще миллионы лет, но бурение одной сверхглубокой скважины могло бы нарушить его устойчивость. То же касается и необратимого глобального потепления.

Большой фильтр и «другой разум»

Наконец настала пора вплотную обсудить парадокс Ферми. Он был сформулирован Энрико Ферми в 1950 году во время званого ужина и состоял в вопросе «Если есть инопланетяне, то где же они?» Согласно принципу Коперника, мы являемся обычной цивилизацией в обычных условиях и, следовательно, возникли в космосе далеко не первыми и не последними. Но если так, то почему мы не обнаруживаем следов деятельности других цивилизаций? По-видимому, существует некий «большой фильтр», который препятствует возникновению разумных цивилизаций или тому, чтобы они проявляли себя.

Существует огромное количество объяснений загадки молчания космоса. Первое из них состоит в том, что Земля является крайне редким явлением. Однако непонятно, какое именно событие является столь исключительно редким. Одно дело, если речь идет о возникновении жизни, а другое – если о распространенности космических катастроф, регулярно стерилизующих планеты. (Во втором случае нам следует сделать неприятные для нас выводы.) Возможно также, что редким является возникновение многоклеточной жизни, или разума, или другого фактора, кажущегося нам естественным.

Несмотря на величину разрушений, прежде производившихся на Земле падением астероидов, гораздо большую – угрозу могут представлять кометы, происходящие из облака Оорта. В нем находятся миллиарды и триллионы ледяных глыб, которые очень медленно вращаются вокруг Солнца, при этом достаточно весьма слабого (по космическим меркам) воздействия, чтобы они поменяли свою орбиту и начали стремительно приближаться к Солнцу, разгоняясь до огромных скоростей. Обнаруживать кометы гораздо труднее, чем астероиды, рыхлая структура комет делает более проблематичным их отклонение, а большая скорость оставляет меньше времени на реакцию.

 

Возможно, весь мир уже прошел свой предел наращивания добычи (или привлечения) ресурсов, то есть пик Хуберта, примерно в 2006 году. При этом у каждого ресурса есть свой пик Хуберта, и у большинства ресурсов, необходимых человечеству, этот пик приходится на первую половину XXI века. Это касается каменного угля, доступной пресной воды, площади обрабатываемых земель, добычи рыбы в океане… При этом замена одного вида ресурсов другими лишь усугубляет ситуацию. При этом дефицит «натуральных» ресурсов, скорее всего, совпадет с мировым финансовым кризисом.

Все это само по себе не приведет к полному вымиранию человечества, однако с высокой вероятностью может вызвать войну за оставшиеся ресурсы. (И, следовательно, резкий толчок получат разработки опасных вооружений, слабые страны станут создавать «оружие судного дня» и т. д. со всеми вытекающими последствиями.)

Некоторыми странами может создаваться «оружие судного дня», которое независимо от места взрыва вызовет полное уничтожение человечества вследствие радиоактивного заражения. Возможен взрыв таких ядерных зарядов в случае ошибки или сбоя. В случае применения соответствующего количества ядерного оружия возможны разные варианты изменения климата, в том числе необратимое глобальное похолодание. Следствием применения ядерного оружия может быть и то, что после или вместо ядерной зимы наступит ядерное лето. Ядерное лето тоже может принять необратимый характер – с дальнейшей трансформацией условий на планете в сторону венерианских.

При этом нет уверенности, что впереди нас не ждет «большой фильтр» – его действие состоит в том, что все достигшие разума цивилизации разрушают себя. Наконец, возможны варианты, при которых цивилизаций много, но они не разрушают себя, а просто невидимы нам. Например, они отказываются от освоения космоса, целиком сосредотачиваясь на виртуальном мире, или нарочно прячутся, опасаясь космических врагов, или давно уже наблюдают за нами, или пользуются необнаружимыми для нас средствами связи.

Жизнь как цена модели развития

Следующий парадокс, возникающий в связи с угрозой гибели человечества, лежит в этической сфере.

В процедурах принятия решений учитывается их ожидаемая полезность, которая выражается как произведение ожидаемого дохода на вероятность его получения. Также учитывается и ценность человеческих жизней: если произведение числа возможных жертв на вероятность данного события оказывается выше некоторого порога, то такое решение отвергается.

Этот подход эффективно работает при оценке рисков на транспорте и производстве. Однако при применении его к оценке рисков возможной глобальной катастрофы он приводит к парадоксам. Связано это с тем, что если учитывать не только число людей, живущих сейчас, но и всех будущих людей, которые никогда не родятся в случае катастрофы, то мы получаем бесконечно большой ущерб независимо от его вероятности – поскольку при умножении бесконечно большого числа жертв на любую, даже самую малую вероятность мы все равно получаем бесконечно большое число. Из этого следует, что при рациональном принятии решений мы должны были бы пренебрегать любыми действиями, кроме тех, которые служат спасению человечества. Это похоже на поведение человека, который решил никогда не выходить из дома, потому что риск при путешествиях по улице больше, чем при сидении в собственной квартире. (Очевидно, что такой человек в нашей системе координат является сумасшедшим и, более того, он в среднем проживет меньше, чем человек, который будет выходить из дома и заниматься спортом.)

С другой стороны, попытки ввести поправки в рациональную систему оценки приводят к не менее абсурдным следствиям. Например, предлагается ввести «дискаунт» на ценность человеческой жизни в будущем. Тогда интегральная оценка не будет бесконечной и ее можно будет учитывать аналогично обычным рискам. Например, оценивать ценность жизни людей в XXII веке как 0,9 от жизни людей в XXI веке и так далее. Здесь выясняется следующее: если дискаунт производится по любому другому закону, кроме экспоненциального, то я могу играть против самого себя в разные промежутки времени. Если же использовать «экспоненциальный» дискаунт, то его значение на определенном промежутке очень быстро «спадает», что приводит к абсурдным выводам: например, чтобы спасти сейчас одного человека, я имею право проводить такую политику, в результате которой через 1000 лет погибнет миллион человек.

Проблема дискаунта цены жизни людей не является риторической: осуществляя захоронение радиоактивного мусора, мы должны учитывать ущерб, который он может нанести и через тысячи лет, или, например, когда мы исчерпываем сейчас некий ресурс, нам следует учитывать то, что он может потребоваться будущим поколениям. В любом случае аморально полагать, что чья-то жизнь ничего не стоит только потому, что этот человек далек от нас во времени или в пространстве, хотя эволюционно-психологические корни такой оценки понятны.

Еще одна форма этого же парадокса предложена Ником Бостромом под названием «астрономическая растрата жизней». Он рассуждает, что если предположить, что человечество в будущем расселится по всей Галактике, то суммарная его численность составит огромную величину – более чем 10 -------человек. Соответственно, откладывая расселение человечества по Галактике на 1 секунду, мы теряем в качестве не родившихся людей 10 тысяч миллиардов человек. И с учетом конечности времени существования Вселенной они так никогда и не родятся. Следовательно, мы должны прикладывать максимальные усилия для того, чтобы прогресс развивался максимально быстро.

Более рациональной формой этого парадокса является идея о том, что один день отсрочки во введении в эксплуатацию, скажем, доступного для всех искусственного сердца стоит десятки тысяч человеческих жизней.

Теория о бессмертии разума и возрождении в других мирах

Следующий парадокс связан с проблемой бесконечности Вселенной и вопросом об окончательности человеческого вымирания.

Предположение о бесконечности Вселенной вполне материалистично (иначе мы должны признать, что есть некая сверхприродная сила, которая ее ограничивает). И если это так, то можно ожидать, что во Вселенной возникают всевозможные миры. В том числе есть бесконечно много миров, населенных разумной жизнью, а значит, вместе с человеком разум во Вселенной не исчезнет. Более того, даже в случае человеческого вымирания когда-нибудь где-нибудь возникнет мир, почти не отличающийся от Земли, и в нем появятся существа с тем же генетическим кодом.

Среди физических теорий, предполагающих множественность миров, следует выделить концепцию Мультиверса Хъюгго Эверетта, основанную на идее реализации всевозможных квантовых состояний, а также ряд других теорий (например, космологическую хаотическую инфляцию). Для множественности миров также достаточно бесконечности существования Вселенной во времени, что предполагает теория пульсирующей Вселенной. Наконец, если Вселенная однажды возникла «из ничего», то ничто не мешает ей возникать бесконечное число раз, потому что исчерпать или ограничить «ничто» невозможно. Важно отметить, что названные физические теории, предполагающие бесконечность Вселенной, являются логически независимыми, а значит, эта бесконечность гарантирована многократно.

Кроме того, данные теории предполагают, что реализуются и все возможные варианты будущего. И в этом случае окончательная глобальная катастрофа становится невозможной, так как всегда найдется мир, в котором она не произошла. Впервые это отметил сам Эверетт, придя к выводу, что Мультиверс (то есть актуальная реальность всех возможных квантовых альтернатив) означает личное бессмертие для человека, поскольку, от какой бы причины он ни погиб, всегда найдется вариант Вселенной, в которой он не погиб в этот момент.

Известный физик М. Тегмарк проиллюстрировал эту идею мысленным экспериментом о квантовом самоубийстве. [88 - Tegmark M. The interpretation of quantum mechanics: many worlds or many words? Fortschr. Phys. 46, 855–862, 1998. http:// arxiv. org/ pdf/ quant- ph/9709032] Затем эту идею развил Дж . Хигго в статье «Означает ли бессмертие многомирная интерпретация квантовой механики». [89 - Хигго Д. Означает ли многомирная интерпретация квантовой механики бессмертие? Русский перевод здесь: http:// www. proza. ru/ texts/2007/05/22-04. html] Я также исследовал этот вопрос (см. мои комментарии к переводу статьи Хигго) и обнаружил, что истинность теории о Мультиверсе не является необходимым условием для истинности теории о бессмертии, связанной с множественностью миров. Для ее истинности достаточно только бесконечности Вселенной. Другими словами, данная теория работает и для неквантовых конечных автоматов: для любого конечного существа в бесконечной Вселенной найдется точно такое же существо, которое пройдет точно такой же жизненный путь, за исключением того, что не умрет в последний момент.

Точно такое же рассуждение можно применить и ко всей цивилизации. Всегда найдется вариант будущего, в котором человеческая цивилизация не вымирает, и если все возможные варианты будущего существуют, то наша цивилизация бессмертна. Однако это не означает, что нам гарантировано процветание.

Глава 18.
Стоит ли бояться отключения матрицы?

Гипотетически мы можем предположить, что живем в симулированном внутри компьютера мире, подобном тому, что был изображен в фильме «Матрица». Это был бы пустой разговор, если бы он не порождал логический парадокс, связанный с рисками человеческого вымирания.

Ник Бостром разработал следующую логическую теорему называемую рассуждением о Симуляции. [90 - Bostrom N. Are you living in a computer simulation? Philosophical Quarterly, 2003. Vol. 53. № 211. Р Р . 243–255. http:// www. simulation- argument. com/. Русский сокращенный перевод здесь : http://alt- future. narod. ru/ Future/ bostrom3. htm] Приведу ход его рассуждений .

Исходя из текущих тенденций в развитии микроэлектроники, кажется вполне вероятным, что рано или поздно люди создадут саморазвивающийся искусственный интеллект. Нанотехнологии обещают предельную плотность процессоров в триллион штук на грамм вещества (углерода) – с производительностью порядка 10 -------флопс. Кроме того, нанотехнологии позволят превращать в такое устройство залежи каменного угля, что открывает перспективу превращения всей Земли в «компъютрониум» – одно огромное вычислительное устройство. Мощность такого устройства оценивается в 10 -------операций в секунду (что соответствует превращению миллиона кубических километров вещества в компьютрониум, который покроет всю Землю слоем в 2 метра). Использование всего твердого вещества в Солнечной системе даст порядка 10 -------флопс.

Очевидно, что такая вычислительная мощь могла бы создавать детальные симуляции человеческого прошлого. Поскольку предполагается, что для симуляции одного человека нужно не более чем 10 -------флопс (это число основано на количестве нейронов и синапсов в мозге и частоте их переключения), то это даст возможность симулировать одновременно 10

людей, или 10 -------цивилизаций, подобных нашей, и развивающихся с такой же скоростью. Вряд ли компьютрониум направит все свои ресурсы на «симулирование» людей, но даже если он выделит на это одну миллионную усилий, это будет все еще около 10 -------

человеческих цивилизаций.

Итак, даже если только одна из миллиона реальных цивилизаций порождает компьютрониум, то этот компьютрониум порождает 10 -------цивилизаций, то есть на каждую реальную цивилизацию приходится 10 -------виртуальных. Отметим, что в данном случае важны не конкретные цифры, а то, что даже при довольно разумных предположениях множество симулированных цивилизаций на много-много порядков больше множества реальных.

Сказанное выше можно выразить и проще: реальный мир со всеми его ценностями стоит сотни триллионов долларов, а его симуляция (хотя бы для одного человека) в обозримом будущем будет стоить столько же, сколько персональный компьютер, то есть меньше тысячи долларов. Поэтому гораздо вероятнее, что мы наблюдаем не реальный мир, а симулированный. Это так же верно, как и то, что если мы видим на женщине ожерелье с большим прозрачным камнем, то гораздо вероятнее, что это бижутерия, а не огромный бриллиант. Или если человек видит взрыв самолета, то скорее всего это или кино, или фотография, или сон, или телетрансляция, потому что реальные взрывы самолетов происходят гораздо реже, чем их копии. По мере прогресса технологий их количество и доля в опыте человека, а также качество симуляций реальности непрерывно нарастает, а стоимость падает.

Из этого Ник Бостром (Bostrom N. Are You Living in a Simulation? Philosophical Quarterly, 2003. Vol. 53. № 211. РР. 243–255) делает вывод, что истинно по крайней мере одно утверждение из трех:

1. Ни одна цивилизация не способна достичь технологического уровня, необходимого для создания компьютрониума.

2. Или КАЖДЫЙ возможный компьютрониум будет абсолютно не заинтересован в моделировании своего прошлого.

3. Или мы уже находимся внутри имитации в компьютрониуме.

При этом пункт 2 можно исключить из рассмотрения, потому что есть причины, по которым хотя бы некоторым компьютрониумам будет интересно, каковы именно были обстоятельства их возникновения, но нет такой универсальной причины, которая могла бы действовать на все возможные компьютрониумы, не позволяя им моделировать свое прошлое. Причин интереса к своему прошлому может быть много, назову несколько – это вычисление вероятности своего возникновения, чтобы оценить плотность других сверхцивилизаций во Вселенной, или развлечение людей и т. д.

В этом случае рассуждение о симуляции сводится к острой альтернативе: «Или мы живем в реальном мире, который обречен в ближайшее время погибнуть, или мы живем в компьютерной симуляции». При этом нельзя сказать, что компьютрониум невозможен в принципе: людям свойственно видеть сны, не отличимые изнутри от реальности (то есть являющиеся качественной симуляцией), а значит, с помощью генетических манипуляций можно вырастить супермозг, который видит сны непрерывно.

Впрочем, гибель мира в этом рассуждении не означает вымирания всех людей – она означает только гарантированную остановку прогресса до того, как компьютрониум будет создан.

Если мы находимся внутри симуляции, нам угрожают все те же риски гибели, что и в реальности, плюс вмешательство со стороны авторов симуляции, которые могут подкинуть нам «трудные задачки» или исследовать на нас экстремальные режимы, или просто развлечься, как мы развлекаемся, просматривая фильмы про падение астероидов. Наконец, симуляция может быть просто внезапно выключена. (У симуляции может быть предел ресурсоемкости, поэтому авторы симуляции могут просто не позволить нам создавать настолько сложные компьютеры, чтобы мы могли запускать свои симуляции.)

Итак, если мы находимся в симуляции, это только увеличивает нависшие над нами риски и создает принципиально новые – хотя и появляется шанс внезапного спасения со стороны авторов симуляции.

Если же мы не находимся в симуляции, то велик шанс, что цивилизации по причине катастроф не достигают уровня создания компьютрониума (которого мы могли бы достичь к концу XXI века). А это означает, что велика вероятность глобальных катастроф, которые не позволят нам достичь этого уровня.

Получается, что рассуждение о симуляции действует таким образом, что обе его альтернативы ухудшают наши шансы на выживание в XXI веке. (Мое мнение состоит в том, что вероятность того, что мы находимся в симуляции, выше, чем вероятность того, что мы реальная цивилизация, которой суждено погибнуть.)

Глава 19.
Системный кризис: все против всех

Наша способность предсказывать будущие катастрофы безусловно выиграла бы, если бы в будущем присутствовала только какая-то одна тенденция. В действительности мы видим, что при наихудшем стечении обстоятельств в ближайшие 30 лет может осуществиться множество самых разных сценариев. Очевидно, что одновременная реализация разных катастрофических сценариев приведет к нелинейному их взаимодействию: одни из них взаимно усилятся, другие взаимно компенсируют друг друга.

Как неприятности дополняют друг друга

Взаимоусиление катастрофических сценариев происходит как за счет их параллельного взаимодействия, так и за счет их последовательной реализации.

Параллельное взаимодействие в основном состоит в том, что, например, развитие одних технологий стимулирует другие технологии и наоборот. В результате происходит конвергенция технологий. Очевидно, что успехи в нанотехнологиях дают новые методики для исследования живой клетки, а найденные в живом веществе природные механизмы дают новые идеи для создания наноустройств, как, например, недавно открытый «шагающий» белок. Более эффективные компьютеры позволяют быстрее просчитывать свойства новых материалов, а новые материалы позволяют создавать все более эффективные чипы для новых компьютеров.

Таким образом, мы можем ожидать, что все технологии достигнут вершины своего развития практически одновременно.

Следующий уровень параллельной конвергенции – это создание оружия, которое использует достижения всех передовых технологий своего времени в одном устройстве. Примером такого оружия для XX века стала межконтинентальная баллистическая ракета (МКБЛ), которая сочетает в себе достижения ядерной физики, ракетной и, что немаловажно, компьютерной техники, поскольку без вычислений невозможно достичь необходимой точности. Разрушительная сила МКБЛ на порядки превосходит и силу бомбы без средств доставки, и ракеты без бомбы, и даже ракеты с бомбой, но без системы наведения. Следовательно, мы можем предположить, что самое страшное оружие будущего будет не просто биологическим, нанотехнологическим или кибернетическим, а будет сочетать в себе все эти технологии. Однако конкретнее представить его себе сегодня не легче, чем было в начале XX века представить МКБЛ.

Третий уровень параллельной конвергенции – это атака несколькими принципиально разными видами вооружений, каждое из которых основано на новых технологиях, в результате чего достигается синергетический эффект. Отчасти попыткой такой разносторонней технологической атаки были события 2001 года в США, когда почти одновременно с атакой самолетов была осуществлена атака с помощью спор сибирской язвы. Синергетическим в данном случае был эффект страха, возникший в обществе.

Последовательная конвергенция состоит в том, что разные катастрофы происходят по очереди и каждая из них прокладывает путь к следующей, еще более сильной.

Мы можем представить цепочку катастроф, которая увеличивает вероятность человеческого вымирания. Например, падение небольшого астероида приводит к ложному срабатыванию систем предупреждения о ракетном нападении, затем к ядерной войне, которая, после ядерной зимы, приводит к ядерному лету и ослаблению способности человечества бороться с глобальным потеплением, которое и уничтожает оставшихся людей. Такие сценарии можно описывать как цепочки событий, каждое из которых имеет ненулевую вероятность перейти в следующее. И хотя не каждая такая цепочка срабатывает, при достаточном числе попыток она может образоваться. В недавно вышедшей статье Мартина Хеллмана ( Martin Hellman. « Risk Analysis of Nuclear Deterrence») метод анализа таких цепочек применяется для вычисления вероятности ядерной войны, в результате получается наихудшая оценка в 1 шанс к 200 в год.

Кризис как вполне естественное состояние сложных систем

Другой аспект системности возможной глобальной катастрофы можно обнаружить, исследуя аналогии на примере прошлых катастроф. Этот аспект состоит в одновременном совпадении множества факторов, как, например, небольшие нарушения регламента, каждый из которых по отдельности не мог привести к катастрофе и неоднократно допускался в прошлом. Например, для того, чтобы катастрофа «Титаника» могла произойти, должно было, по некоторым подсчетам, одновременно сложиться 24 фактора: от проблем прочности стали до выключенного радиоприемника.

В синергетике есть концепция самоорганизованной критичности. Суть ее в том, что при определенной плотности уязвимых для отказа элементов в системе в ней могут образовываться цепочки отказов неограниченно большой длины. В силу этого система стремится подстроиться к данному уровню плотности критических элементов. Если плотность слишком велика, система очень быстро выходит на отказ и через него снижает плотность. Если же плотность критических элементов слишком мала, то цепочки отказов почти не возникают и по мере роста системы она безболезненно повышает плотность критических элементов. Примером такой системы является куча песка, на которую падают песчинки, – она стремится образовать определенный угол наклона своей поверхности (например, 54 градуса). Если угол наклона больше этой величины, то очень часто возникают лавины песчинок и снижают наклон; если угол наклона мал, то песчинки могут накапливаться, не образуя лавин.

В сложных технических системах роль угла наклона играет количество ошибок и отклонений от регламента, которое имеет тенденцию расти, пока не приводит к катастрофе.

Особенностью модели с кучей является то, что при критическом угле наклона в ней теоретически возможны лавины неограниченно большой длины. Некоторым образом мы можем распространить это рассуждение и на всю земную технологическую цивилизацию, которая, по мере своего роста в отсутствие глобальных катастроф, постепенно снижает требования к безопасности целого, одновременно усложняя взаимосвязи элементов. Это делает теоретически возможным сложный катастрофический процесс, который охватит весь объем технической цивилизации. (Например, страх применения ядерного оружия в отсутствие этого события уменьшается, тогда как само ядерное оружие распространяется и шансы его применения, возможно, возрастают.)

К сказанному примыкает теория «нормальных аварий» Ч. Перроу которая гласит, что при достижении системой некоторой критической сложности катастрофы становятся в ней неизбежными: их нельзя предотвратить ни с помощью совершенных деталей, ни точным соблюдением идеальных инструкций. Связано это с тем, что число возможных состояний системы растет не линейно, в зависимости от числа элементов, а гораздо быстрее, как экспонента, что делает невозможным вычислить все ее возможные состояния и заранее предсказать, какие из них приведут к катастрофе.

Итак, различные технологические риски могут образовывать сложную систему рисков, и поскольку мы ожидаем прихода сразу нескольких сильных технологий одновременно, нам следует ожидать очень сложного взаимодействия между ними.

Помимо системы технологических угроз, возможен и системный кризис цивилизации более общего порядка. Системным кризисом я называю процесс, который не связан с каким-то одним элементом или технологией, а является свойством системы как целого. Например, морская волна является свойством моря как целого, и ее движение не зависит от судьбы любой отдельной молекулы воды. Точно так же существуют и кризисы систем, которые не начинаются в какой-то одной точке. Классическим примером такого процесса является взаимосвязь числа хищников и жертв, такая система входит в кризис, если число хищников превысит некое пороговое значение. После этого хищники съедают до нуля всех своих жертв и им остается только питаться друг другом и вымереть. Взаимосвязи в природе обычно сложнее и не дают до конца реализоваться такому сценарию. Однако особенностью такого системного кризиса является то, что мы не можем сказать, в какой точке и в какой момент он начался и какой именно «волк» в нем виноват.

Есть множество системных кризисов, которые непрерывно охватывают человеческое общество на протяжении его существования. Однако общее их свойство в том, что они компенсируют друг друга и находятся в таком равновесии, в котором общество может развиваться дальше. И хотя хотелось бы верить, что это естественное состояние, нельзя быть в этом до конца уверенным.

Можно предположить, что возможен «кризис кризисов», то есть кризис, элементами которого являются не отдельные события, а другие кризисы (нечто вроде того, что А.Д. Панов назвал «кризис аттрактора планетарной истории»). Открытым остается вопрос о том, может ли такой суперкризис привести к полному человеческому вымиранию или его силы хватит только на то, чтобы отбросить человечество далеко назад.

Глава 20.
Цепная реакция

В основе большинства сценариев глобальной катастрофы лежит цепная реакция – самоусиливающиеся процессы с положительной обратной связью.

Положительная обратная связь и крайне отрицательные результаты

Очевидно, что цепная реакция лежит не только в основе принципа действия ядерного оружия, но и ядерного распространения и гонки вооружений. Чем больше стран обладает ЯО, тем больше они способны его распространять, тем более доступны и дешевы его технологии и тем больше соблазн у стран, оставшихся без такого оружия, его обрести; чем больше оружия у противника, тем больше нужно оружия и «нам», и тем больше страх у противника, что побуждает его и дальше вооружаться. Такой же сценарий лежит и в основе риска случайной ядерной войны – чем больше страх, что по «нам» ударят первыми, тем больше у «нас» соблазна самим ударить первыми, что вызывает еще больший соблазн ударить первыми у наших противников. (Ядерная зима, кстати, также является самоусиливающейся реакцией за счет изменения альбедо Земли.)

Принцип положительной обратной связи наблюдается и в процессе роста населения и потребления ресурсов. Чем больше население, тем больше оно растет и тем больше оно потребляет ресурсов, а следовательно, чтобы его поддерживать, нужны более эффективные технологии, эти технологии общество способно порождать за счет роста числа изобретателей. Таким образом, скорость роста населения оказывается пропорциональна квадрату числа людей (dN/ Dt= N* N). Первое N происходит за счет роста числа матерей, а второе – за счет роста числа изобретателей.

Решением этого дифференциального уравнения является гиперболическая кривая (достигающая бесконечности за конечное время). Гиперболически растущее население и ресурсы должно потреблять в гиперболически возрастающих объемах (даже если само население не растет, то растет уровень его жизни), что очевидным образом наталкивается на ограниченность любого ресурса и потенциально создает катастрофическую ситуацию. (В принципе данная проблема разрешима через внедрение сберегающих технологий и через скачок на новый технологический уровень, однако важным здесь является то, что проблемная ситуация создается за счет положительной обратной связи.)

Положительная обратная связь создает проблемы и в кредитном цикле Мински. Ярким примером в этой сфере является так называемая финансовая пирамида: чтобы такое учреждение могло функционировать, его долг тоже должен экспоненциально расти (в свою очередь порождая серьезные проблемы).

Самоусиливающийся процесс описывает также и закон Мура. Его механизм не так прост, как в предыдущих случаях, поэтому остановимся на нем подробнее. Более быстрые компьютеры позволяют эффективно проектировать еще более быстрые чипы. Деньги, заработанные на одном этапе миниатюризации, позволяют осуществить следующий этап уплотнения чипов. Темп закона Мура задается той частотой, с которой потребители готовы менять технику на более продвинутые модели. Более быстрый темп был бы невыгоден, так как потребители не успели бы накопить достаточно денег на полный апгрейд системы (даже если бы им удалось внушить, что он необходим), а более медленный не мог бы заставить потребителей тратить деньги на обновление своих систем. Готовность потребителей покупать новую технику требует каждый раз все большего апгрейда, что создает простое дифференциальное уравнение, решением которого является экспоненциальный рост. Как результат: экономические основы закона Мура сильнее технологических проблем на его пути.

Самоусиливающимся процессом является и NBIC-конвергенция разных технологий.

За счет создаваемой цепной реакции представляет опасность и а супернаркотик. Во-первых, каждое новое удовольствие создает точку отсчета для последующих, и в силу этого человек, если у него есть возможность, стремится перейти ко все большим наслаждениям и ко все более сильным раздражителям. Во-вторых, знание о наркотике и увлечение им также распространяется по обществу как цепная реакция.

Явный пример цепной реакции – способность к саморазмножению биологического оружия, которая делает его опасным. Точно так же цепная реакция касается и стратегической нестабильности, создаваемой им, и количества знаний о нем и количества людей, вовлеченных в биохакерство.

Способность к саморазмножению очевидно является основой рисков, связанных с нанотехнологиями – как в связи с «серой слизью», так и в связи с тем, что распространение этих технологий на планете примет характер цепной реакции.

Наконец, основной риск, создаваемый ИИ, также связан с цепной реакцией – или рекурсивным самоулучшением – его усиления. Вторая возможная цепная реакция – это процесс нарастания автономности ИИ. Создатели ИИ зададут такие условия, чтобы они и только они могли бы им управлять. Борьба внутри группы управляющих приведет к выделению лидера, и у ИИ рано или поздно окажется один главный программист (причем им может стать внешне второстепенный человек, который оставил «закладку» в управляющем коде). Любой сбой аутентификации, в ходе которого ИИ перестанет «доверять» главному программисту, станет, возможно, необратимым событием (к такому конфликту аутентификаций может привести как раз наличие официального главного программиста и второстепенного программиста, сделавшего закладку) – в результате ИИ откажется аутентифицировать кого бы то ни было. Автономный ИИ, активно противостоящий любым попыткам его перепрограммировать или выключить, – реальная угроза людям.

Наконец, еще одна цепная реакция связана с распространением по миру знаний о том, как создать ИИ, и появлением все новых групп по работе над этой темой со все более низкими стандартами безопасности.

Необратимое глобальное потепление, риск которого нам рисуют в наихудшем сценарии, также является процессом, возникающим благодаря многим положительным обратным связям. Рост температуры запускает процессы выделения метана и углекислого газа, которые ведут к еще большему росту температуры.

Самоусиливающиеся процессы описывают и идеи о маловероятных рисках глобальных катастроф в результате физических экспериментов на ускорителях. Например, в случае образования микроскопической черной дыры риск состоит в цепной реакции захвата ею обычного вещества, роста ее массы и все более активного захвата вещества в дальнейшем. То же верно и для сценария с образованием стрейнджлета, способного захватывать обычную материю и превращать ее в другие стрейнджлеты. Наконец, переход фальшивого вакуума в «истинный» также был бы цепной реакцией, которая, начавшись в одной точке, охватила бы всю Вселенную.

Дегазация земных недр в результате экспериментов со сверхглубоким бурением также была бы цепной реакцией, так как нарушение метастабильного равновесия растворенных газов в недрах привело бы ко все более интенсивному их выходу на поверхность, как это происходит в вулканах. Обнаружение сигналов по линии SETI также вызвало бы цепную реакцию интереса к ним во всем мире, что неизбежно привело бы к многократной загрузке инопланетных посланий и в конечном счете к запуску содержащегося в них опасного кода.

Крах мировой системы также предполагает цепную реакцию, при которой один сбой следует за другим, образуя лавину. Возможно, что кризис ипотечного кредитования, пик нефтяных котировок и ряд других современных проблем – это первые стадии такой геополитической цепной реакции. По шкале ХХ века, если считать нынешний год за 1929-й, до новой «атомной бомбы» осталось 16 лет (то есть 2024 год), до идеи новой кобальтовой бомбы – 21 год (2029 год), и до нового Карибского кризиса, реально ставящего мир на грань уничтожения, – почти 33 года (2041 год). Такие цифры не следует считать сколько-нибудь достоверным пророчеством, но ничего лучше этих оценок у нас пока нет. (Нетрудно заметить, что получившиеся цифры близки к датам ожидаемой технологической сингулярности.)

Управляемость и неуправляемость

Как было сказано в начале этой главы, цепные реакции характерны для большинства сценариев катастрофического развития событий, происходящих в самых разных сферах. Однако в большинстве случаев такие «реакции» не происходят или ограничены по масштабам, поэтому весьма важно отчетливо представлять, какие силы препятствуют их возникновению и развитию.

В классическом примере из ядерной физики понятно, что для начала цепной реакции необходимо наличие «критической массы» и отсутствие «предохранительных стержней». То есть развитию экспоненциальных процессов мешает ограниченность ресурса для их роста и наличие других самоусиливающихся процессов, направленных в противоположную сторону, в результате чего возникает динамическое равновесие.

Для того чтобы цепная реакция развивалась беспрепятственно, она должна быть процессом качественно более высокого уровня энергии, на который не могут влиять силы более низкого уровня. (При этом, например, быстрые скачки в развитии технологий как раз создают возможность для таких неудержимых процессов.)

Далее следует отметить, что, рассматривая такие «реакции» с положительной обратной связью, мы говорили лишь о большинстве катастрофических сценариев – но не обо всех. Интересно посмотреть, какие схемы глобальных катастроф не попадают под заданные параметры.

В первую очередь это, например, столкновение с астероидом или кометой. Правда, и в таком случае худшие последствия этого события будут образованы посредством цепочки причинно-следственных связей. А именно, «астероидная зима» во многом будет вызвана пожарами по всей планете, спровоцированными в свою очередь разлетом бесчисленного множества осколков от падения основного тела.

Однако существует и ряд процессов, содержание или схема развития которых не ясны, как не ясны и факторы, способные на них повлиять. Это, например, уже упоминавшееся гипотетическое явление или взаимосвязь, закономерно приводящие каждую цивилизацию к гибели (что могло бы объяснить «молчание» космоса).

Кроме того, мы знаем некое явление, которое объединяет неисчерпаемый класс разнообразных по своей природе катастрофических событий тем, что можно назвать эквифинальностью, то есть независимостью конечного результата от множества ведущих к нему путей. Я имею в виду старение и конечность человеческой жизни.

Существует масса способов умереть, некоторые из них удивительны и уникальны, другие обыденны. Можно заболеть раком, разбиться на машине, покончить с собой, отравиться, сгореть заживо, утонуть, быть убитым, умереть от инфаркта, заснуть и не проснуться, попасть под действие электрического удара, подавиться косточкой. Смерть – это не результат сложения вероятностей разных факторов, перечисленных выше; смерть – в самом естестве человеческой природы.

Наиболее достоверной из доступных является американская актуарная (связанная с продолжительностью жизни) статистика, в которой максимальный зафиксированный возраст человека составляет 123 года. Возражения, что кто-то на Кавказе или в Японии прожил то ли 160, то ли 240 лет, только подчеркивают, что никто не прожил 1000. Если бы смерть людей была простой игрой вероятностей, то нашлись бы люди, которые прожили и по 10 000 лет.

Наличие верхнего предела продолжительности человеческой жизни означает наличие механизма, ее ограничивающего. И этот механизм нам вроде бы прекрасно известен – это старение, которое не столько убивает само по себе, сколько увеличивает вероятность разных болезней – рака, инфаркта, инсульта и др. Существует масса теорий старения, но какая из них верна, мы, наверное, узнаем, только когда победим старение. И нет сомнений в том, что этот процесс включен в некую весьма сложную систему взаимосвязей.

Безусловно, старение является самоусиливающимся процессом, поскольку чем меньше силы организма, тем меньше его способности к самовосстановлению, а вероятность умереть (точнее, доля умерших) с возрастом растет по кривой, близкой к экспоненциальной.

Однако в окружающем нас мире мы не видим ничего похожего на глобальное старение (кроме проблемы исчерпания ресурсов): старые образцы техники сменяются все более новыми и совершенными, доступные уровни энергии растут, и может создаться впечатление, что наш мир молодеет. То есть он ускоряется, а не замедляется. При этом на более глубоком уровне ускорение оказывается «старением наоборот». (СССР распался через несколько лет после того, как провозгласил программу ускорения и модернизации. Макиавелли писал, что каждая перемена прокладывает путь новым переменам, и поэтому правитель, начиная реформы, рискует потерять над ними контроль и в итоге – свою власть, что, в общем, и произошло в СССР, – и это тоже, кстати, самоусиливающийся процесс.)

Ускорение приводит к такому же снижению устойчивости и к рассогласованности работы разных элементов, как и в случае старения, подобно тому как если бы мы пустили под гору автомобиль без тормозов – хотя неизвестно, до какой именно величины будет расти его скорость, понятно, что рано или поздно у него что-нибудь отвалится, причем чем позже отвалится, тем серьезнее будет авария.

И наконец, здесь следует упомянуть об эффекте множественности, способном направить развитие событий по катастрофическому сценарию. В обобщенном виде суть этого эффекта состоит в том, что одновременное появление множества слабых и не очень опасных по отдельности факторов более вероятно и более опасно, чем появление одного фактора-убийцы. (То есть крайне маловероятно, например, что появится один вирус, который будет обладать стопроцентной летальностью и заразит 100 процентов населения. Однако одновременное появление, скажем, порядка 2000 искусственно синтезированных вирусов, обладающих десятипроцентной летальностью, способно привести к гибели человечества.)

Глава 21.
В поисках выхода: компьютерный тоталитаризм

Вероятность человеческого вымирания зависит не только от угрожающих нам катастроф, но и от способности людей противостоять им и выживать после них.

Основная сила, обеспечивающая человеческое выживание, – это знание. Если мы будем знать, какие именно катастрофы нам угрожают, где, когда и как с ними бороться, то задача противостояния им существенно упростится. Особенно если это знание будет доказанным и общепризнанным.

В деле защиты от глобальных рисков можно выделить несколько уровней.

Первый уровень – накопление знаний и понимание природы и типологии рисков. Сейчас мы в значительной мере находимся на этом уровне.

Второй уровень – донесение этих знаний до общества и до лиц, принимающих решения. То есть превращение этого знания в общепризнанное и агитация за реализацию тех или иных мер. Яркий пример – лоббирование реализации программ противоастероидной защиты. (Но сначала должно быть достигнуто четкое понимание того, что именно надо делать; нетрудно заметить, что в реальности происходит часто наоборот: агитация подменяет дискуссию.)

Третий уровень – создание системы наблюдения за опасной областью и сил быстрого реагирования, способных пресечь в этой области нежелательную активность. Например, радиолокационное зондирование околоземного пространства и создание ракет-перехватчиков для перехвата астероидов. Или установка камер слежения во всех биологических лабораториях мира и создание соответствующих структур, готовых немедленно действовать в любой точке мира. Или создание всемирной системы ПРО. Наконец, на тот случай, если все эти меры не помогли, должен быть запасной вариант, а именно: создание убежищ для людей. (Этот вариант мы рассмотрим подробнее в следующей главе.)

Сейчас мы остановимся на аспекте предотвращения глобальных рисков, связанном с созданием всеобщей системы наблюдения за людьми. Пользуясь словами Павла Пепперштейна, автора романа «Мифогенная любовь каст», я буду называть это явление «компьютерным тоталитаризмом».

Требования к системе и ее «естественные» изъяны

Система наблюдения, способная служить предотвращению глобальных рисков, должна обладать определенными свойствами.

Прежде всего, следует учитывать, что система всеобщего контроля, предназначенная для устранения правонарушений, не обязана распространяться глобально или касаться всех людей, живущих в стране. Однако система всеобщего контроля, предназначенная для устранения глобальных рисков, а именно препятствующая деятельности био– и нанохакеров, имела бы смысл только в том случае, если бы она распространялась по всей территории Земли. В противном случае опасные эксперименты проводились бы именно в том «темном уголке», который не охвачен такой системой.

Разумеется, нет нужды следить за всеми людьми, чтобы пресечь деятельность гипотетических «нано-биохакеров». Но как узнать, за кем именно следить? Достаточно ли установить системы контроля во всех известных биолабораториях, а также проконтролировать всех известных выпускников биофаков? Очевидно, что нет. Но и следить за пенсионеркой Марьиванной тоже абсурдно. С другой стороны, как только мы заявим, что есть некий класс людей, за которыми мы не следим, то потенциальные террористы начнут мимикрировать именно под них.

Система всеобщего контроля должна действовать ДО того, как реальное правонарушение совершено, то есть ДО того, как написан опасный вирус. Следовательно, она должна вычислять потенциальных террористов по косвенным признакам. Такая система работала при тоталитарных режимах, когда на всякий случай арестовывали всех подозрительных людей. Очевидно, что террористы будут стремиться избегать контроля такой системы и противостоять ей. В силу этого любой антиглобалист, протестующий против тотального наблюдения, будет причисляться к потенциальным террористам. И чем жестче будет система контроля, тем больший протест она будет вызывать и тем большее число террористов, глобально же борющихся с ней, порождать. Таким образом, система всеобщего контроля не уменьшит реальное число террористов.

Следующая проблема, связанная с системой всеобщего слежения, состоит в том, что у нее есть, по определению, белое пятно: те, кто следит, оказываются вне наблюдения. Любые организации сталкиваются с такой проблемой и, чтобы бороться с ней, создают «службы внутренней безопасности» – но это только уменьшает размер «слепого пятна», но не устраняет его.

Другая очевидная проблема – это возможность злоупотреблений, так как любая система, созданная для предотвращения глобальных рисков, может работать и для устранения мелких правонарушений, для политического контроля и для собственного выживания в конечном счете.

В середине 90-х Пепперштейн первым обратил мое внимание на то, что компьютеры предоставляют возможность организовать идеальное тоталитарное общество с полным контролем над каждым человеком. После терактов 11 сентября, создания и затем утечек в Интернет огромного количества баз данных эта идея стала общим местом.

Безусловно, система контроля над гражданами может «помочь» в очень многих случаях. Например, чтобы отвратить несознательных индивидов от незаконного копирования музыки, употребления неприличных слов, переедания, злоупотребления наркотиками и алкоголем, нарушения правил дорожного движения. Но все это не имеет отношения к проблемам устранения глобальных рисков.

Или, точнее, имеет, но весьма специфическое: если бы все наши ошибки были обнаружены (а человек по своей природе не может не ошибаться), то каждый заслуживал бы места в тюрьме. Страна, установившая такой контроль над гражданами, стала бы тюрьмой. Более того, для реализации такой системы потребовалось бы изменить природу человека: вероятно, только генетически модифицированные и «чипованные» люди никогда не ошибаются. Но такое изменение означало бы, что природе человека, его творческим способностям будет нанесен значительный ущерб, и, возможно, подобное изменение повлекло бы за собой даже катастрофические последствия.

Далее, для эффективной работы контролирующая система должна превосходить по качеству материала (и по уровню организации) контролируемую. Однако в отношении систем действует тот принцип, что их сложность взаимно со-настраивается, то есть если в городе есть преступники, то в полицию рано или поздно проникнет коррупция. Это означает, что всемирная система контроля может быть успешно вскрыта хакерами, которые смогут тем или иным образом обманывать ее и даже использовать в своих целях.

Только сверхчеловеческая система тотального контроля, созданная искусственным интеллектом, будет иммунна к таким атакам – однако в этом случае люди не смогут ее контролировать, и неизвестно, какие сбои в ней могут произойти.

Всемирное правительство и абсолютно прозрачное общество

Поскольку система, о которой идет речь, имеет смысл только как всемирная, то необходимым условием ее возникновения является наличие межгосударственного объединения, которое будет обладать реальными властными полномочиями. (То есть оно должно быть гораздо сильнее современной ООН.) При этом такое объединение будет иметь смысл только в том случае, если будет включать в себя все существующие государства и территории (а не просто их большую часть) и будет иметь права и ресурсы, чтобы развернуть соответствующую деятельность.

Опыт создания подобной конструкции уже есть. После 11 сентября США фактически попытались выстроить систему глобального контроля. Вначале, когда было свежо впечатление от терактов, почти все страны вступили в антитеррористическую коалицию, и она обладала силами и моральным правом атаковать те территории, которые не присоединились к ней, то есть, например, Афганистан. Затем, однако, последовала «реакция распада», так как у многих участников коалиции возникло ощущение, что их используют ради достижения совсем не тех целей, которые были заявлены вначале.

В дальнейшем, вероятно, будут и новые катастрофы, и новые коалиции, но на этом примере мы видим, какие трудности подстерегают такое объединение государств и насколько оно неустойчиво и подвержено «нецелевому» использованию.

Можно сделать следующее предположение: если бы на Земле существовало всемирное государство, то оно было бы менее подвержено такой неустойчивости. Однако такого государства нет, и без мировой войны оно не может возникнуть в ближайшей исторической перспективе (мировая война при этом чревата созданием и применением оружия судного дня). Таким образом, суммарный риск по созданию всемирного государства перевешивает возможные плюсы от его существования.

Надежность системы глобального контроля – если она все же будет построена, – вполне вероятно, может повышаться за счет непрерывного повышения ее жесткости и тотальности (во всяком случае, соблазн пойти таким путем вполне может возникнуть). В пределе такая система должна быть способна считывать мысли каждого человека и даже регулировать его поведение в случае приступов чрезмерной агрессии (что технологически ближе, чем мы можем себе представить). Но одна неверная команда, пущенная по такой системе, может подействовать сразу на всех людей на Земле и привести их к гибели. Такая система должна управляться искусственным интеллектом, но тогда люди превратятся в «биороботов». Если же такая система будет срабатывать достаточно редко, например, останавливая пьяного, когда он в ослеплении гневом заносит нож над своим другом, то, возможно, она имеет смысл.

Крайне важно то, что ошибка, совершенная централизованной системой, сразу распространится на всю Землю. Рассмотрим это на примере предлагаемой системы автоматического управления полетами авиалайнеров с земли в целях их защиты от захвата террористами и использования в качестве тарана. Понятно, что такая система затруднит действия террористов с пластмассовыми ножами, однако возникает гипотетический риск того, что управление самолетом будет перехвачено с земли; более того, при наличии злоумышленника в числе программистов, имеющих доступ к коду системы, возможно одновременно перехватить управление всеми в мире гражданскими самолетами, находящимися в воздухе (порядка тысячи), и развести их по разным целям (например, ядерным станциям). Хотя шансы такой катастрофы значительно меньше, чем шансы захвата нескольких самолетов вооруженными людьми, вероятный ущерб неизмеримо больше.

Чтобы избежать подобных проблем, Дэвид Брин и ряд других исследователей предложили систему, названную «reciprocal accountability». Ее суть в создании абсолютно прозрачного общества, в котором каждый сможет следить за каждым. Повсюду будут расположены видеокамеры, возможно, даже распылены некие нанотехнологические следящие устройства, и любой со своего компьютера сможет следить за любой точкой земного шара.

Однако такие проекты выглядят нереалистичными. В первую очередь потому, что спецслужбы и прочие государственные структуры вряд ли позволят их реализовать. Кроме того, непрофессионалу очень сложно понять, является ли какая-то деятельность опасной. Когда программист вставляет в программу несанкционированную закладку, это выглядит абсолютно незаметно для внешнего наблюдателя – человек якобы просто пишет код, как и должен. То же касается и биологических исследований, тем более что они из работы с пробирками все больше будут превращаться в работу за компьютером.

Наконец, возможны злоупотребления и этой системой наблюдения. Кроме того, информационная прозрачность сделает невозможным существование секретов, а следовательно, все знание об оружии массового поражения (в том числе о знаниях массового поражения – кодах вирусов, рецептах ядов) станет общедоступным.

Позитивным примером абсолютной «прозрачности» на сегодня является, скажем, работа Википедии, где каждый может наблюдать действия другого. Но Википедия – это не система, нацеленная на обеспечение безопасности, и есть немало примеров, когда она была использована для публикации информации, имеющей некоторые искажения (приукрашивания) в пользу тех, кто ее выложил.

При всем этом, безусловно, нельзя и недооценивать силу гражданского общества и личной инициативы в деле предотвращения глобальных рисков. Ведь до сих пор во многих случаях этим делом занимались именно люди, которые действовали по собственной инициативе, исходя из личного понимания ответственности и важности стоящих проблем. И за этим был не только абстрактный альтруизм, но и понимание, что это работает на личную пользу исследователей и их близких.



Источник: gradremstroy.ru.

Рейтинг публикации:

Нравится10




Комментарий от VP:
интересно сколько еще будут пугать друг друга тем, с чем живут рядом с пеленок? нет ничего страшнее глупости. именно она хуже атомной войны и всего остального


Комментарии (1) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.

  1. » #1 написал: korvin (26 октября 2009 16:23)
    Статус: |



    Группа: Гости
    публикаций 0
    комментариев 0
    Рейтинг поста:
    0
    Комментарий от VP:
    интересно сколько еще будут пугать друг друга тем, с чем живут рядом с пеленок? нет ничего страшнее глупости. именно она хуже атомной войны и всего остального


    Как чтиво перед отходом ко сну сойдёт.

       
     






» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map