Термины 9
1. Ошибочные представления о роли ошибок. 13
1.1 Незавершённость этого списка ошибок. 14
2. ОШИБКИ, ВОЗМОЖНЫЕ ТОЛЬКО ОТНОСИТЕЛЬНО УГРОЗ СУЩЕСТВОВАНИЮ. 14
2.1. Путаница между глобальными катастрофами и просто очень большими катастрофами. 14
2.2 Недооценка неочевидных рисков. 15
2.3 Глобальные риски нетождественны национальной безопасности. 16
2.4. Ошибка, связанная с психологизацией проблемы. 16
2.5. Отождествление глобальной катастрофы со смертью всех людей и наоборот. 16
2.6 Стереотип восприятия катастроф, который сложился в результате работы СМИ. 17
2.7 Ошибки, связанные с тем, что глобальная катастрофа ещё ни разу с нами не происходила. 17
2.8 Ошибка, состоящая в том, что размышления о глобальных рисках автоматически включают некий архетип «спасателя мира». 18
2.9 Недооценка глобальных рисков из-за психологических механизмов игнорирования мыслей о собственной смерти. 18
2.10 Ошибки, связанные с тем, что тот, кто исследует глобальные катастрофы в целом, вынужден полагаться на мнения экспертов в разных областях знания. 19
2.11 Ошибка, связанная с тем, что глобальным рискам, как целому, уделяют меньше внимания, чем рискам отдельных объектов. 19
2.12 Ошибка, связанная с тем, что риск, приемлемый для одного человека или проекта, распространяется на всё человечество. 19
2.13 Отсутствие ясного понимания того, к кому, собственно, обращены дискуссии о глобальных рисках. 19
2.14 Особенность связи теоретического и практического в отношении глобальных рисков. 20
2.15 Ошибочные модели поведения, связанные с эволюционными психологическими моделями – и не учёт этих моделей в предсказании поведения людей. 20
2.16. Ошибочное представление о том, что глобальные риски есть что-то отдалённое и не имеющее отношение к ближайшему будущему. 20
2.18 Представление о том, что книги и статьи о глобальных рисках могут значительно изменить ситуацию. 21
2.19. Однако и противоположное мнение ошибочно: что глобальные риски либо неизбежны, либо зависят от случайных, неподвластных человеку факторов, либо зависят от далёких правителей, повлиять на которых невозможно. 21
2.20. Гордыня исследователя. 21
2.21. Интуиция как источник ошибок в мышлении о глобальных рисках. 21
2.22 Научное исследование глобальных рисков также сталкивается с рядом проблем. 22
2.23 Ошибки, связанные с неучётом малоизвестных логических следствий абсолютности глобального риска. 22
2.24 Методы, применимые к управлению экономическими и прочими рисками, не применимы для глобальных рисков. 22
2.25 Трудности в определении понятия глобального риска в связи с нечёткостью его объекта. 22
2.26 Ошибочное представление о том, что глобальные риски угрожают людям, только пока они замкнуты на Земном шаре, и переселение в космос автоматически снимет проблему. 23
2.27. Психологическая особенность человека, называемая «пренебрежение масштабом». 23
2.28. Преувеличение прогностической ценности экстраполяции. 23
2.29. Ошибочное представление о том, что люди в целом не хотят катастрофы и конца света. 24
2.30. Смутность представлений о том, что именно является «поражающим фактором» в разных сценариях глобального риска. 24
2.31. «Шок будущего»: Ошибки, связанные с разными горизонтами возможного будущего у разных людей. 25
2.32. Представление о том, что глобальная катастрофа будет вызвана какой-то одной причиной. 26
2.33 Недооценка системных факторов глобального риска. 26
2.34 Представления в духе: «Мы все должны бороться за мир». 26
2.35 Недооценка предкризисных событий как элементов глобальной катастрофы. 27
2.36. Это слишком плохо, чтобы быть правдой. 27
2.37. Это слишком невероятно, чтобы быть правдой. 27
2.38 Идеи о торможении неких технологий как способе противостояния глобальным рискам. 27
2.39 Человеческая приспособляемость высока и продолжает неограниченно расти благодаря новым технологиям. 28
2.40 Неспособность для системы смоделировать саму себя. 28
2.41 Неспособность человека представить свою собственную смерть. 28
2.42 Путаница между очень большой катастрофой и окончательной глобальной катастрофой. 29
2.43 «После нас хоть потоп». 29
2.44. Любая этическая позиция, которая не рассматривает выживание людей в качестве главной цели, более важной, чем любые другие цели. 29
2.45. Религиозные мировоззрения и апокалиптические культы. 29
3. ОШИБКИ, МОГУЩИЕ КАСАТЬСЯ ЛЮБЫХ РИСКОВ, ПРИМЕНИТЕЛЬНО К ГЛОБАЛЬНЫМ РИСКАМ. 30
3.1. Основной причиной человеческих ошибок является сверхуверенность. 30
3.2 Чрезмерное внимание к медленно развивающимся процессам и недооценка быстрых. 30
3.4 Возрастные особенности восприятия глобальных рисков. 31
3.5. Споры не рождают истину о глобальных рисках. 31
3.7. Желание смерти. 31
3.8. Косность мышления, связанная с естественным отбором наиболее устойчивых систем мировоззрения. 31
3.9. Обнаружение ошибок в рассуждении о возможности некой конкретной катастрофы не является способом укрепления безопасности. 32
3.10. Ни одно из направлений исследований в новых технологиях не может обеспечивать свою безопасность само по себе. 33
3.11. Ошибочное представление о том, что когда проблема назреет, тогда к ней можно начать готовиться. 33
3.12. Более конкретизированные риски воспринимаются как более опасные, чем описанные в общих словах. 33
3.13. Идея о том, что мышление о глобальных рисках – пессимистично. 33
3.14 «Теории заговора» как препятствие для научного анализа глобальных рисков. 34
3.15. Ошибки, связанные с путаницей краткосрочных, среднесрочных и долгосрочных прогнозов. 35
3.16. Специфика человеческой эмоции страха. 35
3.19. Эффект смещения внимания. 36
3.20. Интернет 36
3.21. Верования. 36
3.22. Врождённые страхи. 37
3.23. «Убить гонца, принёсшего плохую весть». 37
3.28. Склонность людей бороться с подобными опасностями, какие уже были в прошлом. 38
3.29. Усталость от ожидания катастрофы. 38
3.30. Экспертные оценки, не основанные на строгих вычислениях, не могут служить в качестве меры реальной вероятности. 39
3.31 Игнорирование какого-либо из рисков по причине его незначительности по мнению эксперта. 39
3.32 Недооценка или переоценка нашей способности противостоять глобальным рискам. 39
3.33. Стокгольмский синдром. 40
3.34. За ошибками оператора стоит неправильная подготовка. 40
3.35. Группа людей может быть глупее, чем каждый человек в отдельности. 40
3.36. Ограниченность числа свободных регистров в уме человека и модель мышления, отражающаяся в каждом предложении: субъект-объект-действие. 40
3.37. Раскол футурологии по разным дисциплинам, как если бы эти процессы происходили независимо. 40
3.38. Ситуация, когда вслед за меньшей проблемой следует большая, но мы неспособны этого заметить. («Беда не приходит одна») 41
3.39. Эффект избирательности внимания, сосредоточенного на катастрофах. 41
3.40. Подсознательное желание катастрофы. 42
3.41. Использование сообщений о рисках для привлечения внимания к себе, выбивания денег и повышения своего социального статуса. 42
3.42. Использование темы глобальных рисков в качестве сюжета для развлекательных масс-медиа. 42
3.43. Ошибка «хорошей истории». 43
3.44. Идеи о противостоянии глобальным рискам с помощью организации единомышленников, связанных общей целью – благо человечества. 43
3.45. Секретность как источник ошибок в управлении рисками. 43
3.46. Интеллектуальная установка на острую критику мешает обнаруживать опасные катастрофические сценарии. 44
3.47. Идея о том, что безопасность чего-либо можно доказать теоретически. 44
3.48. Недооценка человеческого фактора. 44
3.48. Идея о том, что можно создать безошибочную систему, многократно проверив её проект и исходный код. 44
3.49. Статистика. 45
3.50. Ошибка, связанная со склонностью людей в большей мере учитывать широкоизвестные или легко доступные для вспоминания факты. 45
3.51. Двойная ошибка. 45
3.52. Анализ глобальных рисков не есть создание прогнозов. 45
3.53. Эффект знания задним числом приводит к тому, что люди восклицают «Я знал это с самого начала» и в силу этого переоценивают свои прогностические способности. 45
3.54. Эффект настройки на источники информации. 46
3.55. Частой ошибкой исследователей рисков является принятие малого процесса за начало большой катастрофы. 46
3.56. Часто, когда некая катастрофа уже произошла, более простое её объяснение подменяет более сложное. 46
3.57. Есть класс людей, которые придумывают апокалипсические сценарии, чтобы привлечь внимание к своим безумным проектам и добиться их финансирования. 46
3.58. Стремление людей установить некий приемлемый для них уровень риска. 47
3.59. Эффект «сверхуверенности молодого профессионала». 47
3.60. Ощущение неуязвимости. 47
3.61. Переоценка собственных профессиональных навыков. 47
3.62. Есть ряд ситуаций, когда меры по предотвращению небольшой катастрофы готовят ещё большую катастрофу. 48
3.63. Утомление исследователя. 48
3.64. Страх потери социального статуса исследователями, который приводит к тому, что они не касаются некоторых тем. 48
3.65. Количество внимания, которое общество может уделить рискам, конечно. 49
3.66. Пренебрежение экономикой. 49
3.67. Ошибки, связанные с переоценкой или недооценкой значения морального состояния общества и его элит. 50
3.68. Ошибка, связанная с тем, что вместе того, чтобы исследовать истинность или ложность некого сообщения о риске, человек стремится доказать эту идею как можно большему числу людей. 51
3.69. Склонность людей предлагать «простые» и «очевидные» решения в сложных ситуациях – не подумав. 51
3.70. Общественная дискуссия о рисках разных исследований может привести к тому, что учёные будут скрывать возможные риски, чтобы их проекты не закрыли. 51
3.71. Ошибка, связанная с неправильной корреляции силы и безопасности. 51
3.72. Преждевременные инвестиции. 51
3.73. Склонность людей путать свои ожидания того, как оно будет в наиболее вероятном случае, и того, как оно будет в наилучшем случае. 52
3.74.Апатия прохожего. 52
3.75. Потребность в завершении. 52
3.76. Влияние авторитета и социальное давление группы. 52
3.77 Разрыв между обзорными и точечными исследованиями, между «деревом и лесом». 53
3.78. Ошибка, связанная с интеллектуальной проекцией. 53
3.79. Представление о том, что изменять обстоятельства следует, уничтожая их причины. 54
3.80. Забвение основного принципа медицины – «Не навреди!» 54
3.81. Путаница между объективными и субъективными врагами. 54
3.82. Предчувствие катастрофы, на самом деле обусловленное завистью. 54
3.83. Страх утраты идентичности. 54
3.84. Понятная катастрофа может быть привлекательнее непонятного будущего. 55
3.85. Неправильное применение бритвы Оккама. 55
3.87. Ошибка, связанная с неверным переносом закономерностей с одной системы на другую. 55
3.88. Двусмысленность и многозначность любого высказывания как источник возможной ошибки. 56
3.89. Отказ рассматривать некий сценарий по причине его «невероятности». 56
3.90. Переход от обмана к самообману. 56
3.91. Переоценка собственных возможностей вообще и выживаемости в частности. 56
3.92. Стремление к прекрасному будущему, заслоняющее восприятие рисков. 57
3.93. Фильтры, мешающие поступлению информации к руководству. 57
3.94. Любопытство может оказаться сильнее страха смерти. 58
3.95. Система и регламент. 58
3.96. Эффект «стрелочника». 58
3.97. Минимальный воспринимаемый риск. 58
3.98. Отвержение новых идей. 59
3.99. Воздействие эмоциональной реакции шока. 59
3.100. Проблемы отбора экспертов. 60
3.101. Вина и ответственность как факторы предотвращения рисков. 61
3.102. Недооценка сил инерции как фактора устойчивости систем. 61
3.103. Мировоззрение. 61
3.104. Психологические трудности, связанные с изменением точки зрения. 61
4. ОБЩЕЛОГИЧЕСКИЕ ОШИБКИ, МОГУЩИЕ ПРОЯВИТЬСЯ В РАССУЖДЕНИЯХ О ГЛОБАЛЬНЫХ РИСКАХ. 62
4.1. Путаница между вероятностью, как мерой изменчивости объекта, и степенью уверенности, как мерой информации об объекте. 62
4.2. Подмена анализа возможностей анализом целей. 62
4.3. Неверное употребление индуктивной логики следующего вида: раз нечто очень давно не происходило, то это не будет происходить ещё очень долго. 62
4.4. Мышление, обусловленное желаниями – то, что по-английски называется «Wishful thinking». 62
4.5. Логическая ошибка, возникающая при с попытках доказать, что нужно делать, исходя только из описания фактов. 63
4.6. Ошибки, связанные с подменой анализов рисков анализом коммерческих мотивов тех, кто о них говорит. 63
4.7. Использование так называемого «авторитетного знания». 63
4.8. Неправильное применение идеи о том, что теория должна быть опровержимой, чтобы быть истинной. 64
4.9. Восприятие новой информации через призму старой. 64
4.10. Ошибка в выборе нейтральной позиции. 64
4.11. Уверенность как источник ошибок. 64
4.12. Употребление полностью ошибочной логики. 64
4.13. Различие между преднаукой и псевдонаукой. 65
4.14. Ошибка, связанная с неправильным определением статуса «универсалий». 65
4.15. Утверждения о возможности чего-то и невозможности неравносильны. 66
4.16. Очевидности как источник ошибок. 66
4.17. Недооценка собственной ошибочности. 66
4.18. Ошибка, связанная с представлением о том, что каждое событие имеет одну причину. 66
4.19. Ошибка, связанная с сознательным и бессознательным нежеланием людей признать свою вину и масштаб катастрофы. 67
4.20. Необходимость выбора актом веры. 67
4.21. Эффект первой и последней прочитанной книги. 68
4.22. Преувеличение роли компьютерного моделирования. 68
4.23. Доказательство по аналогии. 68
4.24. Ошибка, связанная с неточностью экстраполяции экспоненциальной вероятностной функции с помощью линейной. 68
4.25. Санкт-Петербургский парадокс. 69
4.26. Различие между опасностью и риском. 70
4.27. Систематическая ошибка, связанная с эгоцентричностью. 70
4.28. Систематическая ошибка, связанная с атрибуцией причины. 70
4.29. Если вероятность некого события является невычислимой, ей полагают нулевой. 70
4.30. Упущение того, что безопасность системы определяется наиболее слабым её звеном. 70
4.31. Для того, чтобы отвергнуть некую гипотезу, надо в начале её рассмотреть. 70
4.32. Невычислимость. 71
4.33. Наблюдательная селекция. 73
5. СПЕЦИФИЧЕСКИЕ ОШИБКИ, ВОЗНИКАЮЩИЕ В ДИСКУССИЯХ ОБ ОПАСНОСТИ НЕКОНТРОЛИРУЕМОГО РАЗВИТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА. 73
5.1. Разброс мнений по вопросу о безопасности ИИ означает отсутствие реальных доказательств безопасности. 73
5.2 Ошибочной является идея о том, что можно создать безошибочную систему, многократно проверив её проект и исходный код. 74
5.3. Критика ИИ Пенроузом. 74
5.4. Представление о том, что 3-х законов робототехники А.Азимова достаточно, чтобы решить все проблемы с безопасностью ИИ. 75
5.5. Прогресс в области программного обеспечения отсутствует. 75
5.6. Никто в мире не занимается такой ерундой как ИИ. 76
5.7. ИИ – это разные приложения, вроде распознания образов. 76
5.8. Антропоморфизм. 76
5.9. Достаточно отключить ИИ от питания, чтобы его остановить. 76
5.10. Даже распространившись по Интернету, ИИ никак не сможет воздействовать на внешний мир. 76
5.11. У ИИ не может быть собственных желаний, поэтому он никогда не станет причинять человеку вред. 76
5.12. ИИ будет осваивать космос, оставив Землю человеку. 76
5.13. Любой ИИ является интеллектом, поэтому он обладает целью Y (подставить нужное), и это благо. 77
5.14. Современные компьютеры очень ограничены, поэтому ИИ будет только в отдалённом будущем – через десятки лет. 77
5.15. Прогресс в понимании работы ума идёт очень медленно. Поэтому ИИ будет работать очень медленно. 77
5.16. Человек способен делать X (подставить нужное), что никогда не сможет делать ИИ, и поэтому ИИ не представляет никакой угрозы. 77
5.17. ИИ невозможен, потому что он мыслит алгоритмически, а человек неалгоритмически. 77
5.18. ИИ будет примерно такой же умный, как и человек. 78
5.19. ИИ будет равноправным сотрудником человека с теми же возможностями и правами. 78
5.20. Представление, что ИИ будет много. 78
5.21. Различия в понимании того, что, собственно, является интеллектом. 78
5.22. Однозначное отождествление ИИ как отдельного объекта. 79
5.23. Достаточно спрятать ИИ в чёрный ящик, что он был безопасен. 79
5.24. В Японии уже был проект по созданию ИИ в 80-е годы, и он потерпел неудачу, поэтому ИИ невозможен. 79
5.25. ИИ надо дать команду Z (подставить нужное), и всё будет в порядке. 79
5.26. «Когда я достигну эффективности в реализации ИИ, я подумаю о его безопасности». 80
5.27. «Маловероятно, что наш проект по ИИ выйдет из-под контроля». 80
5.28. Мы можем ни о чём не заботится, потому что ИИ решит все наши проблемы. 80
5.29. Нетождественность способностей и намерений. 80
6. СПЕЦИФИЧЕСКИЕ ОШИБКИ, СВЯЗАННЫЕ РАССУЖДЕНИЯМИ О РИСКАХ НАНОТЕХНОЛОГИЙ. 80
6.1. Нанотехнологии невозможны, так как невозможно создать механизмы с точностью до одного атома. 80
6.2. Нанофабрики безопаснее наноассемблеров. 80
6.3. Нанотехнологии настолько далеки от нас во времени, что о них можно не думать. 80
6.4. «Нанотехнологии придумали только для отмывания денег» 81
6.5. Нанотехнологии связаны только с мелкодисперсными материалами. 81
6.6. Нанороботы будут слабее бактерий, потому что у бактерий были миллиарды лет, чтобы приспособиться к окружающей среде. 81
6.7. Если бы нанороботы были возможны, их бы уже создала природа. 81
6.8. Нанороботы не смогут размножаться в природной среде. 81
6.9 Нанороботов в природной среде будет легко уничтожить взрывом бомбы. 81
6.10. Нанороботы будут состоять только из нескольких атомов, что невозможно или малофункционально. 82
6.11. Нанороботы будут глупы и неэффективны, так как в них нельзя разместить компьютер. 82
6.22. Не сделает ли принцип неопределённости квантовой физики молекулярные машины неосуществимыми? 82
6.23. Не сделают ли тепловые вибрации молекул молекулярные машины неработоспособными или слишком ненадёжными, чтобы их использовать? 83
6.24. Не будет ли радиация разрушать молекулярные машины или делать их непригодными для использования? 83
6.25. Эволюция не сумела произвести ассемблеры, не говорит ли это о том, что они являются либо невозможными, либо бесполезными? 83
6.26. Доказательства реализуемости ассемблеров и других наномашин могут казаться обоснованным, но почему бы просто не подождать и не посмотреть, действительно ли они могут быть разработаны? 84
6.27. Наша склонность ожидать грандиозных результатов от грандиозных причин. 84
6.28. Детали наномашин буду слипаться в силу квантовых, вандерваальсовых и прочих сил. 84
6.29. Активный нанотехнологический щит, подобный иммунной системе, будет идеальной защитой от опасных нанороботов. 84
6.30. Дрекслер – фантазёр, а настоящие нанотехнологии состоят в чём-то другом. 85
7. ПАЛЕОФУТУРОЛОГИЯ. 85
8. ВЫВОДЫ ПО АНАЛИЗУ КОГНИТИВНЫХ ИСКАЖЕНИЙ В ОЦЕНКЕ ГЛОБАЛЬНЫХ РИСКОВ. 86
9. ВОЗМОЖНЫЕ ПРАВИЛА ДЛЯ ЭФФЕКТИВНОЙ ОЦЕНКИ ГЛОБАЛЬНЫХ РИСКОВ. 87
Литература по оценке рисков. 88
Раздел 1. Введение. 90
1.1. Рассматриваемый промежуток времени: XXI век. 91
1.2. Проблемы численного вычисления вероятностей различных сценариев. 92
1.3. Численные оценки вероятности глобальной катастрофы, даваемые различными авторами. 99
1.4. Глобальные катастрофы и горизонт прогноза. 100
1.5. Историография. 102
1.6. Уровни возможной деградации. 104
РАЗДЕЛ 2. ОДНОФАКТОРНЫЕ СЦЕНАРИИ ГЛОБАЛЬНОЙ КАТАСТРОФЫ. 107
2.1. АТОМНОЕ ОРУЖИЕ. 108
2.1.1. Ядерная зима. 108
2.1.2. Полное радиоактивное заражение. 111
2.1.3. Сверхбомба. 113
2.1.4. Накопление антиматерии. 114
2.1.5. Дешёвая бомба. 114
2.1.6. Равномерная атака на радиационные объекты. 115
2.1.7. Взрыв мощных бомб в космосе (искусственный гамма-всплеск). 116
2.1.8. Интеграция поражающих факторов ядерного оружия. 116
2.1.9. Стоимость. 116
2.1.10. Вероятность данного события. 116
2.1.11. Изменение вероятности глобальной катастрофы, вызванной ядерным оружием, с течением времени. 120
2.1.12. Стратегия сдерживания под вопросом. 121
2.1.13. Выводы по ядерной войне. 122
2.2. ГЛОБАЛЬНОЕ ХИМИЧЕСКОЕ ЗАРАЖЕНИЕ. 122
2.2.2. Выводы по рискам, технологии для которых уже готовы. 127
2.2.3. Риски, возникновение которых кажется неизбежным, исходя из текущего характера развития технологий. 127
2.3. БИОЛОГИЧЕСКОЕ ОРУЖИЕ. 128
2.3.2. Вероятность применения биологического оружия и её распределение во времени. 134
2.4. СУПЕРНАРКОТИК. 136
2.5. РИСКИ, СВЯЗАННЫЕ С САМОКОПИРУЮЩИМИСЯ ИДЕЯМИ – МЕМАМИ. 140
2.6. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. 141
2.6.1. Общее описание проблемы. 141
2.6.2. Что нужно для ИИ в смысле технологии. 141
2.6.3. Почему ИИ является универсальным абсолютным оружием. 142
2.6.4. Система целей. 143
2.6.5. Борьба ИИ-проектов между собой. 143
2.6.6. Усовершенствованный человек. 144
2.6.7. ИИ и его аплеты. 144
2.6.8. «Бунт» ИИ. 144
2.6.9. Скорость старта. 145
2.6.10. Сценарии «быстрого страта»: 145
2.6.11. Медленный старт и борьба разных ИИ между собой. 146
2.6.12. Плавный переход. 146
2.6.13. «Восстание» роботов. 148
2.6.14. Контроль и возможность истребления. 148
2.6.15. ИИ и его цели. 149
2.6.16. ИИ и государства. 150
2.6.17. Вероятность появления ИИ. 150
2.6.18. Другие риски, связанные с компьютерами. 152
2.6.19. Время возникновения ИИ. 153
2.7. РИСКИ, СВЯЗАННЫЕ С РОБОТАМИ И НАНОТЕХНОЛГИЯМИ. 154
2.7.1. Робот-распылитель 154
2.7.2. Самовоспроизводящийся робот. 154
2.7.3. Стая микророботов. 155
2.7.4. Армии крупных боевых роботов, выходящие из-под контроля. 155
2.7.5. Неограниченное распространение нанороботов. 155
2.7.7. Вероятность возникновения нанороботов и возможное время для этого события. 159
2.8. ТЕХНОЛОГИЧЕСКИЕ СПОСОБЫ ПРОВОЦИРОВАНИЯ ЕСТЕСТВЕННЫХ ПРИРОДНЫХ КАТАСТРОФ. 159
2.8.1. Отклонение астероидов. 160
2.8.2. Создание искусственного сверхвулкана. 160
2.9. ТЕХНОЛОГИЧЕСКИЕ РИСКИ, СВЯЗАННЫЕ С ПРИНЦИПИАЛЬНО НОВЫМИ ОТКРЫТИЯМИ. 162
2.9.1. Неудачный физический эксперимент. 162
2.9.2. Новые виды оружия, новые источники энергии, новые среды распространения и дальнодействия. 166
2.10. РИСКИ, СВЯЗАННЫЕ С ОСВОЕНИЕМ КОСМИЧЕСКОГО ПРОСТРАНСТВА. 166
2.10.1. Атака на Землю с помощью космического оружия. 166
2.10.1. Ксенобиологические риски. 167
2.10.2. Столкновение с превосходящими нас разумными силами. 168
2.10.3. Риски, связанные с программой SETI. 169
2.11. РИСКИ, СВЯЗАННЫЕ С РАЗМЫВАНИЕМ ГРАНИЦ МЕЖДУ ЧЕЛОВЕКОМ И НЕЧЕЛОВЕЧЕСКИМ. 173
2.11.1. Риски, связанные с проблемой «философского зомби». 173
2.12. ПРИРОДНЫЕ РИСКИ. 174
2.12.1. Геологические катастрофы. 174
2.12.2. Извержения сверхвулканов. 174
2.12.3. Падение астероидов. 176
2.12.4. Зона поражения в зависимости от силы взрыва. 179
2.12.5. Солнечные вспышки и увеличение светимости. 181
2.12.6. Гамма-всплески. 183
2.12.7. Сверхновые. 184
2.12.8. Глобальное потепление. 184
2.12.9. Сверх-цунами. 186
2.12.10. Сверх-землетрясение. 187
2.12.11. Переполюсовка магнитного поля Земли. 187
2.12.13. Возникновение новой болезни в природе. 188
2.12.14. Маргинальные природные риски. 188
2.12.15. Переход вакуума в состояние с более низкой энергией. 189
2.12.16. Неизвестные процессы в ядре Земли. 189
2.12.17. Взрывы других планет Солнечной системы. 191
2.12.18. Немезида. 192
2.12.19. Прекращение действия «защиты», которую нам давал антропный принцип. 192
2.12.20. Ослабление устойчивости и человеческие вмешательства. 193
2.13. ВИДОВЫЕ РИСКИ, НЕ СВЯЗАННЫЕ С НОВЫМИ ТЕХНОЛОГИЯМИ. 194
2.13.1. Исчерпание ресурсов. 194
2.13.2. Перенаселение. 195
2.13.3. Крах биосферы. 195
2.13.4. Социально-экономический кризис. Война. 196
2.13.5. Генетическая деградация и ослабление фертильности (способности к размножению). 196
2.13.6. Старение вида. 196
2.13.7. Вытеснение другим видом. 197
2.14. НЕИЗВЕСТНЫЕ НАМ СЕЙЧАС ПРИЧИНЫ КАТАСТРОФ. 198
2.14.1. Закон Мура в отношении глобальных катастроф. 198
2.15. «Конструктор» однофакторных сценариев глобальной катастрофы. 199
2.15.1. Общие признаки любого опасного агента. 199
2.15.2. Способы возникновения. 200
2.15.3. Выход из точки и начало распространения. 200
2.15.4. Распространение важнее разрушения. 201
2.15.5. Способ распространения. 202
2.15.6. Способ причинения смерти. 203
2.15.7. Типичные виды разрушающего воздействия: 204
2.15.8. Временная структура события. 205
2.15.9. Предаварийные ситуации 206
2.15.10. Намеренная и случайная глобальная катастрофа. 206
2.15.11. Машина судного дня. 207
3. МНОГОФАКТОРНЫЕ СЦЕНАРИИ. 209
3.1. Интеграция различных технологий, создающие ситуации риска. 209
3.2. Парные сценарии. 210
3.3. Исторические аналогии глобальной катастрофе. 214
3.4. Неизбежность достижения устойчивого состояния. 217
3.5. Рекуррентные риски. 218
3.6. Глобальные риски и проблема темпа. 218
3.7. Сравнительная сила разных опасных технологий. 220
3.8. Последовательность возникновения различных технологий во времени. 220
3.9. Сопоставление факторов риска разных технологий. 221
3.10. Цели создания. 224
3.11. Социальные группы, готовые рискнуть судьбой планеты. 227
3.12. Обобщающий коэффициент, связанный с человеческим фактором. 228
3.13. Принятие решения о ядерном ударе. 229
3.14. Цена вопроса. 231
4. ГЛОБАЛЬНЫЕ РИСКИ ВТОРОГО РОДА. 233
4.2. События, которые могут открыть окно уязвимости. 234
4.3. Системные кризисы. 235
4.4. Кризис кризисов. 243
4.5. Технологическая Сингулярность. 244
4.6. Перепотребление приводит к одновременному исчерпанию всех ресурсов. 247
4.7. Системный кризис и технологические риски. 249
4.8. Степень мотивации и осведомленности как факторы глобального риска. 249
5. КРИПТОВОЙНЫ, ГОНКА ВООРУЖЕНИЙ И ДРУГИЕ СЦЕНАРНЫЕ ФАКТОРЫ, ПОВЫШАЮЩИЕ ВЕРОЯТНОСТЬ ГЛОБАЛЬНОЙ КАТАСТРОФЫ. 252
5.1. Криптовойна. 252
5.2. Уязвимость к сверхмалым воздействиям. 252
5.3. Гонка вооружений. 253
5.4. Моральная деградация. 254
5.5. Враждебность как сценарный фактор. 255
5.6. Месть как сценарный фактор. 255
5.7. Война как сценарный фактор. 256
5.8. Деградация биосферы. 258
5.9. Глобальная дезинфекция. 258
5.10. Экономика как сценарный фактор. 259
5.11. Точка абсолютной уязвимости. 259
5.12. Раскачивающее управление. 260
5.13. Контролируемый и неконтролируемый глобальный риск. Проблемы понимания глобального риска. 260
5.14. Открытия. 263
5.15. Общие модели поведения систем на грани устойчивости. 264
5.16. Переход катастрофического процесса с одного уровня на другой. 265
5.17. Схемы сценариев. 265
5.17.1. Нехватка ресурсов – война – новые технологии – неожиданные результаты – распространение технологий. 266
6. ГЛОБАЛЬНЫЕ РИСКИ ТРЕТЬЕГО РОДА. 266
6.1. Определение. 266
6.2. Закон Мура. 267
7. ЗАЩИТА ОТ ГЛОБАЛЬНЫХ РИСКОВ. 271
7.1. Общее понятие о предотвратимости глобальных рисков. 271
7.2. Активные Щиты. 273
7.3. Действующие и будущие щиты: 276
7.4. Последовательность действия щитов разного уровня. 277
7.5. Сохранение мирового баланса. 277
7.6. Система контроля. 278
7.7. Сознательная остановка технологического прогресса. 279
7.8. Средства превентивного удара. 280
7.9. Удаление источников рисков на значительное расстояние от Земли. 281
7.10. Выживание на природе, создание отдалённых поселений. 282
7.11. Создание досье на глобальные риски и рост общественного понимания. 282
7.12. Убежища и бункеры. 282
7.13. Опережающее расселение в космосе. 286
7.14. Всё как-нибудь обойдётся. 286
7.15. Деградация в устойчивое состояние. 287
7.16. Предотвращение одной катастрофы с помощью другой. 287
7.17. Организации, ответственные за предотвращение катастрофы. 288
7.18. Проблема моделирования сценариев глобальной катастрофы. 290
7.19. Глобальные катастрофы и проблема веры. 295
7.20. Глобальные катастрофы и устройство общества. 300
7.21. Глобальные катастрофы и текущая ситуация в мире. 303
7.22. Мир после глобальной катастрофы. 303
7.23. Мир без глобальной катастрофы: наилучший реалистичный вариант предотвращения глобальных катастроф. 305
8. НЕПРЯМЫЕ СПОСОБЫ ОЦЕНКИ ВЕРОЯТНОСТИ ГЛОБАЛЬНОЙ КАТАСТРОФЫ. 306
8.1. Закон Парето. 306
8.2. Гипотеза о «Чёрной королеве». 307
8.3. Парадокс Ферми. 308
8.4. «Doomsday argument». Формула Готта. 309
8.5. Рассуждение о конце света Картера-Лесли. 311
8.6. Аналогия с человеком. 314
8.7. Непрямая оценка вероятности природных катастроф. 315
8.8. Рассуждение о Симуляции. 317
8.9. Интеграция различных непрямых оценок. 320
9. ЗАКЛЮЧЕНИЕ. НАИБОЛЕЕ ВЕРОЯТНЫЙ СЦЕНАРИЙ ГЛОБАЛЬНОЙ КАТАСТРОФЫ. 322
10. Рекомендуемая литература: 325
Литература: 328
5 Е. Юдковски 333
6 Искусственный интеллект как позитивный и негативный фактор глобального риска. 333
7 Перевод с английского А.В. Турчина 333
8 Угрозы уничтожения человечества 388
9 Неуничтожимость как главная сверхзадача цивилизации 390
10 Качества неуничтожимой цивилизации 393
11 О необходимости разработки теоретических основ решения задач неуничтожимости человечества 394
ПРИМЕЧАНИЯ
1)Подробнее можно посмотреть, например, здесь: http://www.nuclear-weapons.nm.ru/theory/dirty_bombs.htm
2)Данные отсюда: http://www.tls.timesonline.co.uk/article/0,,25350-2648363,00.html
3)Или 1-2 миликюри, как говорил Жуйков, заведующий радиоизотопной лабораторией Института ядерных исследований РАН, на радиостанции «Эхо Москвы».
4)Это сказано здесь: http://pripyat.com/ru/publications/2006/04/08/750.html
5)Её можно найти в Интернете здесь: http://ecc.ru/XXI/RUS_21/ARXIV/2002/anisimov_2002_4.htm
6)http://www.ieer.org/russian/pubs/dlrtbk-r.html
7)В книге «Развитие Земли». Сорохтин Олег Георгиевич, Ушаков Сергей Александрович. Глава «ПРОИСХОЖДЕНИЕ И ЭВОЛЮЦИЯ АТМОСФЕРЫ НА ЗЕМЛЕ». Текст доступен здесь: http://astro-world.narod.ru/archive/books/geo/book2/ch10.pdf
8)«Обнаружен огромный подземный океан». http://geoman.ru/news/item/f00/s02/n0000244/index.shtml
9) «Газовые гидраты и климат Земли». http://geo.web.ru/db/msg.html?uri=page3.htm&mid=1161561
10)Сывороткин Владимир Леонидович. «Экологические аспекты дегазации Земли».
http://geo.web.ru/db/msg.html?mid=1172931&uri=part22.htm
11)А. ПОРТНОВ. «Как погибла жизнь на Марсе» http://www.meteorite.narod.ru/proba/stati/stati107.htm
12)http://www.oko-planet.spb.ru/?open&h=1&p=6_2&type=viewmes&site=235C6
13)http://www.wired.com/science/discoveries/news/2007/11/igem_winner сообщение об этом прокомментировано следующей шуткой: «Осторожно, это продукт содержит маленькие части, которые могут истребить нашу цивилизацию. Использовать под наблюдением взрослых».
14)По этой ссылке можно посмотреть цены на подержанные ДНК-синтезаторы: http://www.labx.com/v2/newad.cfm?catID=14 и дешевели со скоростью примерно два раза в год. ДНК секвенсоры, то есть считыватели, были ещё дешевле, но сейчас ссылка на них на этом сайте не работает.
15)Ю. Чирков «Ожившие химеры». М.,1989, Стр. 106.
16)Там же, стр. 109.
17)http://www.homeoint.org/kotok/vaccines/news12.02.htm
18) «Генетический хакер может создать биологическое оружие у себя дома». Перевод статьи «Биовойна для чайников» - «Biowar for Dummies» by Paul Boutin http://www.membrana.ru/articles/global/2006/02/22/220500.html
19) ‘Our final hour’ – стр. 74.
20)«By demonstrating that their simulation is realistic, the researchers say, these results suggest that an entire mammal brain could be completely modeled within three years, and a human brain within the next decade». http://www.technologyreview.com/Biotech/19767/
21)Русский перевод статьи доступен здесь: http://mikeai.nm.ru/russian/superint.html опубликовано здесь: Int. Jour. of Future Studies, 1998, vol. 2.
22)'Кило процессоров на кончике пальца в разы обгоняет классические камни' http://www.membrana.ru/articles/technic/2006/04/05/190100.html
23)Как утверждает Юдковски в дискуссионном листе SL4.
24)См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html
25)Мною выполнен перевод их на русский язык: Siai рекомендации по созданию дружественного ИИ. http://www.proza.ru/texts/2007/07/13-272.html
26)В отношении шахмат этот принцип сформулировал Стейниц.
27)Перевод опубликован в журнале «Компьютере». http://old.computerra.ru/online/firstpage/14084/for_print.html
28)Краткие сведения о проекте есть в Википедии. http://en.wikipedia.org/wiki/Eurisko
29)http://www.darpa.mil/ipto/programs/bica/ Доступ с российских компьютеров закрыт. Источник: katastrofa.h12.ru.
Рейтинг публикации:
|