6. СПЕЦИФИЧЕСКИЕ ОШИБКИ, СВЯЗАННЫЕ РАССУЖДЕНИЯМИ О РИСКАХ НАНОТЕХНОЛОГИЙ.
6.1. Нанотехнологии невозможны, так как невозможно создать механизмы с точностью до одного атома.
Это не так, поскольку существуют белки, которые являются самыми разными механизмами, и в них важно и определено местоположением каждого атома.
6.2. Нанофабрики безопаснее наноассемблеров.
С помощью одного можно сделать другое и наоборот, то есть эти устройства изоморфны.
6.3. Нанотехнологии настолько далеки от нас во времени, что о них можно не думать.
От нанотехнологий нас отделяет только недостающее знание. Если бы мы его имели, мы могли бы собрать такую цепочку ДНК, которая позволила бы произвести наноассемблер.
6.4. «Нанотехнологии придумали только для отмывания денег»
Поскольку такое объяснение можно применить к чему угодно, то оно ничего не объясняет. Даже если кто-то отмывает деньги с помощью нанотехнологий, это не значит, что нанороботы невозможны. Крах дот-комов не означает, что нельзя зарабатывать деньги в Интернете.
6.5. Нанотехнологии связаны только с мелкодисперсными материалами.
Далеко не все так думают, и ведутся разработки в области нанороботов. Промежуточным объектом между нанороботами и материалами является литография чипов, которая позволяет вытравливать любые механизмы из кремния, в том числе и с подвижными частями (микромаятники для гироскопов). Основной прогресс закона Мура идёт именно за счёт развития своего рода нанотехнологий всё более прецизионной печати полупроводников.
6.6. Нанороботы будут слабее бактерий, потому что у бактерий были миллиарды лет, чтобы приспособиться к окружающей среде.
Это так же верно как утверждение, что «Самолёты будут безопаснее птиц, потому что птицы развивались в течение миллионов лет».
6.7. Если бы нанороботы были возможны, их бы уже создала природа.
Природа не создала колеса, но оно возможно и эффективно.
6.8. Нанороботы не смогут размножаться в природной среде.
Если бактерии могут, то почему нанороботы не могут – ведь они могут использовать все приёмы, доступные бактериям.
6.9 Нанороботов в природной среде будет легко уничтожить взрывом бомбы.
Для этого нужно точно знать, где они находятся. Если они уже проникли в город, то взрывать их будет невозможно. Ведь не борются с заразными болезнями с помощью бомб.
6.10. Нанороботы будут состоять только из нескольких атомов, что невозможно или малофункционально.
Название «наноботы» условно и не означает, что длина нанобота будет равна нескольким нанометрам. Он может быть длиной в 1 микрометр и более, и при этом способен к саморазмножению и выполнению множества функций. И при этом невидим. В этом случае он будет содержать миллиарды и даже триллионы атомов.
6.11. Нанороботы будут глупы и неэффективны, так как в них нельзя разместить компьютер.
Внутри любой клетки находится ДНК на 500 мегабайт объёма, с которой совершается до миллиона операций в секунду. Этого достаточно для создания довольно сильного компьютера. Но наноботы смогут объединяться в локальные сети, усиливая свою производительность многократно.
Далее обширная цитата из Э.Дрекслера, основоположника идеи нанороботов:
«
6.22. Не сделает ли принцип неопределённости квантовой физики молекулярные машины неосуществимыми?
Кроме всего прочего этот принцип говорит о том, что невозможно определить точное местоположение частицы в течение любого отрезка времени. Это ограничивает то, что могут делать молекулярные машины, равно как и ограничивает то, что может делать что угодно еще. Тем не менее, вычисления показывают, что принцип неопределённости накладывает мало существенных ограничений на то, насколько хорошо атомы можно размещать на свои места, по крайней мере, для тех целей, которые обрисовываются здесь. Принцип неопределённости делает местоположение электронов довольно расплывчатым, и в действительности эта расплывчатость определяет сам размер и структуру атомов. Атом как целое, однако, имеет сравнительно определённое местоположение, установленное своему относительно массивному ядру. Если бы атомы не сохраняли своё положение сравнительно хорошо, молекулы бы не существовали. Квантовой механики не требуется, чтобы доказать эти заключения, поскольку молекулярные машины в клетке демонстрируют то, что молекулярные машины работают.
6.23. Не сделают ли тепловые вибрации молекул молекулярные машины неработоспособными или слишком ненадёжными, чтобы их использовать?
Тепловые колебания причинят большие проблемы, чем принцип неуверенности, однако здесь снова существующие молекулярные машины непосредственно демонстрируют, что молекулярные машины могут работать при обычных температурах. Несмотря на тепловые колебания, механизмы копирования ДНК в некоторых клетках делают меньше чем одну ошибку на 100 000 000 000 операций. Чтобы достичь такой точности, однако, клетки используют машины (такие как фермент ДНК-полимераза I), которые проверяют копию и исправляют ошибки. Для ассемблеров вполне может быть необходимы аналогичные способности проверки и исправления ошибок, если они предназначены выдавать надёжные результаты.
6.24. Не будет ли радиация разрушать молекулярные машины или делать их непригодными для использования?
Радиация высокой энергии может нарушать химические связи и разрушать молекулярные машины. Живые клетки еще раз показывают, что решения существуют: они работают в течение лет, восстанавливая и заменяя поврежденные радиацией части. Однако поскольку каждая отдельная машина такая крошечная, она представляет собой маленькую цель для радиации, и радиация редко в неё попадает. Всё же, если система наномашин должна быть надёжна, то она должна выдерживать определённое количество повреждений, а повреждённые части должны регулярно чиниться или заменяться. Этот подход к надёжности хорошо знаком разработчикам самолётов и космических кораблей.
6.25. Эволюция не сумела произвести ассемблеры, не говорит ли это о том, что они являются либо невозможными, либо бесполезными?
Отвечая на предыдущие вопросы, мы отчасти ссылались на уже работающие молекулярные машины клеток. Они представляют собой простое и мощное доказательство того, что законы природы позволяют маленьким группам атомов вести себя как управляемые машины, способные строить другие наномашины. Однако вопреки тому, что они в основе напоминают рибосомы, ассемблеры будут отличаться от всего, что находится в клетках; хотя они состоят в обычных движениях молекул и реакциях, то, что они делают, будет иметь новые результаты. Например, ни одна клетка не производит алмазного волокна…
6.26. Доказательства реализуемости ассемблеров и других наномашин могут казаться обоснованным, но почему бы просто не подождать и не посмотреть, действительно ли они могут быть разработаны?
Чистое любопытство кажется достаточной причиной, чтобы исследовать возможности, открытые нанотехнологией, но есть более сильные причины. Эти достижения охватят мир в пределах от десяти до пятидесяти лет, то есть в пределах сроков жизни наших собственных или членов наших семей. Что более существенно, заключения следующей главы подсказывают, что политика "подождём-посмотрим" была бы слишком дорогой: она бы стоила миллионы жизней, и, возможно, жизни на Земле.
»
Конец цитаты из Дрекслера – нумерация вопросом добавлена мной – А.Т.
6.27. Наша склонность ожидать грандиозных результатов от грандиозных причин.
Дрекслер иллюстрирует это заблуждение следующими контрпримерами:
«СКУЧНЫЙ ФАКТ: некоторые электрические переключатели могут включать и выключать друг друга. Эти переключатели можно сделать очень маленькими и потребляющими мало электричества. ГРАНДИОЗНОЕ СЛЕДСТВИЕ: если их соединить правильно, эти переключатели образуют компьютеры, машины информационной революции... СКУЧНЫЙ ФАКТ: плесень и бактерии конкурируют за пищу, поэтому некоторые плесени научились выделять яды, которые убивают бактерии. ГРАНДИОЗНОЕ СЛЕДСТВИЕ: пенициллин, победа над многими бактериальными заболеваниями, и спасение миллионов жизней»
6.28. Детали наномашин буду слипаться в силу квантовых, вандерваальсовых и прочих сил.
Белки не слипаются. Предложенный Дрекслером вариант с зубчиками и колёсами – не единственный.
6.29. Активный нанотехнологический щит, подобный иммунной системе, будет идеальной защитой от опасных нанороботов.
Ни одна иммунная система в реальности, ни в живых организмах, ни антивирусная в компьютерах, не является абсолютно надёжной. Кроме ого, существуют автоиммунные заболевания. См. подробнее в моём тексте «Структура глобальной катастрофы», глава «активные щиты».
6.30. Дрекслер – фантазёр, а настоящие нанотехнологии состоят в чём-то другом.
Приходилось встречать утверждения со стороны специалистов в области нанотехнологий, о том, что нанороботы Дрекслера – это фантазии, а настоящие нанотехнологии состоят в детальном измерении неких очень тонких параметров малоразмерных структур. Однако на самом деле эти исследования находятся на разных уровнях. Исследования Дрекслера относятся к «проектному» уровню. Точно так же, как к нему относилась идея сделать атомную бомбу в своё время. То есть это уровень леса, а не деревьев.
7. ПАЛЕОФУТУРОЛОГИЯ.
Палеофутурология занимается исследованием образов будущего, созданных в прошлом. Основное впечатление от старинных картин будущего, рассказов и даже научных прогнозов – насколько непохоже это на настоящее. (см. картинки http://paleo-future.blogspot.com/2007/09/french-prints-show-year-2000-1910.html) При этом есть ощущение однородности всех этих прошлых образов будущего – и однородности причин того, что они не стали реальными предвидениями. Иначе говоря, изучение прошлых попыток предсказать будущее даёт нам знание о некоторых систематических ошибках, которые люди совершают, пытаясь осуществить предвидение.
В картинах будущего бросаются в глаза:
1) избыток летательных средств; небоскрёбы, роботы, огромные транспортные средства.
2) «древнеримские» одежды.
3) подчёркнуто светлый образ (но иногда - подчеркнуто мрачный).
4) изменение главных деталей при сохранении мелкой атрибутики - например, в каждом доме компьютер, но это всё ещё ламповый компьютер.
5) невозможность выйти за пределы своего художественного стиля. То есть вещи будущего изображаются в дизайне 1950-х годов, хотя нарочно пытаются этого избежать.
6) безличность - изображены толпы или усреднённые персонажи, а не личности.
Причины этого, видимо, в том:
1) Что будущее перестаёт восприниматься как реальность, а начинает - как сказка, и к нему применяются приёмы построения художественного образа сказочного мира. То есть в нём позволяется нарочитая нереалистичность. Сравните: "В 2050 году люди будут ходить в прозрачных электрических тогах" и "В 2050 году я буду ходить в прозрачной электрической тоге". Вторую фразу я не напишу в здравом уме, потому что я не собираюсь ходить в прозрачной тоге.
2) Будущее заменяется атрибутами будущности - самолёты, небоскрёбы, роботы.
3) Образ нацелен на то, чтобы воздействовать на современного автору зрителя. В нём подчёркивается то, что будет наиболее интересно и в то же время понятно современнику: необычная техника. В результате мы имеем не образ будущего, а образ техники будущего. Но не учитывается взаимовлияние общества, техники, экономики и истории.
4) Далее, вещи будущего мира придумываются по отдельности, а не соединяются в систему. Поэтому изображают город с большим количеством самолётов и небоскрёбов, не думая, как одно с другим будет взаимодействовать.
5) Наконец, невозможность придумать простые, очевидны нам решения - типа пульта дистанционного управления, мыши, графического интерфейса.
6) Злоупотребление экстраполяциями явных тенденций.
7) Предсказание будущего – это всегда предсказание поведения более сложной, более интеллектуальной системы силами менее сложной и менее интеллектуальной. В этом смысле оно подобно попыткам предсказания поведения ИИ – и может служить иллюстрацией меры ошибочности в этом. (См. дискуссию в http://ivanov-petrov.livejournal.com/741441.html?view=27451969#t27451969 с картинками о палео футурологии.)
8. ВЫВОДЫ ПО АНАЛИЗУ КОГНИТИВНЫХ ИСКАЖЕНИЙ В ОЦЕНКЕ ГЛОБАЛЬНЫХ РИСКОВ.
Масштаб влияние ошибок на рассуждения о глобальных рисках можно оценить, сравнив мнения разных экспертов, учёных и политиков по вопросу о возможности окончательной глобальной катастрофы и её возможных причинах. Нетрудно убедиться, что разброс мнений огромен. Одни считают суммарный риски ничтожным, другие уверенны в неизбежности человеческого вымирания. В качестве возможных причин называется множество разных технологий и сценариев, причём у каждого будет свой набор возможных сценариев и набор невозможных сценариев.
Очевидно, что корни такого разброса мнений - в разнообразии движения мысли, которое, в отсутствии какой-либо зримой точки отсчёта, оказывается подвержено различными предубеждениями и когнитивным искажениям. Поскольку мы не можем найти точку отсчёта относительно глобальных рисков в эксперименте, представляется желательным, чтобы такой точкой отсчёта стала бы открытая дискуссия о методологии исследования глобальных рисков, на основании которой могла бы быть сформирована единая и общепризнанная картина глобальных рисков.
9. ВОЗМОЖНЫЕ ПРАВИЛА ДЛЯ ЭФФЕКТИВНОЙ ОЦЕНКИ ГЛОБАЛЬНЫХ РИСКОВ.
9.1. Принцип предосторожности.
Он означает подготовку к наихудшему раскладу во всех ситуациях неопределённости. Это соответствует принципу консервативной инженерной оценки в статье Юдковски. Однако предосторожность не должна носить иррациональный характер, то есть не должна утрировать ситуацию.
9.2. Принцип сомнения.
Он означает допускать возможность ошибочности любой своей идеи. Однако сомнение не должно привести к неустойчивости хода мысли, податливости авторитетам, отсутствию своего мнения и неуверенности в нём, если оно достаточно доказано.
9.3. Открытая дискуссия.
Важно поддержание открытой дискуссии по всем видам рисков. Это означает рассмотрение любое возражение в качестве истинного достаточное время, чтобы его оценить, перед тем, как решить его отвергнуть. То есть не отбрасывать никакие возражения сходу. Поддерживать наличие оппонентов.
9.4. Самоанализ
Непрерывный анализ собственных выводов на предмет ошибок из всего списка. Но не следует применять это к другим людям.
9.5. Независимые повторные вычисления.
9.6. Косвенная оценка степени ошибки.
Мы можем оценить степень недооценки глобальной катастрофы, изучая то, насколько люди недооценивают аналогичные риски – то есть риски уникальных катастроф. Например, космический челнок шаттл был рассчитан на одну аварию более чем на 1000 полётов, но потерпел первую аварию на 25 полёте. То есть исходная оценка 1 к 25 была бы более точной. Атомные станции строились с расчетом на одну аварию в миллион лет, но Чернобыльская авария произошла примерно после 10 000 станций-лет (это число получается из умножения числа станций к тому моменту на средний срок их эксплуатации, и требует уточнения). Итак, в первом случае реальная устойчивость оказалась в 40 раз хуже, чем проектная оценка, а во втором – в 100 раз хуже.
Литература по оценке рисков.
1. Александровский Ю.А. и др. Психогении в экстремальных условиях. Москва, Медицина, 1991.
2. Воробьё, Ю.Л, Малинецкий Г.Г., Махутов H.A. Управление риском и устойчивое развитие. Человеческое измерение. // Общественные Науки и Современность, 2000, № 6.
3. Корнилова. Т.В. Риск и мышление // Психологический журнал, 1994. №4.
4. Корнилова. Т.В. Психология риска и принятия решений (учебное пособие). - М.: Аспект Пресс, 2003.
5. Корнилова. Т.В. Мотивация и интуиция в регуляции вербальных прогнозов при принятии решений // Психологический журнал, 2006. №2 (Совместно с О.В. Степаносовой).
6. Корнилова. Т.В. Многомерность фактора субъективного риска (в вербальных ситуациях принятия решений) // Психологический журнал, 1998. №6. .
7. МакМаллин Р. Практикум по когнитивной терапии: Пер. с англ. — СПб.: Речь, 2001. — 560 с. (Гл. Логические ошибки)
8. Платонов А. В. Восприятие риска в ситуациях, требующих принятия решения. // Доклад на конференции «Lomonosov», МГУ, 1996.
9. Тофлер, Элвин. Шок будущего. - Москва, АСТ, 2002
10. Bostrom, N. Existential Risks: Analyzing Human Extinction Scenarios. Journal of Evolution and Technology, 9. - 2001. (русский перевод: Ник Бостром. Угрозы cуществованию. Анализ сценариев человеческого вымирания и связанных опасностей. Пер. с англ. А.В. Турчина. http://www.proza.ru/texts/2007/04/04-210.html )
11. Bostrom N. and Tegmark M. How Unlikely is a Doomsday Catastrophe? - Nature, Vol. 438, No. 7069, p. 754, 2005 (пер. с англ. А.В.Турчина: Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа судного дня? http://www.proza.ru/texts/2007/04/11-348.html )
12. Dawes, R.M. Rational Choice in an Uncertain World. - San Diego, CA: Harcourt, Brace, Jovanovich, 1988.
13. Fetherstonhaugh, D., Slovic, P., Johnson, S. and Friedrich, J. Insensitivity to the value of human life: A study of psychophysical numbing. - Journal of Risk and Uncertainty, 14: 238-300. 1997.
14. Kahneman, D., Slovic, P., and Tversky, A., eds. Judgment under uncertainty: Heuristics and biases. - New York: Cambridge University Press, 1982.
15. Kahneman, D. and Tversky, A. eds. Choices, Values, and Frames. - Cambridge, U.K.: Cambridge University Press, 2000.
16. Kruglanski A. W. Lay Epistemics and Human Knowledge: Cognitive and Motivational Bases. 1989
17. Posner Richard A. Catastrophe: Risk and Response. - Oxford University Press, 2004; vii + 322 pp
18. Taleb, N. The Black Swan: Why Don't We Learn that We Don't Learn? - New York: Random House, 2005
19. Yudkowsky E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, - UK, Oxford University Press, to appear 2007 (русский перевод: Э.Юдковский. Искусственный интеллект как позитивный и негативный фактор глобального риска. Пер. с англ. А.В. Турчина http://www.proza.ru/texts/2007/03/22-285.html)
20. Yudkowsky E. Cognitive biases potentially affecting judgment of global risks. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, - UK, Oxford University Press, to appear 2007 (русский перевод: Э.Юдковский. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html )
Источник: katastrofa.h12.ru.
Рейтинг публикации:
|