А. В. Турчин Ответственные редакторы
Вид материала | Реферат |
Содержание2.15.11. Машина судного дня. 3. Многофакторные сценарии. 3.1. Интеграция различных технологий, создающие ситуации риска. |
- Урок №15. Тема: «Текстовые редакторы», 75.16kb.
- Нло как фактор глобального риска Алексей Турчин, 7525.63kb.
- Ббк 67. 99(2)9 К82 Ответственные редакторы, 7322.98kb.
- А. А. Жилкин Ответственные редакторы, 3418.4kb.
- Положение молодежи и реализация государственной молодежной политики в Российской Федерации:, 2576.32kb.
- Органы, ответственные за выполнение положений Регионального соглашения Автономной Республики, 609.76kb.
- Текстовые редакторы это программы для создания и редактирования текстовых документов, 263.8kb.
- Турчин В. Ф. Феномен науки: кибернетический подход к эволюции. Изд. 2-е, 20.53kb.
- Валентин турчин инерция страха социализм и тоталитаризм, 1299.53kb.
- Ответственные за организацию и проведение егэ-2010, 602.5kb.
2.15.11. Машина судного дня.
Соберём в отдельную категорию все варианты «машины судного дня», которую может создать наиболее злонамеренная группа людей. Возможно, термин восходит к фильму С.Кубрика «Доктор Стрейнджлав». (Сюжет его вкратце таков: «Русские» создают «Машину судного дня», которая взрывает весь мир, если на СССР нападут. В ходе внутренней заварушки в США мятежный сумасшедший генерал наносит удар по СССР, не зная о машине Судного дня. В результате машина запускается. Русский посол говорит: «И эту машину отключить нельзя, иначе бы в ней не было смысла». Др. Стрейнджлав замечает: «Но какой смысл было держать эту машину в секрете?» Русский посол отвечает: «Мы собирались объявить о ней в ближайший понедельник». То есть машина, которая должна была резко снизить риск какой-либо войны на Земле, в действительности приводит к её началу. Интересно, что Дж.Лесли пишет в своей книге «Конец света. Наука и этика человеческого вымирания», что на самом деле было бы неплохо было бы такую машину иметь, так как если бы она правильно применялась, то она в сумме бы снизила риск ядерной войны – примерно как сейчас это делает доктрина взаимного гарантированного уничтожения). Хотя основная идея машины состоит в той форме шантажа, которая подразумевает, что машина судного дня никогда не будет применена, сам факт её создания создаёт вероятность её применения.
Кроме того, имеются исторические примеры бессмысленного истребления людей - обстрел гитлеровцами Лондона фау-2, поджигание скважин в Кувейте. Психологический пример - подрыв себя гранатой при аресте.
Отнюдь не любой вариант глобальной катастрофы годится как машина судного дня. Это должен быть процесс, который по решению некой группы людей может быть запущен в строго определённый момент времени и вести к глобальной катастрофе со значительной вероятностью, близкой к 100 процентам, по крайней мере, с точки зрения разработчиков устройства. Машина судного дня также должна быть неуязвима к попыткам предотвратить её применение, к несанкционированному применению и должна быть возможность продемонстрировать реалистичность её применения, что нужно шантажистам. (Сейчас в качестве машины судного дня функционально выступает обладание хоть каким-то ядерным оружием, хотя одна атомная бомба весь мир не уничтожит. Например, такова сейчас роль ядерной бомбы в руках Северной Кореи – она хорошо спрятана, но наличие её продемонстрировано.)
- Взрыв водородной бомбы
а) в супервулкане
Б) в каменноугольном пласте
В) в ядерном реакторе
Г) в слое газовых гидратов в океане, с расчётом на цепную реакцию дегазации.
- Создание водородной сверхбомбы стационарного типа.
- Взрыв кобальтовых зарядов, запуск реактора-чёртовой трубки.
- Сведение астероида с орбиты.
- Накопление массы антиматерии.
- Проплавление коры Земли с помощью жидкого ядерного реактора по типу капли.
- Распыление спор антракса в атмосфере, высвобождение большого количества разных вирусов.
- Слив диоксина в океан
- Выпускание генетически модифицированных производителей токсинов и вирусов (диоксиновая плесень, чумная вошь)
- Распространение сотен миллиардов микророботов, атакующих всё живое.
- Уничтожение озонового слоя с помощью некого катализатора.
- Сочетание этих факторов.
3. Многофакторные сценарии.
Выше мы составили насколько возможно полный список однофакторных сценариев глобальной катастрофы. Есть и другие варианты этого списка, например, в статье Н.Бострома и в книге Дж. Лесли, с незначительными отличиями. Теперь мы должны задаться вопросом, возможны ли сценарии, в которых человечество гибнет не по какой-то одной причине, а от некоторого сочетания факторов, и если да, то какова их вероятность и каковы эти факторы. Скажем, может ли быть так, что один континент истребят супервирусы, другой нанороботы, а третий вымрет от голода?
3.1. Интеграция различных технологий, создающие ситуации риска.
Сам факт быстрого развития сильных технологий создаёт зону риска. Технологии имеют тенденцию помогать друг другу в развитии. Скажем, развитие компьютеров помогает рассчитывать свойства новых материалов, а новые материалы позволяют создавать ещё более производительные процессоры для компьютеров. В современной технологии это известно под названием NBIC-конвергенция, что расшифровывается как nano-bio-info-cogno. Эта конвергенция является примером нелинейной интерференции, когда два слабых фактора, складываясь, вместе дают нелинейно сильный всплеск. Нелинейная интерференция возникает, когда взаимодействуют два принципиально разных, но направленных к одной цели механизма. Например, если двое мужчин толкают камень, то это линейная сложение. Но если мужчина и женщина создают семью, то они обретают принципиально новое качество – рождение детей. Или когда человек заболевает одновременно СПИДом и туберкулёзом – обе болезни относительно хронические, но вместе они сжигают человека очень быстро. Можно также отметить, что конвергенция технологий нарастает по ходу прогресса и происходит выделение быстро развивающегося ядра технологий (NBIC), которые способны каждая помогать каждой. При этом они могут делать вклад и в ядерные, и в космические технологии, но не получить от них обратного вклада, а в силу этого не получается кольца положительной обратной связи – и эти технологии отстают от мэйнстрима технологического прогресса. В центре конвергенции NBIC начинает вырисовываться нечто, объединяющее достижение всех этих технологий – Искусственный Разум.
Нелинейная интерференция неоднократно имела место в прошлом при создании оружия. Здесь технологии не помогали в развитии друг друга, но создавали принципиально новые агрегаты. Например, самолёт с пулемётом, фотоаппаратом и радиосвязью – в качестве разведчика и истребителя в первую мировую войну. Или межконтинентальная баллистическая ракета, в которой были объединены достижения в области ядерного оружия, ракетной техники и компьютеров, каждое из которых по отдельности было бы в тысячу раз безопаснее. То есть атомная бомба без средств доставки, или ракета с обычной боеголовкой, или ракета без систем наведения. (При этом хочется отметить, что нынешнее сокращение ядерных арсеналов компенсируется ростом их точности, что повышает их поражающую силу.)
Часто имеющие прогнозы будущего и фантастика описывают его как настоящие плюс одна какая-то новая черта. Тем же грешат и прогнозы глобальных рисков: они описывают появление в мире какой-то одной опасной технологии и затем рассматривают последствия этого события. Например, как изменится мир, если в нём появятся развитые нанотехнологии. Очевидно, что этот подход несостоятелен, так как будущие технологии, за счёт их совместного развития, будут появляться одновременно и вступать друг с другом в сложные взаимодействия.
При этом имеет место и последовательная, и параллельная конвергенция. Параллельная конвергенция имеет место, когда несколько новых технологий объединяются, чтобы создать качественно новый продукт, например, межконтинентальную ракету с ядерным зарядом. Последовательная относится к цепочке событий, в которой одни факторы запускают другие, например: теракт – экономический кризис – война – применение биологического оружия.