А. В. Турчин Ответственные редакторы
Вид материала | Реферат |
- Урок №15. Тема: «Текстовые редакторы», 75.16kb.
- Нло как фактор глобального риска Алексей Турчин, 7525.63kb.
- Ббк 67. 99(2)9 К82 Ответственные редакторы, 7322.98kb.
- А. А. Жилкин Ответственные редакторы, 3418.4kb.
- Положение молодежи и реализация государственной молодежной политики в Российской Федерации:, 2576.32kb.
- Органы, ответственные за выполнение положений Регионального соглашения Автономной Республики, 609.76kb.
- Текстовые редакторы это программы для создания и редактирования текстовых документов, 263.8kb.
- Турчин В. Ф. Феномен науки: кибернетический подход к эволюции. Изд. 2-е, 20.53kb.
- Валентин турчин инерция страха социализм и тоталитаризм, 1299.53kb.
- Ответственные за организацию и проведение егэ-2010, 602.5kb.
2.32. Представление о том, что глобальная катастрофа будет вызвана какой-то одной причиной.
Обычно о глобальных катастрофах думают, как об однократном массовом вымирании, вызванном или вирусом, или падением астероида, или ядерной войной. Однако существуют способы самоорганизации опасных возможностей, которые создают системный эффект. Например, система, ослабленная одним событием, может быть легко повержена другим. Или, например, две медленно текущие болезни, соединяясь, могут давать быстротекущую – как СПИД и туберкулёз у человека. Возможны разные сценарии конвергенции, например, нанотех упростит создание ядерных бомб, ИИ упростит создание нанотеха, а нанотех позволит узнать тайны мозга, что приблизит создание ИИ. Эта конвергенция рисков идёт параллельно конвергенции ключевых современных технологий, называемых NBIC: nano-bio-info-cogno, то есть нанотехнологий, биотехнологий, систем искусственного интеллекта и науки о мышлении и мозге.
2.33 Недооценка системных факторов глобального риска.
Системные факторы – это не отдельные события, вроде внезапного появления супервируса, а некие свойства, которые относятся ко всей системе. Например, противоречие между природой современной цивилизации, основанной на непрерывной экспансии, и конечностью любых ресурсов. Оно не находится в каком-то одном месте, и не зависит ни от одного конкретного ресурса или человеческой организации. Существуют самовоспроизводящиеся кризисные ситуации, которые в каждый момент времени вовлекают в себя всё большое число участников сообщества – но не зависят от поведения ни одного из них и не имеют центра.
Вот неполный и неточный список самовоспроизводящихся структурных кризисов, просто в качестве иллюстрации (примеры в скобках тоже условны, так как возможны и другие интерпретации тех же событий)
2.34 Представления в духе: «Мы все должны бороться за мир».
Но если слишком много людей и организаций будут прикладывать множество разнообразных усилий в борьбе за спасение планеты, то получится «лебедь, рак и щука» в лучшем случае.
2.35 Недооценка предкризисных событий как элементов глобальной катастрофы.
Если в результате некоторых событий вероятность глобальной катастрофы возросла (иначе говоря, выросла уязвимость человечества к катастрофе), то это событие само можно рассматривать как часть глобальной катастрофы. Например, если в результате ядерной войны выживут отдельные группы людей, то они – немногочисленные и лишённые технологий - окажутся гораздо уязвимее к любым другим факторам риска. Это возвращает значение тем факторам, которые обычно называются «глобальными рисками». Например, падение астероида, размером с Апофис (диаметр 400м) само по себе не может истребить человечество, так как взрыв составит только 800 мегатонн, что сопоставимо с взрывом вулкана Санторин в древней Греции, погубившем остров Крит, и только в 4 раза сильнее взрыва вулкана Кракатау в 1883 году, оцениваемому в 200 мегатонн тротилового эквивалента. Однако поскольку связность современной цивилизации значительно возросла, возросла и роль отдалённых – экономических и структурных последствий – разных катастроф. Огромное цунами от падения Апофиса привело бы к прекращению торговли в тихоокеанском регионе и всеобщему экономическому кризису, чреватому переходом к военному - с соответствующим нарастанием необратимых последствий.
2.36. Это слишком плохо, чтобы быть правдой.
Человеку свойственно мысленно защищаться от самых негативных сценариев, приписывая им меньшую вероятность. Например, нетрудно представить себе какой-то автомобиль разбитым, но труднее представить будущие обломки своего автомобиля. Иначе говоря, вместо того, чтобы избегать некого события, человек избегает мыслей об этом событии.
2.37. Это слишком невероятно, чтобы быть правдой.
Логика в духе «этого не может быть, потому что не может быть никогда». Мы имеем массу исторических примеров того, как нечто, что было «невероятным», вдруг стало возможным, а потом и обыденным (самолёты, атомные бомбы, интернет). Более того, стало смертельно опасным. Надо отделять «невероятное» от физически невозможного, но даже и последнее в будущем может оказаться возможным.
2.38 Идеи о торможении неких технологий как способе противостояния глобальным рискам.
Они могут казаться привлекательными, так как дают видимый результат в краткосрочной перспективе в определённом месте. Но группа стран, которая продвигает эту идею, в конечном счёте, проиграет другой группе, которая тайно или явно продолжает развивать опасную, но эффективную технологию.
2.39 Человеческая приспособляемость высока и продолжает неограниченно расти благодаря новым технологиям.
Это верно, однако опасность состоит в том, что средства разрушения, доступные людям, улучшаются быстрее, чем средства защиты.
2.40 Неспособность для системы смоделировать саму себя.
Хотя мы не можем исследовать глобальные катастрофы экспериментально, мы можем рассчитывать, что благодаря успехам компьютерного моделирования мы сможем обсчитать некоторые модели в виртуальном пространстве. Однако эта возможность ограничена рядом обстоятельств. Во-первых, через неё мы всё равно не узнаем неизвестные нам факторы – например, расположение опасных комет или особенности физических законов. Во-вторых, такая модель не может быть полна, так как она не включает в себя тот факт, что мы моделируем мир. Иначе бы получилась бесконечно большая модель, как в случае отражения двух зеркал друг напротив друга. Это является следствием математического принципа: множество не может содержать, как элемент, самого себя. Только модель с определённым огрублением может быть рассчитана. Если мы исследуем будущее поведение системы с искусственным интеллектом, то это не работает, так как модель тоже должна содержать ИИ. В-третьих, наши данные о мире и принципы моделирования должны быть абсолютно точны, что тоже трудно достижимо. Мы не можем выбрать правильную модель, не проведя эксперимент. Чтобы предсказать возможность глобального потепления, нам нужна правильная модель. Чтобы узнать, какая именно модель правильная, нам нужен эксперимент. И этот эксперимент будет надёжным, только если в ходе него произойдёт глобальное потепление, иначе это будет только интерпретация, то есть ещё одна модель.