355 500 произведений, 25 200 авторов.

Электронная библиотека книг » Алексей Турчин » Российская Академия Наук » Текст книги (страница 18)
Российская Академия Наук
  • Текст добавлен: 20 сентября 2016, 18:45

Текст книги "Российская Академия Наук"


Автор книги: Алексей Турчин


Жанр:

   

Публицистика


сообщить о нарушении

Текущая страница: 18 (всего у книги 36 страниц)

Неожиданным результатом атомных бомб стала возможность создания водородной бомбы и особенно кобальтовой сверхбомбы, загрязняющей целые континенты. То есть технология дала гораздо больше, чем от неё в начале требовалось. (Похожая ситуация была и в развитие ракет и компьютеров, после того, как начальные трудности были преодолены, так что это вполне закономерный итог.) Наконец, вполне закономерным выглядит то, что атомное оружие постепенно, но неудержимо стало распространяться по планете. Ещё одним закономерным итогом было то, что ядерное оружие стало конвергироваться с другими продвинутыми технологиями своего времени – ракетным и компьютерными технологиями, породив межконтинентальные ракеты.

Степень мотивации и осведомленности как факторы глобального риска

Как справедливо подчёркивает А.Кононов, задача неуничтожимости должна осознаваться в качестве главнейшей любой цивилизацией, которая существует в катастрофически нестабильной вселенной. Точно так же, как у каждого человека на базовом уровне прошит инстинкт самосохранения. В целом, мы можем предположить, что чем больше осознание важности сохранения цивилизации на всех её уровнях, от инженера до правителя, тем больше шансов у неё выжить. (Хотя возможен сценарий, когда стремление к выживанию приведёт к борьбе одних групп с другими или борьбе спасателей.)

Соответственно, то, как растёт осознанность и мотивация цивилизации в отношении её самосохранения, является мощнейшим фактором её выживания. В первой части я рассматриваю список факторов, по которым люди могут неверно оценивать вероятность глобальных катастроф, чаще всего в сторону занижения. Однако не менее важно то, что, как в это не трудно поверить, люди могут не стремиться к предотвращению глобальных катастроф. Или, например, недостаточно стремиться. Скажем, Рейган считал приемлемым повысить риск в ядерной войны, чтобы достичь победы в холодной войне с СССР. Это значит, что цель выживания человеческой цивилизации была для него не первостепенной. И это обусловлено эволюционной психологии, поскольку альфа-самец достигает своего статуса вожака стаи, проявляя готовность рискнуть своей жизнью в схватках с другими альфа-самцами, и эта модель поведения закрепляется генетически, так как у победивших самцов больше детей, чем у погибших в процессе борьба за место вожака.

Итак, мы можем сказать, что способность цивилизации к выживанию в значительной сфере определяется двумя факторами – степенью её осведомленности о различных рисках, и степенью её мотивации в их предотвращении. При этом эти два фактора связаны, так как большая мотивация ведёт к более тщательным исследованиям, а важные исследования, проливающие свет на новые риски, могут усилить мотивацию. Всё же влияние мотивации представляется более первичным. Хотя теоретически все поддерживают предотвращение глобальных рисков, на практике эта цель находится на последнем месте, что видно по числу публикаций по теме и финансированию исследований. (Спросите своё правительство – готово ли оно вкладывать ресурсы в технологию, которая даст уменьшение глобальных рисков на 1 процент через 100 лет. Тем не менее это равносильно согласию на вымирание человечества через 10 000 лет. Вероятно, есть некий биологический механизм, в силу которого сохранение жизни детей и внуков очень важно, а жизни пра-пра-пра-правнуков – абсолютно неважно.)

Мы можем пытаться учесть эти два фактора как некие коэффициенты от их максимального значения. Если предположить в качестве максимальной степени мотивации усилия страны в войне, а в качестве меры реальной мотивации – долю финансирования лиц и организаций в США, занимающихся предотвращением глобальных рисков в целом (порядка 1 млн. долларов в год в лучшем случае; при этом мы не рассматриваем узкоспециализированный программы, которые лучше финансируются, так как они не предполагают целостной защиты, учитывающей весь комплекс взаимосвязей в связи с глобальными рисками, например, антиастероидную программу) – то разница составит около 1 миллиона (предполагая, что США могли бы расходовать на войну около 1 триллиона долларов). При этом, однако, ситуация значительно улучшается – если в 2000 году не было ни одного человека, занимающегося исследованием и предотвращением глобальных рисков на постоянно оплачиваемой основе, то теперь такие должности есть в США и Великобритании. Всё же, несмотря на то, что ситуация улучшается, она выглядит чудовищно запущенной.

Осведомленность следовало бы измерять как долю полной осведомленности, какая бы могла быть только у некой сверхцивилизации. Под осведомленностью я имею в виду наличие общепризнанного, строго доказанного и широко известного описания проблемы глобальных рисков. Поэтому, даже если бы эта книга содержала такое описание, то она не давала бы полной осведомленности, поскольку очевидно, что подавляющее большинство людей не читали её, а большинство тех, кто читали, имеют те или иные возражения. Итак, если мы скажем, что наша осведомленность составляет тысячную долю от максимально возможной осведомленности, это будет очень оптимистическая оценка. При этом я имею в виду максимально достижимую рациональную осведомленность, а не абсолютную осведомленность мага, который предвидит будущее.

Даже максимальная мотивация и абсолютная осведомленность не дают 100 процентных шансов выживания, поскольку возможны катастрофы, связанные с необоримыми природными силами или непредсказуемыми вероятностными процессами в духе теории хаоса. Осведомленность и мотивация не позволяет людям жить вечно. Общую живучесть цивилизации можно было бы оценить как произведение осведомленности на мотивацию, но в случае земной цивилизации мы бы получили досадную одну миллиардную от максимально возможной. Остается надеяться, что при появлении на горизонте неких чрезвычайных обстоятельств, мотивация может быстро возрасти.

Итак, мы должны рассматривать любые события, влияющие на мотивацию и на знание о глобальных рисках, как на факторы глобальных рисков второго рода.

Факторы, повышающие мотивацию:

1) Крупные катастрофы любого рода.

2) Публикации, влияющие на общественное мнение.

Факторы, ослабляющие мотивацию:

1) Долгие периоды покоя и благоденствия.

2) Публикации, успокаивающие людей.

3) Ошибочные несбывшиеся прогнозы.

Факторы, влияющие на осведомленность:

1) Количество людей, участвующих в дискуссии на тему, и их профессиональные качества.

2) Длительность истории дискуссии и информационная прозрачность.

3) Разработанность методологии.

4) Мотивация в развитии осведомленности.

Фактор, ослабляющий осведомленность:

1) Гибель учёных или разрыв традиции в случае некой катастрофы средней тяжести.

2) Распространение заблуждений и/или идеологический раскол.

Выводы: наша неосведомленность и немотивированность в предотвращении глобальных катастроф может быть гораздо более серьёзным фактором, чем риски, создаваемые любым физическим источником риска.


6. Глобальные риски трутьего рода

Определение

Глобальными рисками третьего рода мы назовём любые события, которые замедляют или ускоряют ход, или меняют порядок развития сверхтехнологий на Земле, и в силу этого оказывают косвенное, но решающее влияние на возможные сценарии глобальных катастроф. Здесь можно обнаружить следующие взаимосвязи между катастрофами разных масштабов и их влиянием на развитие и очерёдность технологий.

1. Любая крупная авария или катастрофа может замедлить развитие технологий. Например, экономический кризис приведёт к остановке работ на ускорителях, что уменьшит шансы на создание «чёрной дыры». Уменьшится выделение денег на био– и ИИ исследования, но их это затронет в меньшей степени.

2. Колоссальная, но не окончательная катастрофа остановит почти все исследования, даже если некоторое количество людей выживет.

3. Любая авария средней тяжести приведёт к росту мер безопасности и сокращению проектов в своей области.

4. Военный конфликт приведёт к гонке вооружений и росту числа исследований. Направления перспективных исследований будут выбираться с учётом мнения неких ключевых людей. Например, в РФ сейчас стартовала военная программа по нанотехнологиям. Это бы не произошло, если бы те, кто принимают решения и их советники, никогда бы не слышали про нанотехнологии. Ядерная программа США не стартовала бы, если бы не письмо Эйнштейна. С другой стороны, универсальный ИИ как абсолютное оружие сейчас обойдён вниманием властей, насколько это известно. Однако вечно это продолжаться не будет. Как только власти поймут, что частные лаборатории, создающие сильный ИИ, возможно, обладают силами для глобального мятежа – они приберут их к рукам. Соответственно, прослышав, что в одной стране власти сделали ставку на мощный ИИ, и другие страны могут так поступить, а также отдельные организации и крупные фирмы могут начать свои проекты. Однако разрушение информационной связности может отбросить всю науку об ИИ назад.

5. Само изобретение даже не очень сильного ИИ позволит резко ускорить прогресс в других областях. Кроме того, любые принципиальные открытия могут изменить баланс сил.

Итак, некие события могут или сильно снизить уровень исследований в мире, в силу чего более дешёвые проекты получат преимущество перед дорогими, или резко ускорить их. Наоборот, разрушение информационной связности застопорит дешёвые проекты, опирающиеся на доступную информацию из Интернета, и не остановит дорогие проекты, реализующие готовую информацию, например, создание кобальтовой супербомбы.

Закон Мура

Законом Мура в узком смысле слова называется экспоненциальный рост числа транзисторов на чипе. В широком смысле слова под ним имеется в виду экспоненциальное усиление разных технологий с течением времени. Будущее закона Мура – будет ли он работать весь XXI век или перестанет в какой-то момент, – является определяющим в том, какова будет история XXI века и его риски.

В действительности, это ускорение, которое описывает закон Мура, является не экспоненциальным, а более крутым. Вопрос этот неоднократно исследовался, например, в статье Рэя Курцвейля «Результаты закона ускорения» . Подтверждением этого, является то, что, во-первых, скорость удвоения числа транзисторов на чипе постепенно, хотя и не равномерно, возрастает (то есть период удвоения сокращается). Если экстраполировать закон Мура в прошлое, то он бы имел начальную точку в середине ХХ века. Но компоненты электронных схем развивались и раньше. Предполагается, что в начале ХХ века закон Мура (если его экстраполировать на прогресс электронных схем тогда) имел период удвоения порядка трёх лет.

Во-вторых, не только возрастает число транзисторов на чипе, но и число компьютеров в мире экспоненциально растёт. В силу этого суммарная доступная вычислительная мощность растёт как экспонента от экспоненты.

В-третьих, растёт связность компьютеров друг с другом, превращая их в единый компьютер. В результате, если мы к началу 80-х имели порядка миллиона компьютеров с частотами порядка мегагерца, то теперь мы имеем миллиард компьютеров, с частотами порядка гигагерца, связанных между собой Интернетом. Это означает, что совокупная вычислительная мощь за 25 лет выросла не только в миллион раз количественно, но и неисчислимым образом качественно.

Поскольку аналогичная закономерность прослеживается не только относительно чипов, но и жёстких дисков компьютеров, и считывания ДНК и ряда других технологий, понятно, что закон Мура связан не с какой-то особенностью производства микросхем, а с универсальной закономерностью в освоении новых технологий.

Другой способ понять то, что собой представляет закон Мура, состоит в том, чтобы представить, что мы оказались в XIX веке с чертежом компьютера или пулемёта, и понять, чего именно нам не хватает, чтобы сделать это устройство. В первую очередь, нам будет не хватать материалов, деталей и точности обработки. Соответственно, прогресс состоит в росте номенклатуры и удешевлении материалов с заданными свойствами и технологий их обработки. Значит, в основе роста технического прогресса лежит возникновение новых идей, рост объёмов производства (удешевление) и, как ни странно, химия. И сейчас основные технологические открытия совершаются на границе биохимии, нанотехнологий, физики полупроводников и т п.

В своё время наблюдался своеобразный закон Мура в области космонавтики – от первого спутника до высадки на Луну имел место экспоненциальный рост успехов, который давал основания для прогнозов о полётах к звёздам к началу XXI века. Однако вместо этого космонавтика вышла на насыщение и даже на откат по некоторым позициям, вроде полётов на Луну. Это произошло, потому что космонавтика развивалась, как культура микроорганизмов в чашки Петри – то есть экспоненциально росла, пока не упёрлась в свои естественный пределы. Естественными пределами космонавтики стали возможности химических ракет (и их цена). Хотя космонавтика развивалась, принцип реактивного движения и цена производства ракет почти не развивались. В области полупроводников и ряда других технологий происходило наоборот – каждый успех в их создании позволял быстрее и дешевле разрабатывать новее версии.

В производстве кремниевых микросхем закон Мура также должен рано или поздно достичь некого физического предела. Однако если взять закон Мура в более общем виде, то он означает закон самоусложнения структур. И мы неоднократно видели, как это самоусложнение совершало качественные скачки от одной области экспоненциального роста к другой, всякий раз в гораздо более быструю по параметрам развития – от одноклеточным к многоклеточным, от неолита к рабовладельческому строю, от электронных ламп к транзисторам, от микросхем к – возможно – квантовым компьютерам. (Я не привожу здесь полную цепочку ускорения фаз развития, отмечу только, что каждый переход давал ускорение параметра роста в несколько раз.) Это значит, что такие события, как переход с одной экспоненты на другую, более крутую (а очевидно, не было конкурентной выгоды переходить на менее крутую экспоненту развития), являются более важными, чем даже сам экспоненциальный рост между этими переходами. И каждый раз такие переходы связаны с качественными скачками, с открытием принципиально нового способа оптимизация, нового способа более быстрого «думанья» (иначе говоря, с открытиями более быстрых алгоритмов искусственного интеллекта, чем простой перебор). Например, переход к половому размножению был для эволюции открытием более быстрого способа отбора и создания эффективных видов. Переход к письменности – более мощным способом накопления знаний об окружающем мире, чем устная передача. Создание научного метода – более мощным способом познания окружающего мира, чем доверие письменным источникам античности. Создание системы венчурных фирм, разрабатывающих и продающих новые технологии – более быстрым способом, чем работа отдельных конструкторских бюро и изобретателей-одиночек. (См. например: И.Азаров. Венчурный капитал в электронной промышленности США. ).

Вероятно, следует остановиться на том, каким образом устроена разработка новых технологий в современном обществе, – что и позволяет поддерживать нынешний темп роста технологий. Она имеет следующие части:

1) Непрерывная генерация и патентование любых идей.

2) Создание отдельных лабораторий под каждую идею, у которой есть хотя бы мизерный шанс на успех (венчурные фирмы).

3) Непрерывный обмен информацией между всеми участниками процесса, как за счёт открытых публикаций, так и за счёт торговли патентами и лицензиями.

4) Отлаженный механизм внедрения любых новинок. Культ потребления новинок.

5) Покупка «мозгов» – людей с их навыками – под конкретные проекты.

Эта система, как и все предыдущие, сложилась стихийно – то есть путём простого отбора между разными системами оптимизации. (Может быть, с элементами синтеза в духе полового отбора.) Соответственно, можно предположить, что переход к следующей системе оптимизации будет связан с подвижками, так сказать, на уровне мета-оптимизации, то есть оптимизации процессов оптимизации. Очевидной чертой современной системы является то, что она концентрируется не вокруг людей-изобретателей, как в XIX веке – например, вокруг Эдисона и Теслы, а на отработанном конвейере производства и коммерциализации идей, в котором личность отдельного человека не принципиальна. Из сказанного очевидна уязвимость современного «закона Мура» к экономическим потрясениям: для его работы необходим широкий фронт из множества фирм, поддерживаемый непрерывным притоком капитала. Соответственно, в будущем обобщенный закон Мура, иначе говоря, закон ускорения эволюции, ждёт или крах, или переход на ещё более быструю ступень развития. Поскольку нельзя заставить людей менять сотовый телефон 10 раз в год, то, скорее всего, двигателем для следующего скачка будут нерыночные (но конкурентные) механизмы, например, гонка вооружений.

Иначе говоря, закон Мура является продуктом современной экономики, и риски для экономики являются рисками для закона Мура, а значит, – являются глобальными рисками третьего рода. «Закон Мура» в широком смысле слова очень уязвим к целостности и связности общества. Для того чтобы огромное количество технологий продолжало бы развиваться по экспоненциальной кривой, необходимо одновременное функционирования тысяч лабораторий, мощнейшая экономика и качественная информационная связность. Соответственно, даже мощный всемирный экономический кризис может подорвать его. Примером такого рода события может быть распад СССР, в котором наука обрушилась в разы – и обрушилась бы ещё больше, если бы не приток идей с Запада, спрос на энергоносители, импорт компьютеров, интернет, поездки за рубеж и фонд Сороса. Страшно себе представить, насколько бы откатилась назад наука, если бы СССР был единственным государством на планете и распался.

Понятно, что «закон Мура» мог бы поддерживаться внутри нескольких отдельных сверхдержав, обладающих полным комплектом ключевых технологий, но возможно, что некоторые ключевые технологии уже стали воистину уникальными в мире. И конечно, одно небольшое государство, даже европейское, не сможет поддерживать темп развития науки на нынешнем уровне, если останется в одиночестве. В силу этого мы должны осознавать уязвимость закона Мура на современном этапе. Однако создание ИИ, нано и биотехнологий резко уменьшит объём пространства, которое необходимо для «производства всего». Крах закона Мура не будет означать прекращения всех исследований. Разработка отдельных видов биологического оружия, ИИ, сверхбомб может продолжаться усилиями отдельных лабораторий. Однако без всемирного информационного обмена этот процесс значительно замедлится. Крах закона Мура отсрочит или сделает невозможным появление сложных высокотехнологичных изделий, таких, как нанороботы, освоение Луны и загрузка мозга в компьютер, однако доведение до ума относительно простых проектов продолжится.


7. Защита от глобальных рисков

Общее понятие о предотвратимости глобальных рисков

Очевидно, что если мы выясним, что есть несколько простых, очевидных и надёжных способов противостоять глобальным катастрофам, то мы значительно улучшим свою безопасность, а ряд глобальных рисков перестанет нам угрожать. Наоборот, если окажется, что во всех предлагающихся мерах защиты есть изъяны, которые делают их в лучшем случае неэффективными, а в худшем – просто опасными, то нам необходимо придумать нечто кардинально новое. Как мы сейчас представляем, система защиты – на каждой фазе развития глобального риска – должна осуществлять следующие функции:

• Наблюдение.

• Анализа информации и принятия решения.

• Уничтожения источника угрозы.

Эта стратегия хорошо отработана в разведке, борьбе с терроризмом и военном деле. Другая стратегия предполагает бегство от источника угрозы (космические поселения, бункеры). Очевидно, эта вторая стратегия должна применяться в случае провала первой (или одновременно с ней на всякий случай).

Глобальные риски различаются по степени того, насколько возможно их предотвратить. Например, вполне реально запретить некий класс опасных экспериментов на ускорителях, если научное сообщество придёт к выводу, что эти эксперименты создают определённый риск. Поскольку в мире всего несколько больших ускорителей, которые управляются достаточно открыто, и потому что сами учёные не желают катастрофы и не имеют от неё никаких выгод, то кажется очень простым отменить эксперименты. Фактически, для этого нужно только общее понимание их опасности. То есть максимально предотвратимый риск – это тот риск, который:

1) Легко предвидеть,

2) Предвидение о котором легко достигает научного консенсуса.

3) Одного признания которого достаточно, чтобы отказаться от действий, ведущих к этому риску.

Последнее связанно с тем, что:

А) Опасные процессы создаются только людьми.

Б) Они открыто создаются в небольшом числе широко известных мест.

В) Люди не ждут никакой выгоды от этих процессов.

Г) Опасные процессы предсказуемы как по моменту своего возникновения, так и по ходу развития.

Д) Опасные объекты и процессы легко распознаваемы. То есть мы легко, быстро и наверняка узнаём, что началась некая опасная ситуация, и мы правильно оцениваем степень её опасности.

Е) У нас есть достаточно времени в силу специфики процесса, чтобы разработать и принять адекватные меры.

Соответственно, риски, которые трудно предотвращать, характеризуются тем, что:

1) Их трудно предвидеть, даже трудно предположить об их возможности. (Даже предположить, что в SETI есть риск, было трудно.)

2) Даже если кто-то осознаёт этот риск, ему крайне трудно убедить в этом кого-либо ещё (примеры: трудности с осознанием ИИ и SETI как источника риска, трудности доказательства Теоремы о конце света).

3) Даже если будет достигнуто общественное согласие о том, что это действительно опасно, это не приведёт к тому, что люди добровольно откажутся от данного источника риска. (Примеры: ядерное оружие.)

Последнее связано с тем, что:

1) Источники риска доступны большому числу людей, и что это за люди – неизвестно (можно поставить на учёт все физиков ядерщиков, но не хакеров-самоучек).

2) Источники риска находятся в неизвестном месте и/или их легко скрыть (биолаборатории).

3) Риски создаются независящими от человека природными факторами, или в результате взаимовлияния человеческих действий и природных факторов.

4) Источник опасности сулит не только риски, но и выгоды, в частности, является оружием.

5) Момент начала аварийной ситуации непредсказуем, равно как и то, как она будет развиваться.

6) Опасную ситуацию трудно опознать в качестве таковой, это требует много времени, и содержит элемент неопределённости. (Например, трудно определить, что некая новая бактерия является опасной, пока она кого-либо не заразит и пока эпидемия достаточно не распространится, чтобы понять, что это именно эпидемия.)

7) Опасный процесс развивается быстрее, чем мы можем на него адекватно реагировать.

Предотвратимость некоторых рисков, однако, не должна приводить к тому, что их следует сбрасывать со счёта, поскольку не обязательно означает, что риск, в конечном счёте, будет предотвращён. Например, астероидная опасность относится к числу относительно легко предотвратимых рисков, однако реальной противоастероидной (и, что важнее, противокометной – кометы идёт по более крутым орбитам, и часто появляются новые кометы) системы защиты у нас сейчас нет. И пока её нет, «предотвратимость» остаётся чисто гипотетической, поскольку мы не знаем, насколько эффективной и безопасной будет будущая защита, появится ли она вообще и когда.

Активные щиты

В качестве способа предотвращения глобальных рисков предлагается создавать разного рода активные щиты. Активный щит – это средство контроля и воздействие на источник риска по всему земному шару. Фактически, это аналог иммунной системы в масштабе всей планеты. В качестве наиболее очевидного примера можно привести идеи создания всемирной системы ПРО.

Активность щитов подразумевает, что они могут относительно автономно реагировать на любой раздражитель, который проходит под определение угрозы. При этом щит полностью покрывает защищаемую поверхность, то есть Землю. Понятно, что автономный щит опасен неконтролируемым поведением, а управляемый является абсолютным оружием в руках того, кто им управляет. Как нам известно из дискуссий о СОИ, даже если активный щит является полностью оборонительным оружием, он всё равно даёт преимущество в нападении для защищённой стороны, так как она может не опасаться возмездия.

Сравнение активных щитов с иммунной системой человека, как идеальной формой защиты, некорректно, потому что иммунная система неидеальна. Она обеспечивает статистическое выживание вида за счёт того, что отдельные особи живут в среднем достаточно долго, но она не обеспечивает неограниченное выживание отдельного индивида. Любой человек неоднократно заражается заразными болезнями в течение жизни, и многие от них гибнут. Для любого человека найдётся болезнь, которая его убьёт. Кроме того, иммунная система хорошо работает тогда, когда точно знает патоген. Если она его не знает, то потребуется время, чтобы он успел себя проявить, и ещё время, чтобы иммунная система выработала против него ответ. То же самое происходит и с компьютерными антивирусами, которые тоже являются активным щитом: хотя они обеспечивают устойчивое существование всех компьютеров, каждый отдельный компьютер время от времени всё равно заражается вирусом, и данные на нём теряются. Кроме того, антивирус не даёт защиты от принципиально нового вируса, пока не пришлют обновления, а за это время новый вирус успевает заразить определённое число компьютеров. Если бы речь шла о серой слизи, мы поняли бы, что это – серая слизь, только после того, как она значительно распространилась. Впрочем, есть иммунные системы, работающие по принципу: запрещено всё, что не разрешено, но их тоже можно обмануть, и они более склонны к автоиммунным реакциям.

Иначе говоря, иммунная система хороша, когда есть мощное дублирование основной системы. У нас пока нет возможности дублирования Земли, а космические поселения столкнуться с рядом принципиальных трудностей (см. главу о них). Кроме того, у всех иммунных систем бывают ложные срабатывания, которые проявляются в автоиммунных заболеваниях – как, например, аллергия и диабет – которые оказывают значительный вклад в человеческую смертность, сравнимый по порядку величины с вкладом рака и инфекционных заболеваний. Если иммунная система слишком жёсткая, она порождает автоиммунные заболевания, а если слишком мягкая – то пропускает некоторые опасности. Поскольку иммунная система покрывает весь защищаемый объект, то выход её из строя создаёт угрозу всему объекту (здесь действует принцип распространение фактора опаснее разрушения). Террористическая атака на иммунную систему делает всю систему беззащитной – так работает СПИД, который только тем сильнее распространяется, чем сильнее с ним иммунная система борется, поскольку он находится внутри неё.

Соответственно, широко обсуждаются идеи БиоЩита и НаноЩита. Эти щиты подразумевают распыление по всей поверхности Земли тысяч триллионов контролирующих устройств, способных оперативно проверять любые агенты на опасность и оперативно уничтожать опасные. Также к щитам относится дальнейшее ужесточение контроля в Интернете и всемирное развешивание следящих видеокамер. Однако уже на примере всемирной ПРО видны существенные проблемы любых щитов.

1. Они мучительно отстают от источника угрозы по времени разработки.

2. Они должны действовать сразу на всей территории Земли без исключений. Чем точечнее угроза, тем плотнее должен быть щит.

3. Они уже сейчас вызывают серьёзные политические разногласия. Поскольку, если щит покрывает не всю поверхность Земли, то он может создавать ситуацию стратегической нестабильности, как, например, национальные системы ПРО порождают соблазн ударить первыми – и страх этого у тех, у кого их нет.

4. Любой щит создаётся на основе ещё более продвинутых технологий, которые могут создавать угрозы своего уровня.

5. Щит может быть источником глобального риска сам по себе, если у него начнётся некая «автоиммунная реакция», то есть он начнёт уничтожать то, что должен был защищать. Или если управление щитом будет потеряно, и он начнёт защищаться от своих хозяев.

6. Щит не может быть абсолютно надёжен – то есть успех его срабатывание носит вероятностный характер. И тогда, в случае постоянной глобальной угрозы вопрос его пробивания – это только вопрос времени.

7. Щит должен иметь централизованное управление, но при этом автономность на местах для быстрого реагирования.

Например, антиастероидный щит создаст много новых проблем безопасности человечества. Во-первых, он даст технологию точного управления астероидами, которая за счёт малых воздействий может направить на Землю огромную массу, причём тайно, в духе криптовойны. Во-вторых, сам такой щит может быть использован для атаки по Земле. Например, если на высокой орбите будет висеть 50 штук гигатонных бомб, готовых по команде устремиться в любую точку Солнечной системы, я не буду чувствовать в большей безопасности. В-третьих, движение всех астероидов за миллиарды лет хорошо синхронизировалось, и любое нарушение этого равновесия может привести к тому, что этот же астероид станет постоянной угрозой, регулярно проходя рядом с Землёй. Особенно это будет опасно, если человечество после такого вмешательства откатится на предтехнологический уровень.

Обратим внимание на то, что каждая опасная технология может быть средством собственного предотвращения:

• Ракеты сбиваются с помощью ракет ПРО.

• По местам производства ядерного оружия наносятся ядерные удары.

• ИИ контролирует весь мир, чтобы нигде не создали неправильный ИИ.

• Биодатчики не дают распространиться биологическому оружию.

• Нанощит защищает от нанороботов.

Часто щиты делают нечто ровно противоположное тому, ради чего они создавались. Например, есть мнение (доклад Беллоны, глава IV.1. «Три «трещины» ДНЯО» ), что договор о нераспространении ядерного оружия плохо справляется с чёрным рынком, но хорошо справляется с распространением мирного атома (то есть строительствам во всех странах, которые этого хотят, исследовательских ядерных реакторов), который фактически оказывается технологией двойного назначения. Прочные двери, которые защищают кабины самолётов после терактов 11 сентября, не дадут проникнуть террористам в кабину, но если они там всё-таки окажутся (например, в силу того, что сам пилот – террорист), то пассажиры и стюарды не смогут им помешать. Если есть система управления полётом с Земли, то появляется шанс захватить самолёт, используя эту систему, по радио.


    Ваша оценка произведения:

Популярные книги за неделю