Текст книги "История математики. От счетных палочек до бессчетных вселенных"
Автор книги: Ричард Манкевич
Жанры:
Математика
,сообщить о нарушении
Текущая страница: 14 (всего у книги 15 страниц)
23. Машинные коды
В истории математики существовало множество параллельных течений, из которых то одно, то другое периодически выходило на передний план. Такими были отношения между арифметикой и геометрией, или между чистой и прикладной математикой. Другой парой противоположностей можно назвать алгоритмическую и «аналитическую» математику. Последнюю более интересовали лежащие в основе структуры и «красивые» теоремы, тогда как первая в основном занималась выработкой процедур, необходимых для принятия практических решений. Мы видели, например, как в различных системах счисления использовались различные методы или алгоритмы, позволяющие найти иррациональные числа вроде √2.Исследование того, какая процедура наиболее эффективна в терминах достижения необходимого уровня точности при наименьшем числе шагов, – основная забота алгоритмической математики.
Первоначально термин «алгоритм» обозначал вычисления, выполняемые при помощи индо-арабских цифр, в отличие от вычислений на абаке или на счетной доске. По мере сокращения в Европе подсчетов на абаке, а также потому, что вычисления стали намного более трудоемкими, росло желание выполнять вычисления при помощи механического вычислительного устройства. В семнадцатом веке математики вроде Паскаля, Декарта и Лейбница мечтали создать универсальный язык, на котором можно было бы закодировать все математические проблемы, и написать методы решения, которые можно было бы выполнять механически. Они пытались построить разнообразные механические калькуляторы. Представление Лейбница об универсальном языке исчисления выходило за рамки дифференциального и интегрального исчислений и включало формальные правила, с помощью которых можно было решать вопросы науки, этики и закона. Использование вычислительных машин могло значительно увеличить мощность любого эффективного алгоритма, но лишь в двадцатом веке произошло объединение программного обеспечения и аппаратных средств.
В 1819 году Чарльз Бэббидж (1791–1871) создал первый проект «дифференциальной машины», а в 1822 году выстроил опытный рабочий образец. Он надеялся, что это улучшит и скорость, и точность вычисления очень необходимых таблиц, например таблицы логарифмов. Британское правительство поддержало полномасштабное строительство этой машины, способной к созданию беспрецедентно точных таблиц для страхового, административного и научного использования. Но к 1834 году проект намного превысил бюджет и вышел из графика. Хотя идеи Бэббиджа и его честность в отношении финансовых вопросов никогда нее вызывали сомнений, правительство отложило дальнейшее финансирование. К тому времени он перенес свое внимание на проект «аналитической машины» – настоящего предшественника современного компьютера. Ключевой особенностью этого агрегата было разделение хранилища, где находились числа во время вычисления, и машины, которая выполняла арифметические операции. Входные и выходные данные были закодированы на перфорированных картах, равно как и устройство контроля, которое осуществляло выполнение программы. Был также предусмотрен вывод на печатное устройство. Чтобы можно было выполнять эти операции, использовался паровой двигатель. Но «аналитическая машина» так никогда и не была построена, и в 1842 году правительство решило прекратить финансирование «разностной машины». Это стало еще одним подтверждением желчного отношения Бэббиджа к британской науке. Он был сооснователем Аналитического общества, главная цель которого состояла в том, чтобы довести обучение математике в Кембридже до стандартов континента. В 1830 году он написал статью, в котором яростно критиковал состояние британской науки, в основном обвиняя в этом изолированность Королевского общества, что привело к созданию британской Ассоциации развития науки. К сожалению, анализ соотношения стоимости и эффективности идей Бэббиджа показал, что они не будут реализованы в течение еще почти ста лет.
Как и предвидел Бэббидж, развитие компьютеров в значительной степени зависело от потребности ускорить выполнение расчетов с помощью механических калькуляторов. Первая автоматическая вычислительная машина была построена в Гарварде на средства IBM приблизительно в 1940 году. Первый электронный программируемый компьютер назывался «Колосс». Он был построен в 1943 году в результате сотрудничества Алана Тьюринга и Джона фон Неймана и представлял собой часть работы по взлому шифров в Блетчли-Парке. Однако был проект, который оказал особое влияние на будущую компьютерную архитектуру, – ENIAC (электронный цифровой интегратор и калькулятор), построенный приблизительно в то же время в университете штата Пенсильвания. Фон Нейманн надеялся, что ENIAC, первоначально разработанный для расчета баллистических таблиц, сможет выполнить некоторые вычисления, необходимые для Манхэттенского проекта. Однако затем он предложил новый, свой собственный проект компьютера, сохраняющего программу, называющийся EDVAC (Электронный Автоматический Компьютер Дискретных Переменных). Новая структура состояла из пяти основных компонентов: входные данные, выходные данные, блок управления, память и арифметический блок. Компьютер с сохранением программы называется так потому, что программа вводится в память посредством числовых данных, в то время как блок управления выполняет последовательность инструкций. Первый практический компьютер этого типа был построен в 1949 году в Великобритании и назывался EDSAC (Электронный Автоматический Калькулятор с задержкой Хранения). Следующие машины были построены в США и Великобритании, и к 1960-м годам хранение программ стало обычным делом. Использование полупроводниковых компонентов для замены электронно-лучевых ламп привело к значительному увеличению скорости и надежности работы. Несмотря на то что эти компьютеры сильно напоминали проекты Бэббиджа, их авторы ничего не знали о его работах.
Совершенно ясно, что изобретение компьютеров было мотивировано вполне практическими проблемами в бизнесе, управлении, криптографии или в решении уравнений математической физики. Компьютеры с хранением программ отделили аппаратные средства от программного обеспечения. Но первичная работа над программами – алгоритмами для выполнения соответствующих вычислений – шла не от практических проблем, а от логического рассмотрения формальных систем.
Самый привычный пример формальной системы – обычная арифметика. В ней есть четкий набор символов, есть процедуры для того, чтобы работать с этими символами, разобраться с проблемой и найти решение. Сами символы не имеют никакого значения кроме как в отношении правил формальной системы. Например, если я хочу понять, что означает ABmBAeBEB, я могу использовать различные методы или алгоритмы, чтобы выполнить вычисление. Вероятно, будет легче понять это выражение в виде 12 х 21 = 252, но этот пример хорошо иллюстрирует, что фактические символы не важны, имеет значение лишь истинность утверждения, в данном случае вычисления, которая может быть доказана посредством выведения из установленных аксиом. Если убрать общепринятое использование букв в обозначении функций, числа могут не только обозначать количества, но могут также действовать как операторы. Это – критический фактор перехода от вычислительных устройств, разработанных для решения определенных типов задач, к общим, универсальным компьютерам. В современном компьютере любая команда, например указание показать красный пиксель в определенном месте на мониторе, – это, по существу, цепочка чисел. Фактически вся программа, преобразованная в бинарный код, есть одно (очень большое) число. Базисная простота компьютеров часто не замечается из-за все возрастающей скорости и мощности этих машин.
Курт Гедель (1906–1978) в своей статье 1931 года «О формально неразрешимых суждениях Principia mathematica и связанных систем» описал специфический метод присвоения уникального числа каждому суждению, выраженному внутри формальной системы. Даже доказательство истинности суждения может быть выражено как уникальная цепочка натуральных чисел, причем на основании этих базовых символов можно решить, какие из них значащие, а какие – нет. Первый из двух классических результатов, описанных в этой статье, – это «теорема неполноты», заключающаяся в том, что аксиоматическая система, даже такая базовая, как арифметика целых чисел, содержит суждения, истинность или ложность которых не могут быть доказаны. Это до некоторой степени походит на лингвистическую дилемму «данное предложение – ложь». Существование таких неразрешимых суждений показало, что программа аксиоматизации математики, предпринятая Бертраном Расселом и Альфредом Нортом, невыполнима. Гедель также разочаровал Дэвида Гилберта, который стремился создать полную и последовательную арифметику, то есть арифметику без внутренних противоречий. Гедель также показал, что имеет место и прямо противоположное – если система последовательна, она не может доказать свою собственную последовательность изнутри самой себя. Короче говоря, мы говорим, что арифметика неполна. После того как в крышку гроба арифметики был забит огромный гвоздь, математики оставили поиски великой единой математики и вместо этого сосредоточились на исследовании того, как различные формы аксиоматизации приводят к различным математическим системам. Сам факт наличия математического языка должен позволить нам отвечать на вопросы, так что главным образом следует обсуждать процесс, которым определяется истинность математических суждений. Теперь математики в основном говорят об исчисляемости, а не о разрешимости проблемы.
Параллельно с фокусировкой внимания на алгоритмах появилось обобщение понятия функции. В самом общем смысле функция ƒ – произвольное соотношение между математическими объектами. Считается, что функция вычислима, если существует алгоритм, который создает на выходе ƒ (х)для любого значения х,для которого ƒ (х)определено, то есть для так называемой области определения ƒ (х).Лишь в конце девятнадцатого столетия, когда были построены патологические функции, до математиков дошло, что функция может и не быть вычислимой. В результате внимание переместилось на вычислительные алгоритмы. Стало совершенно ясно, вычисляет ли данный алгоритм именно ту функцию, которая необходима. Но если невозможно было подобрать ни одного алгоритма, необходимо было доказать, что такового алгоритма вообще не существует. Появилась необходимость в точном определении понятия алгоритма. В статье Геделя содержались идеи относительно рекурсивных функций, где необходимая функция получалась путем последовательности промежуточных функций. Эти концепции оказались очень плодотворными для определения вычислительных алгоритмов. В 1936 году Алонзо Чёрч в Принстоне и Алан Тьюринг в Кембридже независимо друг от друга опубликовали свои концепции исчисляемости. Затем Тьюринг показал, что эти два понятия полностью эквивалентны. Определение алгоритма Тьюринга было основано на модели вычислительной машины, названной Чёрчем «машина Тьюринга». На вопрос о том, существует ли алгоритм, который мог бы определить, верна формула или нет, был дан отрицательный ответ. Эти результаты, совместно с данными Геделя, окончательно похоронили надежду на то, что компьютер однажды сможет определить истинность и ложность всех математических суждений. Однако сосредоточенность на алгоритмах положила начало развитию программного обеспечения, которое объявило о начале новой эры в математической физике. Вычислительная математика вернулась к обсуждению старых проблем динамики, вроде стабильности Солнечной системы, а также обратила взор на биологические системы и саму сложную динамику жизни.
В естественных науках автоматы играли роль, значение которой непрерывно возрастало и которая к настоящему времени стала весьма значительной. Этот процесс развивался в течение нескольких десятилетий. В конце этого периода автоматы стали захватывать и некоторые области математики, в частности (но не только) математическую физику и прикладную математику. Их роль в математике представляет интересный аналог некоторых сторон жизнедеятельности организмов в природе. Как правило, живые организмы гораздо более сложны и тоньше устроены и, следовательно, значительно менее понятны в деталях, чем искусственные автоматы. Тем не менее рассмотрение некоторых закономерностей устройства живых организмов может быть весьма полезно при изучении и проектировании автоматов. И наоборот, многое из опыта нашей работы с искусственными автоматами может быть до некоторой степени перенесено на наше понимание естественных организмов.
При сравнении живых организмов и, в частности, наиболее сложно организованной системы – нервной системы человека – с искусственными автоматами следует иметь в виду следующее ограничение. Естественные системы чрезвычайно сложны, и ясно, что проблему их изучения необходимо подразделить на несколько частей. Один метод такого расчленения, особенно важный в нашем случае, заключается в следующем. Организмы можно рассматривать как составленные из частей, из элементарных единиц, которые в определенных пределах автономны. Поэтому можно считать первой частью проблемы исследование структуры и функционирования таких элементарных единиц в отдельности. Вторая часть проблемы состоит в том, чтобы понять, как эти элементы организованы в единое целое и каким образом функционирование целого выражается в терминах этих элементов.
Джон фон Нейман. Статья «Общая и логическая теория автоматов»
24. Хаос и сложность
С начала девятнадцатого века математика рассматривалась как аналитический и логический предмет; к концу столетия она произвела на свет целый зверинец математических монстров, вроде непрерывных функций, не имеющих касательных. В динамике задача трех тел – тестовый пример стабильности Солнечной системы – все еще не имела никаких устойчивых решений, и Анри Пуанкаре, анализируя частный случай этой задачи, создал очень сложную, запутанную структуру. Изменение точки зрения с аналитической на геометрическую показало математикам, что то, что казалось ужасающим беспорядком, имело много подобий с тем видимым беспорядком, коим является реальным мир. Математические монстры, оказалось, охраняли пещеру Аладдина с новыми и замечательными математическими объектами. Вход в этот мир осуществлялся с помощью компьютеров, которые стали лабораториями новой математики, базирующейся на алгоритмах. В свою очередь, сделанные при этом открытия могли поддержать аналитическое представление и приводили к пониманию, что «простые» системы, которые использовались математиками, – всего лишь верхушка колоссального айсберга.
Имя, неразрывно связанное с фрактальной геометрией, – Бенуа Мандельброт. Ныне он профессор Йельского университета и почетный профессор IBM [26]26
К моменту выхода этой книги в свет Бенуа Мандельброт (1924–2010) – знаменитый французский и американский математик, создатель фрактальной геометрии – был еще жив. Он скончался 14 октября 2010 года в Кембридже (штат Массачучетс, США).
[Закрыть]. Его интерес к тому, что он позже назвал фракталами, возник в 1951 году. В 1977 году Мандельброт издал книгу «Фракталы: форма, случай и размерность», а в 1982 году вышло ее пересмотренное и расширенное издание – «Фрактальная геометрия природы». О фракталах было написано очень много, широко известны создаваемые ими узоры в стиле рококо. В динамике была хорошо известна идея «аттракторов», например, орбита планеты – это эллиптический аттрактор. В ней существуют некоторые возмущения, но они удерживаются в определенных пределах. При решении полиномиалов числовыми методами, если итерации сходятся к определенному решению, то это решение – аттрактор. Иногда корень, который, как известно, может быть выражен графически, не может быть получен методом итерации – такой корень называют «отражателем». Но в хаотической системе вроде турбулентного воздушного потока аттрактор представляет собой фрактал, и он известен как странный аттрактор.
Как только мы понимаем, как надо правильно на это смотреть, мы находим хаотическое поведение в самых простых ситуациях. Логистическое разностное уравнение z = λ z (1 – z) – простое квадратное уравнение со всего одним изменяющимся коэффициентом, обозначенным λ. Уравнение имеет два корня, как и предполагается для квадратного уравнения, но если мы используем итерационную процедуру, то обнаружим некоторые удивительные свойства. Для большинства значений λ итерация «взрывается» и отклоняется к бесконечности. Но если мы начнем с λ = 1и начнем медленно увеличивать значение этого коэффициента, мы увидим, что итерация не отклоняется и при этом не сходится к единственному значению: вместо этого она колеблется между рядом значений. В некоторый момент система ведет себя хаотически, выполняя дикие скачки между множеством чисел. Если мы теперь добавим комплексные числа, сегмент вещественной оси разветвляется, демонстрируя фрактальную структуру. С помощью простого преобразования разностное уравнение принимает вид другого квадратного уравнения z = z 2– т.Итерационный процесс весьма прост, но очень утомителен, если его выполнять вручную. Мандельброт первым с помощью компьютера распечатал то, что теперь называют множеством Мандельброта для случая, где z – комплексное число. Множество Мандельброта – по сути, ряд чисел, и его исходная одноцветная распечатка представляла собой черно-белый текст, состоящий из значений m, для которых итерация не сходилась к бесконечности – то есть тех, для которых итерации оставались ограниченными. Лишь после того, как компьютеры обзавелись более мощными принтерами и увеличилась сложность компьютерной графики, стала видна невероятная красота этой структуры, с ее зубчатыми завитками. Эта простая система выявила многие характеристики, которые Мандельброт стремился свести воедино. С помощью компьютера стало возможно увидеть самоподобие, столь характерное для фракталов, когда путем изменения масштаба изображения выполняется погружение внутрь множества, где обнаруживаются мини-множества, подобные большему целому. Возвращаясь к разностному уравнению, для комплексных значений λ итерации создают то, что Мандельброт любил называть «драконами». Страшные монстры математического анализа переродились в прекрасных существ, которые с радостью были приняты в дружную семью математики.
Слово «хаос» обычно истолковывается неверно, поскольку в повседневном языке оно часто служит синонимом «беспорядка». Но теория хаоса совершенно детерминистская – множество Мандельброта всегда будет выглядеть одинаково, и любое начальное значение zвсегда будет приводить к одной и той же повторяющейся последовательности. Различие между хаотической и случайной системой заключается в том, что случайная система вообще не имеет никакой структуры – это математический эквивалент белого шума, – тогда как хаос систему имеет, хотя очень сложную и трудноуловимую. Однако, хотя порождение фракталов – детерминистский процесс, он непредсказуем: нет никакого алгоритма для того, чтобы заранее решить, будет ли точка относиться ко множеству Мандельброта или нет. Единственный способ сделать это – осуществить итерацию. Цветные версии фракталов – наглядная демонстрация того, сколько шагов итерации будет достаточно, чтобы точка устремилась к очень большой величине, а сложные узоры с расположенными рядом точками разного цвета иллюстрируют, что такие точки в конечном счете будут стремиться разойтись. Известно, что точка на экране компьютера – это пиксель конечного размера, но по мере увеличения разрешения экрана увеличивается и сложность рисунка. Именно поэтому хаотические системы настолько трудно предсказать. Хотя итерации детерминистичны, они также очень чувствительны к начальным значениям. Когда они используются для моделирования систем реального мира, ошибки начальных измерений будут только возрастать. То, что многие природные динамические системы ведут себя хаотично, остается одной из тайн нашей Вселенной.
Может показаться, что теория хаоса рисует довольно гнетущую картину Вселенной как о нестабильном пространстве, которому суждено рассеяться под неустанным гнетом второго закона термодинамики. И все же Вселенная полна четких структур, от регулярных ударов пульсаров до изящных спиралей в молекуле ДНК. Постеленное наступление энтропии, похоже, обращено вспять, по крайней мере, локально – джинн загнан в бутылку. Исследование, как такие структуры появляются, – область математики, называемая теорией сложности вычислений. В исследование сложных систем теперь включено много разделов математики, включая теорию хаоса, теорию искусственного интеллекта, теорию создания систем и теорию автоматов.
Интерес к сложным системам зародился в самых разных областях науки, и ключевой фигурой в работе по их сопряжению был Джордж А. Коуэн. В 1942 году Коуэн, специалист в области химии радиоактивных элементов, работал в Чикагском университете, где итальянский физик Энрико Ферми строил первый атомный реактор – союзники боялись, что немцы уже работают над созданием атомной бомбы. Ранние эксперименты Ферми и его теоретические исследования по вопросу осуществимости цепной реакции были направлены на достижение достаточной энергии для создания атомной бомбы. В то время Коуэн работал в Манхэттенском проекте и после войны стал руководителем исследовательской группы в лаборатории Лос-Аламоса. Именно группа Коуэна проанализировала последствия первого советского атомного взрыва. Он почти тридцать лет служил в Группе Бете – тайной группе ученых, которой был поручен контроль за ядерными исследованиями России. В это время он стал все больше интересоваться проблемами науки и государственной политики. Он считал, что традиционные образовательные методы не дают ученым возможности видеть ни более широкие связи между тем, что казалось разрозненными дисциплинами, ни связь между наукой и более политическими проблемами экономики, экологии и этики. В 1982 году Коуэн ушел из Лос-Аламоса и вошел в состав Совета по науке Белого дома. В то же самое время он зондировал отношение коллег к его мечте – создать центр, посвященный целостному исследованию всех количественных наук.
Рост мощности вычислительной техники позволил ученым исследовать все более сложные уравнения, не только уравнения со многими параметрами, но и так называемые нелинейные уравнения. До этого момента математика по большей части имела дело с линейными уравнениями. Этот подход, хотя и был в свое время очень успешным, теперь, когда речь зашла о точном моделировании сложных систем, начинал казаться ограничением. Но компьютерам было не важно, что решать – линейные или нелинейные уравнения, – они просто производили в большом количестве и с невероятной скоростью как числовые решения, так и решения в графическом виде. Ученые и математики теперь получили новую цифровую лабораторию. Именно нелинейные уравнения позволяют нам рассмотреть взаимосвязи между переменными, которые мы раньше считали совершенно независимыми друг от друга. Началось плодотворное сотрудничество между физиками и биологами, и в Лос-Аламосе даже открылся собственный Центр нелинейных систем. Но Лос-Аламос не должен был отклоняться от своей основной области – ядерной физики, так что Коуэну надо было приискать себе другое место, где он мог бы, опираясь на успех, достигнутый в Лос-Аламосе, распространить исследование на другие области.
Коллеги Коуэна с энтузиазмом отнеслись к основанию нового института согласно выдвинутым предложениям, но именно предполагаемая широта охвата мешала точно определить, чем же фактически должен заниматься этот институт. Поворотный момент наступил тогда, когда к команде ученых присоединился Мюррей Джелл-Манн. Ведущий физик-теоретик, именно Джелл-Манн приспособил слово «кварк», придуманное Джеймсом Джойсом в «Поминках по Финнегану», для обозначения нового типа субатомных частиц. Он был одним из ведущих пропагандистов теории Великого Объединения, которая сводила воедино все фундаментальные силы природы в единственную, когерентную структуру. Теперь он хотел пойти еще дальше, создав Великую Единую Теорию Всего – от древних цивилизаций до сознания. В 1984 году институт был зарегистрирован как Институт Рио-Гранде, поскольку более предпочтительное название – Институт Санта-Фе – тогда использовалось для терапевтических исследований. К концу того же года в институте были проведены первые симпозиумы в рамках Школы всеамериканских исследований в Санта-Фе. Финансирование шло от самых разных организаций, но, поскольку сам Коуэн сумел сколотить небольшое состояние в 1960-х, основав Национальный банк Лос-Аламоса, недостаток средств не стал для него непреодолимым препятствием. При первой же встрече стало совершенно ясно, что многим из величайших умов в соответствующих областях науки действительно было что сказать друг другу. Выяснилось, что многие из них занимаются одними и теми же проблемами. По существу, они говорили о системах на стадии становления: это было понимание, что целое больше, чем сумма составляющих его частей, что от взаимодействия многих агентов – не важно, частиц, людей, молекул или нейронов, – появляется сложность, которая не очевидна у отдельных составляющих этих систем. Похоже, научный редукционизм работал лучше при переходе от сложных систем к более простым единицам, однако при построении здания сложных структур из простых единиц наука была менее успешна. Всплеск интереса, возникший в самом начале, не привел сразу же к полному финансированию работы института, но новый центр в конечном счете смог получить название Института Санта-Фе. Вполне естественно, что первый крупный спонсор пришел из мира финансов.
Банки и инвестиционные компании все сильнее интересовались выяснением способности традиционной экономики сделать точные предсказания о развитии финансовой системы. В 1987 году недавно назначенный генеральный директор «Ситикорп» воспользовался возможностью профинансировать симпозиум экономистов и физиков, проходивший под эгидой Института. Определенные физические системы имели те же особенности, что и социальные системы: они обе описывались похожими математическими выражениями, и эта математика была математикой сложных систем. Фактически они известны как сложные адаптивные системы, в которых можно проследить множество отрицательных и положительных механизмов обратной связи. К ним относятся иммунная система, развитие эмбриона, экология, развитие экономических рынков и политических партий. Сложность – результат сочетания соперничества и сотрудничества, поскольку они находятся в состоянии непрерывного динамического равновесия: по сути, это ходьба по канату, натянутому между строгим порядком и хаосом. И что самое удивительное – такие системы действуют по довольно простым правилам, даже самые сложные и запутанные узоры так или иначе рождаются из взаимодействия простых стандартных блоков без предварительного предопределенного шаблона. Сложность – это феномен становления. И Институт Санта-Фе теперь занимал видное положение в научном мире.
Один из примеров действия сил, описанных выше, – автомат. Один «мир» автоматов был известен как «игра жизни». Он был придуман в 1970 году Джоном Конвеем, математиком из Кембриджа. Это была не столько игра, сколько миниатюрная вселенная, в которой двумерная сетка была населена эволюционирующими клетками. Как только население заполнило этот мир, каждая клетка жила и умирала в зависимости от числа соседних живых клеток – если их было слишком много, она умирала от перенаселения, если их было слишком мало – клетка умирала от одиночества. Вселенная начала развиваться, и на ней возникло множество структур, вроде мерцающих алмазов, узоров в виде бабочки и «планеров», которые, казалось, летели над поверхностью. Джон фон Нейман начал исследовать клеточные автоматы еще в 1940-е годы, но его незаконченная работа была отредактирована и издана только в 1966 году, почти через десять лет после его смерти. Он заявил, что существует по крайней мере одна клеточная форма автомата, которая может воспроизвести себя, посему самовоспроизводство не может считаться уникальным свойством живых организмов. Он также показал, что программное обеспечение не зависит от аппаратных средств, будь это компьютер или мозг. Открытие структуры ДНК, сделанное Фрэнсисом Криком и Джеймсом Уотсоном в 1953 году, подтвердило анализ фон Неймана математических требований к системам саморепродуцирования. В 1984 году Стивен Вольфрам показал, что автоматы имеют глубокие подобия с нелинейной динамикой. Он разделил клеточные автоматы на четыре «класса всеобщности». Классы I и II производят статические решения за короткое число циклов. В первый класс входят твердые, неподвижные структуры, во второй – периодические и устойчивые. В класс III входили хаотические системы, не выказывающие никакой видимой структуры, в то время как в класс IV входили «игра жизни» и другие системы, демонстрирующие порядок на стадии становления. Кристофер Лэнгтон уточнил эту классификацию и обнаружил, что система, проходящая фазу изменения, например лед, превращающийся в воду, будет развиваться, проходя от порядка через сложность к хаосу. Клеточные автоматы были объявлены новой формой жизни. При подходящих условиях они могли воспроизводиться и даже действовать как компьютер, не подражая аппаратным средствам, управляющим программой, но действуя по принципу, который фон Нейман и Тьюринг назвали универсальным компьютером. «Игра жизни» продемонстрировала, что поведение, подобное тому, что мы наблюдаем у живых существ, возникает в состоянии между порядком и хаосом, в состоянии сложности в рамках идеально настроенной вселенной.
В 1990 году Институт Санта-Фе стал всемирным центром исследований сложных систем. Возможно, сейчас еще слишком рано оценивать важность его работы, но ясно одно – изменилась сама природа математики, что привело к фундаментальным изменениям в философии жизни и представлении о структуре Вселенной. Вселенная, подобная часовому механизму, какой представлял ее Ньютон, умерла. Ее заменила эволюционная модель взаимосвязанной сложности. Математика остается столь же непредсказуемой, как и сама жизнь.
Почему геометрия часто описывается как «холодная» и «сухая»? Одна из причин этого лежит в ее неспособности описать форму облака, горы, береговой линии или дерева. Облака – не сферы, горы – не конусы, береговые линии – не окружности, кора не гладкая, и даже свет двигается не по идеально прямой линии. В более широком смысле я утверждаю, что многие природные формы настолько нерегулярны и фрагментированы, что, по сравнению с Евклидом… природа демонстрирует не просто более высокую степень, но совершенно иной уровень сложности. Число природных форм различных размеров практически бесконечно – и так во всем.
Существование этих форм предполагает необходимость изучать формы, которые Евклид вообще отбрасывает как «бесформенные», – морфологию «аморфных тел». Математики же презирали эту необходимость, стремясь убежать от природы. Они изобретали теории, совершенно не связанные с тем, что мы можем видеть или чувствовать.
Я выдумал термин «фрактал», создав его из латинского прилагательного «fractus». Соответствующий латинский глагол «frangere» означает «разбивать», то есть создавать несимметричные фрагменты. Поэтому – и это очень подходит для наших нужд! – в дополнение к «фрагментированности» (как во «фракции» или «рефракции»), «fractus» должен также означать «нерегулярный». Оба значения сохраняются в термине «фрагмент».
Я совершенно убежден, что ученые будут удивлены и восхищены, узнав, что многие формы, которые они должны были бы называть негладкими, шероховатыми, змеевидными, ни на что не похожими, прыщавыми, рябыми и неровными, ветвистыми, похожими на клубок водорослей или клуб дыма, странными, запутанными, извилистыми, изогнутыми, морщинистыми и т. п., теперь можно описывать строгим количественным способом.
Бенуа Мандельброт. Фрактальная геометрия природы (1982)