Текст книги "Журнал «Компьютерра» №25-26 от 12 июля 2005 года"
Автор книги: Компьютерра Журнал
сообщить о нарушении
Текущая страница: 4 (всего у книги 10 страниц) [доступный отрывок для чтения: 4 страниц]
Сверхновые процессоры: Сверхновые процессоры
По-настоящему новая техника создается лишь на иных физических принципах, нежели те, что использовались ранее.
В 50-х годах было построено множество ламповых ЭВМ – кровная заинтересованность военных и ученых давала возможность быстро совершенствовать эти устройства, но все они были очень похожи друг на друга. Внушительные габариты, колоссальная стоимость, низкая надежность… Жара машинных залов. Гул вентиляторов.
Когда благодаря пионерским разработкам Физического института Академии наук СССР (ФИАН) появились газоразрядные тиратроны с холодным катодом – хоть и лампы, но уже не электронно-вакуумные, – для мирового инженерного сообщества это, разумеется, было потрясением. Новые – ионные – приборы позволяли значительно упростить схемные решения за счет использования существенно нелинейных характеристик низкотемпературной плазмы. «Неонки» были в 5-10 раз компактнее радиоламп, гораздо дешевле, токи потребления и тепловыделение – мизерные. В 1952 году ФИАН посетил знаменитый француз – академик Пьер Оже. Когда ему рассказали о переносном вычислителе-анализаторе ядерных и космических излучений на полторы тысячи счетчиков, он трижды переспросил, чтобы убедиться, что не ослышался. В европейских лабораториях в те годы большими считались стационарные ламповые анализаторы максимум на сотню счетчиков. Именно на базе ионной технологии в 50-х годах были созданы первые ЭВМ размером с гардероб – «Океан», разработанная в Вычислительном центре АН СССР, и управляющие машины «Эра-800» и «Никель», пригодные для эксплуатации в жестких условиях металлургических заводов. Многие инженеры, с которыми я беседовал о тех временах, вспоминали, что были буквально влюблены в плазменную электронику.
Ну-с, а потом пришла физика твердого тела. Какое-то время, конечно, потребовалось исследователям и технологам, но в один прекрасный момент появился микропроцессор… Для меня «этот момент» выглядел так: отец принес с работы журнал «Электроника» и молча, но многозначительно постучал пальцем по анонсу на обложке. Там была нарисована микросхема, и что-то говорилось о «микропроцессоре». Что такое «просто» процессор я к тому времени представлял себе очень хорошо, поэтому слово «микропроцессор» и изображенную микросхему я поначалу никак между собой не связал. Но когда трижды (как академик Оже!) перечитал статью о том, что вот эта самая микросхема и есть микропроцессор, все и произошло. Я влюбился в этот прибор!
Так вот, вопрос. Каким должно стать вычислительное устройство, чтобы оно поразило ваше воображение? Каким он будет – сверхновый процессор? Об этом я спрашивал всех авторов темы номера.
Профессор О. А. Волков (интервью с ним – на стр. 26) ответил так: «До сих пор мы интегрируем элементную базу… Мы научились делать микросхемы и с тех пор просто наращиваем количество интегрированных компонентов. Вот когда мы начнем интегрировать физические процессы, когда от локальных „деталюшек“ перейдем к распределенным функциям обработки информации, закодированной в переменных физических процессов… вот тогда – то, что получится в результате, наверняка будет поражать воображение».
Другой точки зрения придерживается Вадим Омельянчик, руководитель лаборатории, занимающейся перспективными алгоритмами обработки сигналов. Процессор будущего, говорит он, это не столько «невиданное железо», сколько «невиданный софт». Внешне прибор будет как сегодняшний, но процессы внутри все будут другими. Красивее и намного глубже.
Руководитель постоянно действующего изобретательского семинара А. А. Калиновский считает, что интегрированию физических явлений и процессов еще предстоит научиться. Он считает, что принципы конструирования инженерных систем из отдельных узлов (элементов) необходимо распространить на процессы создания физических систем, где роль «элементной базы» будут играть сотни и тысячи открытых учеными физических явлений и эффектов. Но чтобы это осуществить, потребуется глубокая перестройка сознания разработчиков, в частности отказ от понятий «узел» или «элемент» в пользу понятий «явление», «процесс».
Дмитрий Лежаков – специалист в области математического моделирования процессов аэро– и гидродинамики – подметил любопытную особенность технического прогресса: «Мы берем новый физический принцип и – р-раз! Видим, что наше устройство стало конструктивно проще. Там стало меньше деталей. Потом начинаются усовершенствования, доработки… Конструкция усложняется, опять становится много деталей… И в какой-то момент надо брать новый принцип, который вновь приведет к тому, что половину деталей можно будет выбросить без ущерба для функциональности.»
Еще один мой собеседник высказал следующую мысль: «Если бы мы вложили столько денег в разработку полупроводниковых технологий, сколько Intel, если бы наработали хотя бы десятую часть того ПО, которое сегодня обслуживает платформу РС… Короче говоря, нам было бы не до новых физических принципов – „отбить“ бы вложения. И буржуи в нас никаких особенных денег не вложили. Мы вообще свободны! Мы можем позволить себе рисковать и делать что-то новое. Хуже не будет! Куда ж хуже-то?!»
А название темы номера навеяли результаты исследований вычислительных возможностей материи окружающего мира, проведенных профессором Массачусетского технологического института Сетом Ллойдом (Seth Lloyd). Сверхновые звезды и черные дыры – оказывается, именно эти объекты являются самыми мощными «устройствами» обработки информации в нашей Вселенной. Исключая, конечно, саму Вселенную, которая, по Ллойду, Хокингу и др., тоже представляет собой могучий процессор[Подробнее см. во врезках к статье Олега Волкова и www.xxx.lanl.gov/quant-ph/0110141
[Закрыть]]. И функционируют эти вычислители совсем иначе, нежели те, которые мы используем сегодня.
Оценка по физподготовке
Олег Андреевич Волков – доктор физ.-мат. наук, специалист в области физики полупроводников. Он согласился поделиться мыслями о перспективах и возможных направлениях прогресса вычислительной техники.
Нет ли у вас ощущения некоторого «застоя» в развитии вычислительных устройств? Налицо явная нехватка новых идей…
– Мы просто переживаем такой этап – этап освоения возможностей традиционной электроники, которые, с одной стороны, далеко не исчерпаны, а с другой – с успехом «закрывают» наши нынешние потребности в вычислениях. Вся современная компьютерная техника[Речь идет, конечно же, о цифровой технике] лишь продолжает «технологические традиции» абака и конторских счетов. Разница только в природе объектов, которые служат для представления единиц разрядов обрабатываемых чисел: в одном случае это камешек или деревянная «косточка», в другом – электрический заряд в полевом транзисторе.
Как вы считаете, сверхмощные процессоры завтрашнего дня появятся благодаря усилиям инженеров или ученых-физиков?
– Думаю, физиков. По крайней мере, на первых этапах разработки. Хотя сегодняшнее участие физической науки в прогрессе вычислительной техники можно оценить «на троечку». Тысячи физиков создают и совершенствуют элементную базу и технологические процессы производства электронных компонентов, но проблемами использования главного, фундаментального свойства материи – свойства непосредственно обрабатывать информацию, занимаются единицы.
Возможно также, что ученым не хватает инженерного прагматизма, а инженерам – «физической подготовки», знания фундаментальных принципов и базового математического инструментария современной физики. Кроме того, у них разное, если можно так выразиться, мировоззрение.
То есть инженер будет конструировать из предметов, а физик, обладающий, как вы говорите, «инженерным прагматизмом», – из процессов?
– Вот именно! И, кстати, любой процесс неизбежно сопровождается закономерным изменением связанной с ним информации (следовательно – ее обработкой!).
Еще в позапрошлом веке, когда в термодинамику было введено понятие энтропии, ученым стало ясно, что описание сложных физических систем лишь с позиций закона сохранения энергии не дает возможности понять их поведение в динамике[Первые серьезные трудности возникли еще в XIX веке при попытках решить известную задачу «трех тел». Физики тогда считали, что все динамические системы являются интегрируемыми. Этот термин, введенный Пуанкаре, означает принципиальную возможность исключить из описания системы взаимодействия между ее элементами (частицами, телами и т. п.). То есть система может быть описана гамильтонианом, зависящим только от импульсов. Было принято считать, что все динамические системы интегрируемы в смысле Пуанкаре, однако в 1889 году он доказал, что в общем случае невозможно найти преобразование, исключающее взаимодействия элементов системы, в которой их число больше двух! Иными словами, абсолютное большинство реальных физических систем принципиально неинтегрируемы и не поддаются анализу с позиций классической динамики] и требует привлечения каких-то новых понятий. Позднее была показана глубокая связь энтропии (считавшейся ранее лишь величиной, характеризующей способность физической системы производить работу) и количества информации, необходимой для описания движения["Движение" здесь нужно понимать максимально широко. Это не только механическое движение, но любое изменение параметров физической системы во времени или в пространстве] физической системы.
Информационная инженерия?..
– Если хотите. Зная, что физические процессы обрабатывают информацию, можно поставить вопрос о «конструировании» процессов, специально организованных для осуществления необходимых нам вычислений. Уже из самой постановки задачи ясно, что строить мы будем не обычный вычислитель с локально хранимыми «ноликами» и «единицами». Более того, мы вообще можем не привязываться к двоичной форме кодирования информации.
Не может быть, чтобы эти мысли не приходили в голову инженерам. Все-таки они очень изобретательный народ… Неужели никто не пытался конструировать вычислительные машины «из процессов»?
– Такие работы проводились. Вероятно, первыми процессами, позволившими построить пригодные для практического использования вычислители, явились процессы интерференции оптических и акустических волн. На их базе в нашей стране и за рубежом в 80-е годы были изготовлены и испытаны многочисленные устройства, реализующие довольно сложные алгоритмы фильтрации изображений, обработки радиолокационных сигналов, распознавания образов и даже операций линейной алгебры. Эти устройства уже тогда демонстрировали чрезвычайно высокие показатели, зачастую и сегодня еще не достигнутые цифровыми вычислителями сопоставимых габаритов и массы.
Например, в акустооптических анализаторах спектра удалось реализовать алгоритм быстрого вычисления преобразования Фурье, что позволило создать беспоисковые спектроанализаторы и перехватчики моноимпульсных излучений систем скрытой связи[Гусев О.Б., Кулаков С.В. и др., «Оптическая обработка радиосигналов в реальном времени». – М.: Радио и связь, 1989]. При этом вычислители работали с частотами входного сигнала до 10 ГГц. А специализированные акустооптические процессоры для перемножения матриц, вектора и матрицы, тройного перемножения матриц[Так называемые оптические матричные систолические процессоры] еще двадцать лет назад имели производительность порядка 5х1010 парных операций умножения и сложения в секунду[Кейсесент Д., «Акустооптические процессоры для операций линейной алгебры: архитектура, алгоритмы, применение»//ТИИЭР, Т. 72, 1984].
Почему же они не стали массовым инструментом вычислений?
– Потому что на основе только интерференционных процессов и классической линейной оптики (в том числе и акустооптики) не удалось создать устройства, способные запоминать и использовать результаты предыдущих вычислений. Анализ причин неудачи позволил понять чрезвычайно важное обстоятельство: оптический тракт вычислителя, будучи линейной системой без диссипации энергии, принципиально не способен реализовать функции динамического запоминания. Для реализации этих функций необходимы нелинейные оптические среды с подводом энергии[Пастушенко В.Ф., Маркин В.С., Чизмаджаев Ю.А., «Теория возбудимых сред». – М.: Наука, 1981].
Вот так «в жизнь» конструкторов вычислительной техники вошла нелинейная динамика…
– Я бы не сказал, что конструкторы сильно этому обрадовались и сразу ухватились за эту возможность. Они же не физики, а инженеры…
А вот физики за сравнительно короткое время нашли множество разнообразных физических сред, которые при определенных условиях порождают и поддерживают существование устойчивых неоднородностей – своего рода «объектов», способных перемещаться в пределах среды, взаимодействовать друг с другом и структурно эволюционировать.
Разновидностями этих динамических неоднородностей, в частности, являются устойчивые образования, напоминающие стоячие волны, но имеющие другую физику, – солитоны и автосолитоны. Так, например, в оптических резонаторах Фабри-Перо, построенных на основе ряда нелинейных сред, при условии их возбуждения внешним источником энергии, удалось получить так называемые дифракционные автосолитоны – устойчивые пространственные области высокой плотности электромагнитного поля[См. например: Розанов Н.Н., Ходова Г.В., Письмо в журнал «Оптика и спектроскопия», 1988, Т. 65]. Нелинейность среды «отвечает» за изменение коэффициента поглощения или показателя преломления в местах дифракционных максимумов поля, после чего возникающие периодически расположенные области с измененными оптическими свойствами начинают выполнять роль распределенного резонатора, выделяя и усиливая те пространственные компоненты поля, которые порождают автосолитон.
Успех этих экспериментов открыл принципиальную возможность строить оптические вычислители на основе динамических дифракционных структур (тех же автосолитонов!), обладающих способностью хранить в своей структуре как информацию о входных воздействиях, так и о своих предыдущих состояниях. Еще раз подчеркну: такой вычислитель «конструктивно» представляет собой не устройство, а процесс – динамически поддерживаемую суперпозицию явлений возбуждения и затухания в нелинейной оптической среде. Физики знают обо всех этих вещах еще с середины прошлого века, но они же физики, а не инженеры…
Много ли сегодня мы знаем физических процессов, на основе которых можно пытаться сконструировать принципиально новые устройства обработки данных?
– Очень много: это плазма высокочастотного газового разряда[Кадомцев Б.Б., «Коллективные явления в плазме». – М.:, Наука, 1976] (порождает статические или подвижные области ионизации и излучения – страты); в сверхпроводниках[Гуревич А.В., Минц Р.Г., «Тепловые автоволны в нормальных металлах и сверхпроводниках». – М.: изд. ИВТ АН СССР, 1987] наблюдаются автосолитоны, представляющие собой области с активным сопротивлением, окруженные сверхпроводящими «оболочками»; в магнитных материалах обнаружены бегущие магнитные домены и вихревые структуры (линии Блоха и ряд других).
В полупроводниках и полупроводниковых гетероструктурах[Белецкий Н.Н., Светличный В.М. и др. «Электромагнитные явления СВЧ-диапазона в неоднородных полупроводниковых структурах». – Киев: Наукова думка, 1991] исследованы эффекты возбуждения незатухающих диссипативных неустойчивостей в электронно-дырочной плазме, эффекты взаимовлияния многочисленных коллективных возбуждений – так называемых квазичастиц, распространяющихся в кристаллической решетке (акустических и оптических фононов, экситонов, магнонов и др.). Были получены удивительные результаты, касающиеся динамики магнитоплазменных волн и возбуждений в полупроводниках.
Богатейший «улов» на всевозможные нелинейности приносят в последние годы исследования многокомпонентных полупроводников типа «твердые растворы» (например, теллурида кадмия в теллуриде ртути). Особенность этих веществ в том, что ширину запрещенной зоны в них можно в широких пределах и плавно регулировать, изменяя соотношение компонентов «раствора». Управляя распределением состава в объеме образца на стадии изготовления, мы можем получать так называемые сверхрешетки и варизонные структуры[В варизонных структурах молярный состав материала плавно, по заранее рассчитанному закону меняется вдоль заданного направления. Это приводит, в частности, к тому, что такие фундаментальные параметры, как ширина запрещенной зоны, эффективные массы и время жизни носителей тока, начинают зависеть от пространственных координат], в которых начинают проявляться принципиально новые физические эффекты.
Этот список чрезвычайно велик. Он означает, что в нашем распоряжении находится обширный выбор явлений, позволяющих синтезировать не только оптические, но и акустические, электродинамические, тепловые, электронные, ионные, фононные и много других типов вычислительных сред – буквально «на все случаи жизни». Но тут имеется серьезная трудность…
Догадываюсь: конструкторов нужно учить физике?
– Это было бы полдела… Трудность связана с необходимостью управлять протеканием в среде тех процессов, которые должны осуществить требуемую обработку подводимой информации. По существу, перед нами стоит задача – научиться «программировать» для столь необычных компьютеров, каковыми являются неравновесные процессы в нелинейных средах.
А как вообще это делается? Существует ли какая-то теория такого необычного «программирования»?
– Математическое описание поведения таких физических сред[Рекомендую, например, замечательную книгу И. Пригожина и И. Стенгерс «Время, хаос, квант. К решению парадокса времени». – М.:, «Эдиториал УРСС», 2001] основано на исследовании траекторий изображающих точек в фазовом пространстве системы.
Было установлено, что каждой устойчивой динамической неоднородности в среде (например, автосолитону) соответствует устойчивая замкнутая траектория – цикл в конфигурационном пространстве, к которому «стягиваются» траектории, пролегающие в некоторой «близости» от него. Такой цикл получил название «аттрактор». Конфигурационное пространство многомерно, поэтому аттракторы в нем не всегда выглядят точками или линиями, но чаще всего являются поверхностями или объемами. Обнаружены и вовсе экзотические аттракторы[Их так и называют – «странные аттракторы»] – не просто многомерные, но обладающие дробными размерностями. Они являются фрактальными объектами в конфигурационном пространстве. В системах со странными аттракторами возможно возникновение чрезвычайно сложных процессов. Фактически эти аттракторы способны порождать такие реакции системы, которые нельзя ни предсказать, ни воспроизвести повторением любого набора начальных возмущений.
Физическую систему можно «сконструировать» так, что в ней будет «сосуществовать» множество аттракторов в чрезвычайно сложноорганизованном конфигурационном пространстве. Здесь есть широчайшее поле для творчества!
Получается, что, конструируя процессы, мы «выходим» из привычного физического пространства и «работаем» в абстрактном, виртуальном пространстве? Что ж, для программистов довольно привычное занятие…
– Но только программисты – не физики. И в последнее время – даже не инженеры, увы…
Основная же идея «программирования» поведения физических сред такова: для того чтобы в среде возникла требующаяся нам неоднородность, нужно так выбрать начальное возмущение, чтобы оно перевело систему в состояние, находящееся в «сфере притяжения» соответствующего аттрактора, после чего в среде, после «выключения» начального возмущения, начнется самопроизвольное образование неоднородности определенного типа и структуры.
Из сказанного должно быть понятно, что задача «программирования» обработки данных в физической среде распадается как минимум на три подзадачи, каждая из которых сама по себе чрезвычайно сложна:
теоретический синтез структуры динамической неоднородности, «способной» желаемым образом обрабатывать информацию[Например, расчет пространственной структуры интерференционного автосолитона, обладающего свойствами комплексно-сопряженного оптического фильтра];
выбор (или, в общем случае, синтез) физической среды, свойства которой будут позволять ей поддерживать процессы самоорганизации, приводящие к формированию требующихся нам динамических неоднородностей;
определение параметров начального «толчка», вызывающего появление в среде нужной нам структуры неоднородностей (из множества возможных, но не подходящих для решения нашей задачи).
На любой из этих задач можно запросто «свихнуть мозги»…
Выходит, даже принцип работы «виртуальных» вычислителей совсем другой… Нет ни арифметических операций, ни дискретной логики, ни привычных ячеек памяти… И нет программы в привычном понимании. Полный отказ от стереотипов!
– Следует принять во внимание и то, что вычислительный процесс в нелинейной динамической системе представляет собой некоторую эволюцию ее состояния, чем отличается от «обычного» вычисления, предположим, в микропроцессоре. Грубо говоря, микропроцессор «до» и «после» вычисления остается одним и тем же объектом, тогда как динамическая неоднородность в среде в процессе вычисления из исходного состояния переходит в состояние, соответствующее искомому результату. Фактически исходная структура неоднородностей разрушается. Для ее воссоздания (равно как и поддержания в процессе работы вычислителя) необходим периодический или непрерывный подвод энергии. Надо отметить, что аналогичным образом работают и квантовые компьютеры, в которых информация представляется состоянием вычислителя, то есть его квантовой структурой, изменяющейся в ходе вычислений.
Здесь мы вплотную подходим еще к одной глубокой взаимосвязи термодинамики и динамики вычислений. По существу, понятие термодинамического цикла оказывается приложимо к описанию процесса вычисления, происходящему в неравновесной физической системе.
И что дальше?
– Это трудный вопрос, возможно, с неожиданным ответом. Грандиозные успехи полупроводниковой вычислительной техники неоспоримы. Существует ли потребность в устройствах обработки данных, построенных на принципиально иных принципах? Способны ли они конкурировать с электронными вычислителями?
Варианты ответов на эти вопросы могут показаться несколько странными: да, эти устройства по многим параметрам могут конкурировать с электроникой, но потребность в них сегодня определяется не их техническими характеристиками.
Фундаментальное значение имеет сама возможность целенаправленного создания неравновесных диссипативных структур, обладающих свойствами, присущими живым объектам, – способностью к самоорганизации и усложнению своей структуры в условиях потребления энергии и информации из окружающей среды. По существу, речь может идти о программе создания искусственных живых объектов, по крайней мере в термодинамическом и информационном смыслах.
Вычислительные возможности физических систем
Сет Ллойд (Seth Lloyd) – профессор квантовомеханических технологий Массачусетского технологического института и создатель первого в мире квантового компьютера, дал оценку предельных вычислительных параметров физических систем[Seth Lloyd, Ultimate physical limits to computations//Nature, V. 406, August, 31, 2000.] (см. также www.arxiv.org/abs/quant-ph/0110141
[Закрыть]
«обычный» современный компьютер – количество преобразований в секунду 109, объем хранимой информации 1012 бит;
так называемый предельный компьютер, в качестве которого рассматривается материя массой 1 кг в объеме 1 л (то есть имеющая плотность воды), – количество преобразований в секунду 1051, объем хранимой информации 1031 бит;
черная дыра, представляющая собой результат гравитационного коллапса вещества массой 1 кг и имеющая радиус 10-27 м, обладает способностью выполнять 1035 элементарных преобразований в секунду, храня при этом 1016 бит информации;
вся наша Вселенная. В расчет принимается лишь вещество, содержащееся в пределах наблюдаемых границ нашего Мира.
Вселенная-компьютер обладает быстродействием 10106 операций в секунду при объеме хранимой информации 1092 бит.
Следует помнить, что эти оценки характеризуют лишь «способность» тех или иных физических систем обрабатывать информацию, но не дают никаких указаний на то, как технически организовать эти процессы и осуществлять ввод и вывод данных.
Так, например, некоторый объем низкотемпературной плазмы, полученной при помощи СВЧ-разряда, можно рассматривать в качестве «действующей модели» «предельного компьютера», однако никто сегодня не может сказать, каким образом эту плазму можно запрограммировать на реализацию, например, алгоритма игры в шахматы.
Информация из холодильника
В 1925 году Альберт Эйнштейн, математически исследовав поведение охлаждаемого вещества, подтвердил гипотезу гениального индуса Шатьендраната Бозе о том, что в состоянии глубокого охлаждения механическое движение частиц вещества прекращается, а отдельные атомы (или молекулы), потеряв связанную с тепловым движением информацию, становятся квантово неразличимыми, «размазанными» по всему занимаемому веществом объему.
Такое состояние материи, образованной делокализованными, когерентными (то есть находящимися в одинаковом квантовом состоянии) частицами, получило название конденсата Бозе-Эйнштейна. В эксперименте с двумя тысячами атомов рубидия, охлажденными в магнитной ловушке до 20 нанокельвинов, это состояние удалось получить лишь в 1995 году практически одновременно двум исследователям – Эрику Корнеллу (Eric Сornell, Национальный институт стандартов США) и Карлу Виману (Karl Wieman, Колорадский университет). Позднее Вольфганг Кеттерле (Wolfgang Ketterle) сумел превратить в конденсат сто тысяч атомов натрия.
Очень впечатляюще выглядят эксперименты, приводящие к возникновению макроскопических, но по сути – квантовых форм движения вещества. Например, в 1996 году физикам Массачусетского технологического института удалось создать «атомный лазер» – «струю» бозе-эйнштейновского конденсата, представляющую собой поток делокализованных атомов. Квантовые свойства такого пучка позволяют фокусировать его «в пятно» практически атомных размеров, что открывает возможность использования этого эффекта в литографии ультравысокого разрешения.
Достигнутые результаты показали, что для управления поведением большого (макроскопического) образования, каким является конденсат, к нему требуется подвести ровно столько информации, сколько понадобилось бы для управления одной микрочастицей. Таким образом, для непосредственного управления механическим движением вещества в состоянии бозе-эйнштейновской конденсации, можно применять такие чисто информационные операции, как пространственная фильтрация, коррекция волновых фронтов и т. п.
Конденсат обладает свойствами квантового процессора: сформировав некоторым образом исходное состояние конденсата, мы можем воздействовать на него так, чтобы заставить эволюционировать всю систему в некое конечное, результирующее состояние, измерение которого и даст результат квантового вычисления.
Суперкомпьютер «Black Hole»[Black hole – черная дыра (англ.)]
Анализом информационных характеристик физических процессов, протекающих в окрестности черных дыр, в 70-х годах прошлого столетия активно занялся Стивен Хокинг (Stephen Hawking, Кембриджский университет). В частности, он и Якоб Бекенштайн (Jacob Bekenstein, Еврейский университет в Иерусалиме) смогли показать, что черная дыра массой 1 кг способна хранить примерно 1016 бит информации в объеме сферы радиусом 10-27 м.
В своих работах Хокинг впервые предсказал процесс «испарения» черной дыры, сопровождающийся специфическим излучением, впоследствии названным его именем. Он показал, что это излучение должно иметь абсолютно случайный характер. Иными словами, черная дыра представляет собой «генератор белого шума», не содержащего никакой информации ни о процессах, протекающих внутри черной дыры, ни о структурных особенностях вещества, поглощенного черной дырой.
Впрочем, некоторые исследователи, устояв перед колоссальным авторитетом Хокинга, предложили свою модель процессов, протекающих в окрестности черных дыр. Леонард Сасскинд (Leonard Susskind, Стэнфордский университет), Джон Прескилл (John Preskill, Калифорнийский технологический институт) и Джерард Хоофт (Gerard ’t Hooft, Утрехтский университет, Нидерланды), учитывая требования квантовой механики, запрещающей процессы, протекающие с потерей информации, предположили, что излучение черных дыр не является белым шумом, а представляет собой результат вычислительного процесса, происходящего в окрестности черной дыры[Jack Ng, From computation to black holes and space-time foam//Physical Review Letters, V. 86, No 14, April, 2, 2001.]. Исходной информацией и программой для этого процесса является структура вещества, поглощенного черной дырой. Летом прошлого года Стивен Хокинг присоединился к мнению этих ученых, признав их правоту (см., например, «КТ» ##561).
Вычисления осуществляются черной дырой чрезвычайно быстро. Фактически время вычислений не зависит (!) от объема обрабатываемой информации, а определяется лишь геометрическими размерами дыры. В теории показано, что время вычислений оказывается равным промежутку времени, который требуется свету, чтобы пройти от одной границы этого «вычислителя» до другой. Так, для килограммовой черной дыры время вычисления равно 10-35 с. Собственно говоря, черная дыра представляет собой самый быстродействующий вычислитель, возможный в нашем Мире.
Ученым пока не очень понятны механизмы «вывода результатов» вычислений черных дыр. И уж совершенно неясно, каким образом программировать вычисления столь экзотического «компьютера». Теоретически известно, что черная дыра способна осуществить любое вычисление, но как приготовить исходное состояние (структуру? последовательность? пространственное или временное распределение?) падающего в черную дыру вещества, чтобы в результате излучение Хокинга «выдало» искомый результат, не знает никто.
Твердый орешек
Высокая плотность и сложность строения твердых тел порождают огромное количество физических явлений, одновременно «сосуществующих» в объеме материала. Если же добавить сюда ярко выраженные нелинейные свойства твердых сред, приводящие к возникновению взаимовлияний физических явлений, эффектов усиления, генерации, «перекачки» энергии от одних физических процессов к другим, становится понятно, почему внимание исследователей приковано к проблеме создания монолитных твердотельных устройств обработки информации. Большинство ученых и инженеров считают, что именно твердое тело будет основой вычислительных устройств (или сред?) будущего, хотя на пути их создания стоят невероятные трудности математического моделирования физических процессов, протекающих в нем.