Текст книги "БИТВА ЗА ХАОС"
Автор книги: Майкл Де Будион
Жанр:
Философия
сообщить о нарушении
Текущая страница: 34 (всего у книги 57 страниц)
12.
Вот как оборачивается против нас избыточность! Создав систему избыточного потребления, систему накопления и переработки избыточной информации, непрерывно стремясь получить максимум вложив минимум, а то и вообще не вложив ничего, мы бессмысленно расходуем энергию в никуда, «в тепло», «в пар», в энтропию. Есть и выражение такое – «выпустить пар», т. е. превратить энергию которая может быть направлена «не туда», в энтропию. Сейчас никто не думает о будущем, потому что всем удобно, система выстроена на глобальном обмане для тех кто ничего не понимает, и на глобальном самообмане для тех кто приоткрыл глаза. Она кажется приятной на вкус и на ощущение. Как наркотик. Вот почему в нее очень легко встроиться, но так не хочется видеть изъянов. Но ведь заметьте, к слову «ложь» всегда употребляют «вкусовое» прилагательное «сладкая». А вот к слову правда – «горькая». Никто не говорит «соленая ложь» или «сладкая правда». Да, система имеет энергетический запас, но он закончится. Внезапно.
К чему это ведет? Известный биолог-дарвинист Уилсон писал: «Может ли культурная эволюция высших этических ценностей (а информационная составляющая – именно такая ценность – MAdeB) продолжаться самостоятельно и полностью вытеснить генетическую эволюцию? Я полагаю, нет. Гены держат культуру в узде. Поводья очень длинные, но этические ценности неизбежно подчиняются определенному принуждению, соответственно тому, как они воздействуют на человеческий генотип. Мозг является продуктом эволюции. Человеческое поведение, в том числе и глубоко укорененные способности к эмоциональным реакциям (которые его подгоняют и направляют), представляют собой природные феномены, благодаря чему природа исправно поддерживала и поддерживает человеческий наследственный материал. Другой доказанной функции мораль практически не имеет».[284]284
Wilson E.O. Biologie als Schicksal. Frankfurt a/M, 1980.
[Закрыть] Хорошо будет если он окажется прав. А насчет «очень длинных поводьев держащих культуру в узде» есть хорошая пословица – «Бог долго терпит, но больно бьет».
ГЛАВА ПЯТНАДЦАТАЯ
АРИЙСКИЕ ПАРАДОКСЫ
Внешние и внутренние враги – Война на двух фронтах – Финальное знание – Глобальные системы – Рождение кибернетики – Первый компьютер – Ненадежные и надежные системы – Надежное из ненадежного – Оптимальная конструкция – Исключение недочеловеческого – Список ненадежностей – Работа на расу – Танатос и Эрос – Амбивалентность – Расовая шизофрения – Толерантность – «Недостаток религии» – Системное и дискретное мышление – Самоубийство системы – Мнимый расизм белых – Цветные и белые интернационалисты– Рациональная ненависть цветных – Горизонтальные и вертикальные связи – Цветная система – Система секс-меньшинств – Игра против себя
Арийцы, как эволюционирующая раса, гораздо более неустойчивая чем цветные корневые расы или даже межрасовые гибриды. Арийца легко загрязнить, с цветным подобное невозможно, ибо их, как статистическую совокупность, нельзя сделать хуже чем они есть, во всяком случае через сексуальные действия. Они специализировались. Но, как мы уже говорили, чтобы полностью понять работу системы нужно знать не только её внешних врагов, но и тех, кто работает на её подрыв изнутри, номинально считаясь своими. Мы единственная раса ведущая войну на двух фронтах. Ведь даже располагая максимально полной информацией о текущем состоянии расы и глубоко анализируя причины приведшие её к такому состоянию, трудно, а то и вообще невозможно сказать, кто больше виноват – цветные или сами белые? Какая энтропия больше разрушает – внешняя или внутренняя? Какой фронт важнее? Вспомним, что эволюционирующая биологическая система характеризуется не только энтропией или устойчивостью, но и таким важным свойством как самообучаемость. Но чему «самообучились» белые как система за время прошедшее ну, скажем, с момента падения Рима? Разве сейчас, через две тысячи лет, мы опять не наступаем на те же самые грабли, причем в той же последовательности как это делал Рим? Притом, что наш научно-технический уровень бесконечен в сравнении с античным. Опять приходишь к выводу, что мы открыли всё кроме самого главного, что мы ходим вокруг некоего универсального ключа которым закрыт сейф где лежит то последнее, но самое важное что нам предстоит узнать. Узнать, чтобы больше никогда не совершать многократно повторенных ошибок и не возвращаться как тот библейский пес к сброшенной им «энтропии». Возможно весь исторический процесс готовит нас к получению последнего, но самого важного звена в мозаике наших знаний, ибо получение знаний – одно, а правильное их использование – совсем другое. С позиции теории самоорганизующих систем несложно спрогнозировать какого типа будет это финальное знание, необходимое для преодоления «вечного возврата» и переходу на качественно новый уровень. Ведь что характеризовало науку вообще? Наука, с моралистических позиций, не различала понятий т. н. «добра» и «зла», т. е. вещей работающих на расу или против неё. Наука была вне этих понятий. Наука просто устанавливала факты. Факты подтвержденные опытом, а потому истинные. До определенной поры это было допустимо. Но наука не знала направления. Наука не знала принципа, по которому можно было бы управлять новыми знаниями так, чтоб они работали только на нашу систему и оборачивались бы против чужих систем. Была наука, но не было науки про саму науку. Получалось, что арийцы открыли и создали всё, но всё это обернулось против них, потому что стало достоянием всех. А вот на уровне животного мира это решить удалось, получаемые знания и технологии, животных никак не усиливают, мы их разве что переупорядочиваем для собственных нужд. Гитлеровский «Прометей человечества» начал уничтожать самого себя. Мы как бы одной ногой давили на педаль газа вселенской машины, а другой примерно с тоже силой давили на тормоз. И обоими процессами управлял мозг нашей расы! Неумение «управлять» наукой давало и дает повод для нападок клерикалов, но их доводы вообще не могут восприниматься ни с какой точки зрения, ибо религия не несёт истины и не отвечает ни на один вопрос. Нет ненужных открытий. Есть открытия опасные, причем часто эту опасность нельзя сразу обнаружить.
1.
ХХ век совсем не случайно дал нам теорию систем и кибернетику, ведь этот век войдет в историю как век проектов, век структур созданных для достижения масштабных и, казалось бы, недостижимых результатов. Смотрите сами: коммунизм и индустриализация в СССР, фашизм в Италии, национал-социализм в Германии, создание космической индустрии, Манхэттенский проект и глобальные корпорации, а теперь и «Новый Мировой Порядок». Всё это требовало уточнения и более детального осмысления таких базовых понятий как «звенья», «связи», «надежность», «ошибка», «информация». Бессмысленно искать какую-то конкретную дату рождения как кибернетики, так и теории систем, ведь и то и другое создавали люди представляющие разные науки и разные профессии, но сам этот факт говорит о том что мы подходили к пониманию, что весь мировой процесс управляется одними и теми же законами, пусть и проявляющимися по-разному в зависимости от среды. Первой попыткой обобщить «всё» стала книга Норберта Винера «Кибернетика»[285]285
Винер Н. Кибернетика и общество. М.: Издательство иностранной литературы, 1958. Известно, что в сталинском СССР генетику и кибернетику называли «продажными девками империализма». Но в первое десятилетие после смерти «Кобы» СССР наверстывал отставание ударным темпом, в частности, были переведены и изданы все основные книги Винера, Шеннона, фон Неймана, Росса Эшби и пр.
[Закрыть] вышедшая в 1947 году, в которой он «поделил» мироздание на пять уровней: элементы, устройства, системы, связи, управление и информацию. Очевидно, что в данном раскладе связи характеризуют целостность системы, управление определяет выполняемые ею функции, а информация показывает её смысловое назначение. Эта книга до сих пор считается «классикой жанра», а первые двадцать лет после своего первого издания переиздавалась много раз и считалась лучшим учебником по формированию системного мышления у представителей инженерных специальностей. Винер показал, что для понимания принципа работы той или иной системы, нужно не просто досконально знать её устройство, нужно знать как она будет работать в той или иной ситуации, в предельном случае – знать все её возможные состояния.
Винер выпустил «Кибернетику» в год когда начал функционировать первый «настоящий» компьютер – «Эниак».[286]286
ENIAC – это аббревиатура Еlectronic Numerical Integrator and Computer. Разработки компьютера велись с начала Второй Мировой войны, но непосредственно сборка началась уже в самом ее конце. Тактовая частота – 100 кГц. Запущен в проектном виде 26 июня 1947 года, после этого незначительно дорабатывался. В СССР первый компьютер был построен в Харькове в 1950 году, но я не имею данных был ли он «полным по Тьюрингу». До 1951 года ни один компьютер в мире вообще не использовался для решения коммерческих задач, только для военных. Эниак проработал до 2 октября 1955 года. Чтобы оценить прогресс в этой области можно привести такой пример: в 2004 году компьютер той же мощности что и Эниак мог быть реализован в кремниевом кристалле площадью 0,5 кв. миллиметра.
[Закрыть] Настоящий, так как он удовлетворял требованию полноты «универсальной машины» по Тьюрингу,[287]287
Тьюринг А. Может ли Машина мыслить? М., 1960. В теории информации, вычислительной технике или другой логической системе, «машина» называется Тьюринг-полной, если она вычислительно эквивалентна модели универсальной машины Тьюринга. Другими словами, эта «машина» и «машина Тьюринга» могут эмулировать друг друга. Термин назван в честь Алана Тюринга, который и придумал универсальную машину. Она должна содержать процессор, ОЗУ, ПЗУ, шину адреса и шину данных, устройство ввода-вывода.
[Закрыть] т. е. в общем случае получал на вход программу и данные, после чего выдавал результат. Америка блестяще закончила войну – захватом мира, атомной бомбой и компьютером, причем с позиции сегодняшнего дня трудно сказать, что было важнее: бомба, захват мира или компьютер? Ведь мы уже говорили, что в третьем поколении информационная доминанта начинает превалировать, форма начинает подменять содержание. Избыточная информация заполняющая сейчас всё, показывает бессмысленность существования «наполняемых», об этом мы тоже говорили. А компьютер как раз и нужен был для ускорения обработки информации, сначала в сотни, потом – в тысячи, а теперь и в миллиарды раз. Многие важнейшие сейчас отрасли науки были бы принципиально невозможны, если бы не было компьютера, да и более сложные компьютеры не могли бы быть созданы без помощи более простых. Посмотрите на внутренности своего «компа». Его основа – т. н. «материнская плата», «motherboard». Видите расставленные на ней детали соединены тонкими медными проводниками, причем с двух сторон? А теперь посмотрите сквозь эту плату на яркий свет и вы заметите, что есть еще два внутренних слоя, плата как бы пронизана сетками проводников. Четыре слоя. Бывает и больше. Причем они сообщаются друг с другом в нужных точках через специальные металлизированные отверстия. Так вот, «разводка» этих проводников сделана на компьютере, «головой» такого не придумаешь. А посмотрите на две большие квадратные микросхемы – процессор и чипсет. Внутри у них тоже сетка проводников, только неизмеримо более сложная! В одном процессоре «Пентиум» – 5–6 миллиона элементов, причем все они должны быть соединены между собой без единой ошибки, иначе ничего работать не будет. Вы думаете какой-то инженерный мозг или даже несколько мозгов могут «держать» в себе схему состоящую из миллионов компонентов? Вот почему компьютер уже сейчас занял свою незаменимую нишу в нашем бытии и ниша эта расширяется каждый день, если не каждый час. Современный домашний компьютер качественной сборки можно считать вполне надежным, он может годами работать и безошибочно выполнять свои функции. Менее надежны т. н. «большие машины», занимающие целые помещения, ведь там деталей (и связей) в сотни раз больше, но все же и их надежность достаточно высокая. Но на заре компьютерной эры было совсем не так. «Эниак» содержал 17468 электронных ламп, 7200 полупроводниковых диодов, 1500 реле, 70000 сопротивлений, 10000 конденсаторов. А представьте, сколько это количество деталей (звеньев) имело связей! Вообразите себе это громадное количество проводов! Для сравнения могу сказать, что советский ламповый цветной четырехпудовый телевизор конца эры научно-технического прогресса коммунизма, имел 7–8 ламп, 20–30 транзисторов, 40–50 диодов и полторы сотни резисторов и конденсаторов. Причем все первые компьютеры собирались вручную! Товар, так сказать, эксклюзивный. И весил немало – 27 тонн. И потреблял соответственно – 150 киловатт.
Разумеется, что это электронное чудо (я говорю без всякой иронии – это действительно было выдающиеся устройство) часто ломалось, хотя даже при постоянных поломках экономически себя полностью оправдывало хотя бы потому, что было незаменимо.[288]288
Сравнительные характеристики «Эниака» и компьютеров выпущенных раньше.
[Закрыть] Оно работало в тысячу раз быстрее чем самые быстрые вычислительные устройства того времени. Однако инженеры и математики сразу же задались вопросом: можно ли некими аппаратными приемами повысить надежность компьютера, чтобы нарушения работы какого-либо звена или совокупности звеньев не влияли на результат, чтобы они его компенсировали. За решение проблемы взялись очень многие, она того стоила, тем более что в эксплуатации находилось большое число вычислительных машин работающих на электромеханических реле, такие себе гигантские щелкающие ящики. Именно с помощью них немцы планировали рассчитывать траектории своих первых межконтинентальных ракет (компьютер Конрада Цузе), с помощью них во время войны англичанами были вскрыты коды немецких шифровальных машин – знаменитой «Энигмы» и более изощренной «Шлюссельцузатц-40» фирмы «Лоренц». Да и «Эниак» занимался совсем не мирными целями. Он тоже рассчитывал траектории, ведь бомба уже была, а межконтинентальные ракеты активно разрабатывались вывезенными с Германии инженерами.
Решение нашел в 1952 году Джон фон Нейман, также упоминаемый нами раньше как ученый получивший формулу Больцмана через квантово-механические соотношения. Фон Нейман тоже делал свой компьютер, правда не в Америке, а в Англии, закрепив за этой страной второе место в мире в области «хайтека» которое она удерживает до сих пор. Он был введен в строй в 1948 году, но в отличии от «Эниака» стал первым компьютером с современной архитектурой. В чем состояло «решение фон Неймана»? Для ответа на этот вопрос нам предстоит заглянуть в его эпохальную книгу «Probabilistic Logics and the Synthesis of Reliable Organisms from Unreliable Components»[289]289
Русское издание книги – фон Нейман Дж. Вероятностная логика и синтез надежных организмов из ненадежных компонент. Автоматы, под ред. Шеннона К.Э. и Маккарти Дж. М.: ИЛ, 1956. Эта книга – сборник лекций фон Неймана которые он читал в январе 1952 года в Калифорнийском университете и записанных P. Пирсом. В честь Пирса назван элемент ИЛИ-НЕ («стрелка Пирса»). Фон Нейман внимательно изучил конструкцию «Эниака» и пришёл к идее нового типа логической организации ЭВМ – программа должна храниться в запоминающем устройстве в числовой форме. Этот принцип остаётся основополагающим и, возможно, никогда не будет поставлен под сомнение. Одна из ЭВМ – «ДЖОНИАК» (1954 г.), в проектировании которой фон Нейман принимал непосредственное участие (она и названа так в его честь), – сыграла решающую роль в обработке информации при создании водородной бомбы.
[Закрыть] («Вероятностная логика и синтез надежных организмов из ненадежных компонент»). Само это название может показаться странным непосвященному человеку, действительно, как можно создать надежное из ненадежного? Кибернетика утверждает что возможно. Нет, речь не идет о неких совершенно надежных системах, всё-таки звенья в них входящие неидеальны. Каждое звено может сломаться, речь идет о некой максимально достижимой надежности возможной в данных условиях. Вот его описание исходной ситуации: «Как механические, так и электрические устройства статистически подвержены возможности отказа в работе, то же самое, вероятно, относится также к нейронам животных. Поэтому желательно найти такую основу для наших построений, которая была бы лучшим приближением к действительности, и изучать эту новую ситуацию. Самым простым предположением относительно ошибки является следующее: с каждым основным органом [в нашем случае, орган системы – отдельный человек] связано некоторое положительное число – вероятность того, что этот орган допускает ошибку. При этом предполагается, что ошибка появляется статистически, независимо от общего состояния схемы и от ошибок других органов. Мы тоже рассматривали человека как изолированную субстанцию, однако потом показывали как на него влияют связи в которых он запутывается все сильнее и сильнее, а в самом начале, в примере с телевизором, показали, как нарушение работы одного элемента может повлечь нарушения в работе остальных. Он дает аналогичную статистическую трактовку: «Гораздо ближе к действительности более общее определение о том, что ошибка отдельных органов статистически зависит от общего состояния схемы и друг от друга. /…/ Каждый нейрон имеет вероятность несрабатывания. /…/ Важно подчеркнуть, что трудности, которые появляются с допущением ошибок, состоят не столько в возможности получения ложной информации, сколько в том результаты вообще могут не относиться к делу».
2.
Попытаемся, насколько это возможно, в общих чертах объяснить что именно предложил фон Нейман, тем более что сейчас в компьютерной технике разбираются многие, а её основы преподают даже в неспециализированных университетах.[290]290
Ю.А. Данилов в журнале серии «Знание», № 4, 1981 г. посвященном фон Нейману пояснял его идеи в более общем виде. «По фон Нейману, каждую компоненту допустимо рассматривать как чёрный ящик с определённым числом входов и выходов. Если бы сигнал на выходе был функцией сигналов на входе, то мы имели бы надёжную компоненту, срабатывающую с вероятностью 1. Если же сигнал на выходе при заданных сигналах на входе возникает с вероятностью меньше 1, то компонента ненадёжна. Можно ли, располагая неограниченным запасом ненадёжных компонент, построить надёжный вариант любого заданного автомата? Фон Нейман решает эту задачу двумя способами. Первое решение (автоматы с простыми линиями) позволяет понижать вероятность ошибки лишь до некоторого уровня. Суть решения состоит в построении из трёх ненадёжных одинаковых линий и смесителей, производящих сравнение сигналов на выходах подключённых к ним компонент, более надёжной системы, выполняющей ту же функцию. Второе решение фон Нейман называет трюком с кратными линиями. Двоичный выход машины заменяется пучком из многократно повторенного двоичного выхода, и значение сигнала на выходе определяется «большинством голосов» – значением сигнала на большей части линий в пучке. Схема идеального автомата, построенного из надёжных компонент, преобразуется: каждая линия заменяется пучком линий, а каждый орган – аналогом, производящим операции с выходным сигналом большинства линий. Фон Нейман приводит оценки избыточности для второй схемы. Оказывается, что при замене органа, не срабатывающего с вероятностью 1/200, при избыточности 60 000 на единицу уровень ошибки понижается до 10–20. Это означает, что автомат, сравнимый по сложности и быстродействию с человеческим мозгом, мог бы столетиями работать без сбоев».
[Закрыть] Итак, компьютер производит обработку данных представленных в двоичной форме, т. е. в виде логических единиц и нулей. Логическая единица или логический ноль – это просто уровни напряжения, низкий (около 0 вольт) при «нуле» и «высокий» (примерно 2,4 В) при «единице». Это называется двоичной логикой или булевой алгеброй, её аппарат был разработан в середине XIX века англичанином Д. Булем. В ней числа переводятся в двоичный код по специальной формуле, а затем все операции над ними проводятся именно в двоичном коде. Элементарных операций над логическими числами всего лишь три: дизъюнкция или сложение (ИЛИ), конъюнкция или умножение (И) и инверсия или отрицание (НЕ). Каждую из этих операций реализует т. н. логический элемент и из этих элементов можно получить такие более сложные звенья как триггеры, счетчики и регистры (они осуществляют переключение, счет и хранение логических кодов); шифраторов и дешифраторов (преобразовывают коды); мультиплексоров и демультиплексоров (коммутируют шины данных). Эта техника называется цифровой и составляет один из самых интересных разделов электроники. Ни в коем случае не подумайте, что я вам здесь рассказываю какие-то сложные и заумные вещи, понятные только подготовленным профессионалам. В Советском Союзе, в 70-80-е годы, книги по цифровой электронике издавались даже для детей среднего школьного возраста и эти дети поразительно быстро вникали во все её базовые аспекты, сами проектировали логические схемы (это очень развивает мышление – говорю вам как один из таких бывших детей). Знавал я и карапузов младшего школьного возраста, которые также всё легко «схватывали». Ну да, это вам не «Война и Мир» и не какой-нибудь Бальзак с Гюго. А потом и реализовывали схемы в «железе». Именно такие малолетки «среднего и старшего школьного возраста» одними из первых в СССР обзавелись в конце 80-ых годов компьютерами самостоятельно изготовленными на базе процессоров I8080 или Z80, в то время как почти всё взрослое население не имело о компьютерной технике ни малейших представлений.[291]291
В СССР описание компьютера который можно собрать самостоятельно было впервые опубликовано в мае 1986 года в журнале «Радио». Использовался базовый комплект микросхем фирмы «Интел» серии I80 разработанной в конце 60-ых годов, точнее, их советский аналог – серия К580. Поскольку интерес к этой технике был огромный, а ни одна деталь для этого компьютера официально не продавалась, мгновенно возник черный рынок, и в СССР, помимо всего прочего, начали еще спекулировать компьютерами и комплектующими к ним. Через год появилось несколько вариантов другого компьютера, на этот раз на базе процессора Z80, фирмы «Zylog». Этот компьютер стал особенно популярен и был реализован в кустарных и домашних условиях в сотнях тысячах если не в миллионах экземплярах. Именно эти два компьютера превратили профессию программиста в массовую. Финалом процесса стал самостоятельный сбор компьютера IBM ХT состоящего в разных вариантах из 200–220 микросхем. Впрочем, вскоре на постсоветское пространство массовым потоком пошли компьютеры и комплектующие с Запада.
[Закрыть] К сожалению, их невообразимый потенциал был слит в 90-ых годах, либо перешел к врагам – американцам. Так что если вам будет нечего делать, можете почитать детские советские книжки по цифровой технике и двоичной логике, список смотрите в примечании.
Да, так вот, любой, даже самый сложный компьютер может быть выстроен из множества логических элементов, разумеется соединенных специальными образом. К примеру вам нужно сложить числа 5 и 2. Двоичный код числа 5 – 101, а код числа 2 – 010. И там и там – три разряда. У нас 3 разряда, поэтому берем 3 логических сумматора (элемента ИЛИ) с двумя входами (так как складываем два числа). Сумматор-дизъюнктор имеет два входа и один выход, а числа складывает по специальному правилу, на выходе мы получаем трехразрядный код 111 – код числа 7. Если вы хотите удостовериться правильно ли произведено сложение, то можете путем простейших операций сравнить полученный код с заранее «зашитым» в память кодом числа 7. Точно также можно вычитать, умножать или делить числа. Почему двоичная логика чрезвычайно удобна? Да потому что она позволяет свести самые сложные операции к множеству элементарных, пусть даже их и будет очень много (есть контакт – нет контакта). Наука не дает нам ответа как именно некоторые люди производят в уме весьма сложные операции, вроде умножения шестизначных чисел или извлечения с точностью до 3–4 знака корней n-ой степени из больших трансцендетных чисел, но факт: основа нашего головного мозга – нейрон, элементарная ячейка, могущая находиться в возбужденном или невозбужденном состоянии проводить слабые электрические импульсы или не проводить. Т. е. в общем случае иметь те же состояния что и логические элементы. Мы практически ничего не знаем о работе мозга вообще, но работа отдельного нейрона изучена достаточно хорошо. И совсем неудивительно что Росс Эшби был нейрофизиологом, а фон Нейман и Винер серьезно интересовались принципами работы мозга. В своей книге фон Нейман вообще постоянно перескакивает с элементов и реле на нейроны. И действительно, возьмите обычное реле. Подайте на обмотку напряжение («логическую единицу»), контакты замкнуться, лампочка загорится, «истинный» сигнал пройдет.
А можно сделать наоборот – при подаче напряжения реле будет не замыкать, а размыкать контакты. Т. е. при подаче «1», на выходе будет «0», а при подаче «0» (т. е. при отсутствии управляющего сигнала) на выходе будет «1». Это и есть инверсия. Неудивительно, что первые электрические вычислительные машины были собраны на реле, которые могли включаться-выключаться несколько десятков раз в секунду. Потом в них ввели электронные лампы, которые тоже «включались-выключались», но уже сотни тысяч раз в секунду. Теперь транзисторы могут делать то же самое сотни миллионов и миллиарды раз в секунду. Ну и очевидно, что если сложная вычислительная операция разбивается на множество простых и её с огромной скоростью выполняют тысячи быстродействующих элементов мы можем получить прибавку к ускорению операций во много-много порядков. А если размер быстродействующих элементов – нанометры, то вполне мощный компьютер может легко разместиться в кармане. Или в мобильном телефоне.
Но лампы и особенно реле работали крайне ненадежно в сравнении с современными комплектующими. Контакты реле залипали или наоборот обгорали, у них обламывались подвижные части, иногда они оказывались подверженными воздействию помех и т. п. Понятно, что надежность реле как элементарных звеньев стремились повысить насколько это в принципе было возможно, но этих реле были тысячи и десятки тысяч, поэтому вероятность ненадежного срабатывания всё равно была высокой, именно за счет численности. Ненадежность оказывалась неизбежностью и фон Нейман предварительно отметил что: «…ошибка рассматривается не как исключительное событие, результат или причина какой-то неправильности, но как существенная часть рассматриваемого процесса. Значение понятия ошибки в синтезировании автоматов вполне сравнимо со значением обычно учитываемого фактора правильной логической структуры которая имеется в виду». Иными словами, если мы представляем себе какими именно будут ошибки, то они не столь опасны если мы их не замечаем. Относительно вероятности ошибки вообще, он добавлял что «По убеждению автора, которого он придерживается много лет, ошибку следует рассматривать при помощи термодинамических методов, так же, как это делается с информацией в работах Сцилларда и Шеннона». Т. е. потенциально ошибаться или «срабатывать ненадежно» могут все, но с разной вероятностью.
Мы говорили, что все логические операции изначально сводятся к трем простейшим – сложению, умножению и вычитанию, но существует более сложные функции через которые, наоборот, можно выразить все простейшие, т. е. вместо трех простейших, мы получаем одну, но немного более сложную. Одной из таких функций является т. н. «штрих Шеффера» или «отрицание конъюнкции» (И—НЕ). Фон Нейман математически доказал, что с помощью элементов, реализующих «штрих Шеффера» даже при том что каждый элемент функционирует ненадежно, тем не менее, можно построить любую логическую функцию, которая будет надежнее чем схема сделанная из обычных элементов. Да, такая схема получается несколько избыточной, но при её оптимизации избыточность минимизируется, а в электронном варианте «штрих Шеффера» реализуется на том же числе дискретных деталей что и обычные логические элементы.
Клод Шеннон изучив выводы фон Неймана, издал уже более прикладную работу: «Надежные схемы из ненадежных реле»,[292]292
C. E. Shannon and E. Moore, «Reliable circuits. from unreliable relays» Русское издание, «Надежные цепи из ненадежных реле» Кибернетический сборник, Москва, 1960. Шеннон совместно с Е. Муром занимался повышением надежности релейных цепей на работу которых сильно влияли шумовые помехи. Достигалось это все тем же введением избыточности из дополнительных элементов каждый из которых был ненадежен. Шеннон трансформировал свои выводы относительно борьбы с шумом к анализу ситуации на фондовом рынке, в частности, к вопросу оптимальной стратегии инвестиций, в которой роль «зашумленного канала» выполнял нестабильный рынок ценных бумаг и соответствующие ему временные ряды. Целью задачи, понятное дело, была максимизация выгоды.
[Закрыть] где не только разработал более эффективную систему в смысле числа требуемых элементов при условии надежности всей схемы, но и открыл перспективное направление исследований асимптотической оценки сложности подобных схем.
В общем, если вы не ничего из вышесказанного не поняли, что вполне допускается, объясним всё еще проще: Фон Нейман придумал своеобразный способ компенсации ошибок: «В сложной системе с длинными цепями из возбуждений-реакций возможность ошибки в основных органах делает реакцию внешних выходов ненадежной, т. е. лишает ее значения если не введен некоторый контрольный механизм, предотвращающий накопление этих основных ошибок». А накопление ошибок – это та же самая информационная энтропия, которая быстро сведёт все вычисления не нет, если ее не компенсировать.
3.
Каждый может пусть и бессознательно, но все же сработать против системы. И ариец и неариец. А может и сработать сознательно. Это нужно постоянно иметь в виду. Но наш организм как раз и представляет такую систему, притом, что может функционировать вполне надежно. Мы приводили пример, что самый оптимальный из возможных вариантов функционирования органов достигается в молодости, хотя вести разговор об их безупречном функционировании не приходится. Т. е. период нашего максимально надежного функционирования – это просто удачное сочетание стратегий развития каждого органа которое приходится на конкретный возрастной период. Но это на уровне одного человека, «душа» которого, как известно, «потёмки» и который может «сыграть» как угодно – за себя и против себя, за свою нацию и расу или же против неё. Конечно, человек совершает эти действия под давлением тех или иных обстоятельств и почти всегда эти обстоятельства системные, а в наше время, когда количество связей резко возрастает, воздействие системы будет тоже только возрастать. Но ведь реле и лампы в компьютерах тоже ломались не просто так, поломка – всегда следствие ряда причин. Винер специально отмечал, что: «Достоинство кибернетики состоит в методе исследования сложных систем, ибо при изучении простых систем кибернетика не имеет преимуществ /…/ Предмет изучения кибернетики—способы поведения объекта: она спрашивает не «что это такое?», а «что оно делает?». Поэтому свойства объекта являются названиями его поведения. Кибернетика занимается всеми формами поведения, поскольку они являются регулярными, или детерминированными, или воспроизводимыми. Материальность не имеет для нее значения, равно как соблюдение или несоблюдение обычных законов физики». Сказанное может показаться несколько самоуверенным, но весь наш опыт показывает, что это именно так. Полезен в принципе только тот, кто работает на свою систему, в нашем случае – на свою расу (как частный вариант – на свою нацию) и можно легко доказать, что не имеют никакого значения его внутренние мотивации. Если толпы молодых и здоровых бомжей бродят по улицам и «стреляют» у прохожих деньги на еду и на выпивку, мы задаем себе кибернетический вопрос: «а что они делают?» и приходим к выводу об их тотальной избыточности, но если мы их заставляем любым энергетически выгодным способом работать на свою расу, к примеру, строить дороги или добывать руду, то теперь ответить на вопрос «а что они делают?» будет очень легко – они работают на свою расу, они не избыточны. Так, подобрав подходящую функцию для формально ненадежного элемента (бомжи), мы превращаем их в надежный. Мы повышаем их качество и повышаем качество системы. Да, скорей всего управление бомжами потребует некоторого увеличения карательного аппарата, т. е. введения незначительной избыточности, но если избыточность будет окупаться её можно допустить. А если они неспособны работать на расу в принципе, то не имеет никакого значения способ которым они будут исключены из системы. Как залипшие реле и потерявшие эмиссию лампы. И такой расклад можно провести для любой социальной прослойки. Кто-то скажет что эти модели попахивают волюнтаризмом и тоталитаризмом, но любая оптимальная организация тоталитарна по своей сути.[293]293
Подготовка любого высокосистемного коллектива почти всегда подразумевает тоталитарные методы. Разве футбольная команда не тоталитарна? Разве там тренер не дает четкие задания каждому игроку, а потом требует их исполнения? А тренировки каждый день, соединенные с жесткими нормами спортивной дисциплины? А современные корпорации – ведь там тоже все четко расписано, а ранговые и статусные критерии выдерживаются очень строго. Но может ли кого-то победить «несистемная» команда? Так что слово «тоталитарный» изначально не несет в себе ничего отрицательного, в нашей трактовке тоталитаризм – это метод достижения цели и ничего более.
[Закрыть] Наука отражающая законы природы ведь тоже тоталитарна, в ней допускается только то что не противоречит ее законам, иначе она тут же превращается в шарлатанство. И такой тоталитаризм вполне совмещается с духом арийской языческой свободы. Ведь свобода это не только право делать то что хочешь, это еще и способность не делать того что нельзя. Не делать того, что ведёт к собственной деградации и деградации своей расы. Второе условие гораздо важнее чем первое, ибо для его выполнения требуется сила. И как оно будет достигнуто – тоже не имеет никакого значения, ибо затраты окупятся в любом случае. Здесь любой цены не жалко.
4.
Итак, от машин мы плавно перешли непосредственно к людям. При этом будем помнить, что всё что создали люди – от каменных орудий труда, и до современных микропроцессоров и нанотрубок, они создали «по своему образу и подобию», т. е. все эти вещи – продукты работы нашего мозга, все они выражение законов нашего мышления. И если люди додумались до того как повысить надежность компьютеров собранных на механических реле или на электронных лампах, неужели они никогда не задумывались о повышении своей собственной надежности, как на индивидуальном уровне, так и на системном? И неужели вы думаете, что человеческий случай уникальнее компьютерного? Да, человек сложнее, намного сложнее самого сложного компьютера. Да, на статистическом раскладе вероятность его «поломок» выше, но ведь и возможностей у него гораздо больше! Причем таких, какими компьютер никогда не будет обладать. Напомним, Уильям Росс Эшби, автор Закона Необходимого Разнообразия и обогативший наше системное знание таким понятием как «гомеостат» по профессии был нейрофизиологом.[294]294
Росс Эшби разработал электромагнитное устройство, моделирующее свойство гомеостазиса и назвал его «гомеостатом». Оно представляет из себя четыре электромагнита с глубокими обратными связями. Глубина связи регулируется реостатом с отводами. Будучи выведенными из состояния равновесия магниты перемещаются находя для себя новое равновесие, т. е. гомеостат обладает способностью к самоорганизации. Это устройство, не делает ничего, кроме непрерывного движения к равновесию. Всего возможно 390,625 различных состояний гомеостата Эшби, часть из которых статически устойчива, а часть – неустойчива. Если система находится в неустойчивом состоянии, происходит переключение. Переключения происходят до тех пор, пока система не найдет одно из устойчивых состояний вблизи среднего положения. Целеустремленное поведение гомеостата, при котором он находит устойчивое состояние при самых различных возмущениях, Эшби и назвал свойством ультраустойчивости. После Эшби были построены гомеостаты с гораздо большим количеством состояний, в том числе на компьютерах различной мощности и с разным быстродействием. Гомеостат Эшби не имеет памяти, потеряв устойчивое состояние при изменении условий, он возвращается в устойчивое состояние только случайно, в процессе нового поиска.
[Закрыть] Исследовал головной мозг как кибернетическую систему, т. е. занимался примерно тем же чем и мы. В своей книге «Конструкция мозга» он отмечал: «Такая же проблема стоит перед конструктором искусственного мозга, желающим чтобы поведение его механического мозга было адаптивным. Как может этот конструктор установить «правильные» свойства для каждой части, если правильность зависит не от поведение каждой из частей, а от взаимоотношений её с другими частями?» После чего указывает единственно правильный путь решения проблемы: «Его задача – создать надлежащую координацию между частями.[295]295
Эшби У. Р. Конструкция мозга. М., 1962,
[Закрыть] Мозг это делает автоматически. Какого рода машина способна к самокоординации?» Действительно, мозг это делает автоматически, поэтому если рассматривать индивида как изолированную субстанцию, его качества не имеют никакого значения. Он – вещь в себе. Допустим, сидит себе маньяк-насильник-убийца в одиночной камере, получает еду через «кормушку» в железной двери, причем вероятность его побега равна нулю. Как он сможет реализовать свои маниакальные позывы? Да никак. Он даже себя порезать не сможет, так как в камере отсутствуют режущие предметы. Но если его выпустить во внешний мир, т. е. «в систему», он станет реально опасным. Но такие «вещи в себе» настолько редкое исключение, что их можно не рассматривать, а при возрастающей плотности населения так и вовсе будут сведены на нет. Рассмотрим вариант т. н. «обычного человека».
Мы уже говорили, что сверхчеловек подразумевает исключение всего недочеловеческого, что в переводе на язык этой главы обозначает абсолютную или некую максимально достижимую возможность. Да, сейчас (мы это еще раз повторим) недочеловек в той или иной степени живет в каждом. В ком-то больше, в ком-то меньше. Человека отличает от недочеловека то, что человеческое в нем превалирует. Но кто из нас не имеет изъянов? Кто-то слабак, кто-то лентяй, кому-то не хватает воли, кому-то– мозгов, кому-то – организации, кому-то – смелости. Каждому чего-то не хватает, т. е. каждый имеет определенную степень ненадежности. Поройтесь в себе и составьте списочек своих «ненадежностей». Это полезно, это даст возможность составить план их преодоления. А ненадежность звеньев порождает ненадежность связей. У Шеннона и фон Неймана это были лампы и реле которые могли «неправильно сработать». В нашем случае – это отдельно взятый арийский индивид, который может сработать против своей арийской расы, в частном случае – против своей нации. Причем не важно как именно. Любое действие ослабляющее как самого индивида, так и его расу считается ненадежным. Типичный пример: у индивида появляется проблема (т. е. он сталкивается с неким информационным воздействием) и вместо того чтобы ее решать, он вдруг «ненадежно срабатывает» – напивается или глотает галлюциногены. Понятно, проблема от этого никак не решается, но индивид, таким образом, разрушает себя, а значит и свою расу. Как мы говорили, фон Нейман подобрал алгоритм который даже при неправильной работе звеньев обеспечивает максимально возможную надежность системы в целом. Кажется что это было несложно, ведь двоичная логика по определению имеет два состояния: «есть контакт – нет контакта», «да – нет», «единица – ноль», «провожу – не провожу». Казалось бы, у человека состояний гораздо больше, но это не совсем так. У человека тоже два состояния, два суператтрактора – воля к жизни и воля к смерти. И каждым своим действием он работает или на Бога или на сатану, на жизнь или на смерть, но никогда на две эти субстанции одновременно, ибо их цели всегда противоположны. Психоаналитики называют такие состояния «эрос» и «танатос», их также можно считать вполне изученными, правда, есть одно «но». Дело в том, что воля к жизни (эрос) и воля к смерти (танатос) считаются ими изначально одинаково сильными. Т. е. человеческое и недочеловеческое в каждом индивиде наличествует поровну. Так сказать, баланс Бога и сатаны. Такое изначальное допущение очень сильно упрощает дальнейшие выкладки (фон Нейман тоже исходил их того что ненадежность всех элементов одинакова, в его случае это было допустимо), но никак не может считаться правильным утверждением, в таком случае мы бы имели полное энтропийное равновесие и прекращение всякого развития. В технике это эквивалентно вероятности выхода детали 50 % в течение рассчитанного срока службы – цифра совершенно сумасшедшая и нереальная и если бы так было, ни одно сложное устройство в принципе бы не работало. При изначальном равенстве человеческого и недочеловеческого индивид не имел бы свободы воли, впрочем, Фрейд именно так и считал.[296]296
Здесь Фрейд «психоаналитическим» путем пришел к тому же, к чему «логическим» путем за триста лет до него пришел Спиноза: у человека нет свободы воли. «Воля и разум, – утверждал Спиноза, – одно и то же». Свободен только Бог, так как он всегда «в законе», а потому и детерменирован. А третий еврей – Отто Вейнингер – презрительно относящийся к Спинозе, констатировал, что «еврей – это прирожденный раб, а потому всегда детерминист».
[Закрыть] Но если человек не имеет свободы воли, то опять-таки по логике психоаналитиков он сразу и навсегда должен попасть или под «Бога» или под «сатану». Наверное, у кого-то так и происходит, в этом случае можно вести разговор, соответственно, об «абсолютно надежном» и «абсолютно ненадежном» индивиде.