412 000 произведений, 108 200 авторов.

Электронная библиотека книг » Дэвид Чалмерс » Сознающий ум. В поисках фундаментальной теории » Текст книги (страница 35)
Сознающий ум. В поисках фундаментальной теории
  • Текст добавлен: 9 октября 2016, 06:01

Текст книги "Сознающий ум. В поисках фундаментальной теории"


Автор книги: Дэвид Чалмерс


Жанр:

   

Философия


сообщить о нарушении

Текущая страница: 35 (всего у книги 40 страниц)

Это дает совершенно объективный критерий для имплементации вычисления. Имплементация вычисления не выхолащивается, как полагал Серл. Конечно, некоторые вычисления будут имплементироваться любой системой. К примеру, одноэлементный КоА с одним состоянием будет имплементироваться любой системой, почти также широко будет имплементироваться и двухэлементный КоА. Верно также, что большинство систем будет имплементировать более чем одно вычисление – в зависимости от того, как мы будем очерчивать состояния этой системы. В этом нет ничего удивительного: вполне ожидаемым представляется то, что моя рабочая станция, как и мой мозг, имплементирует множество вычислений.

Существенно, однако, то, что нет оснований считать, что любой КоА будет имплементирован любой системой. Если взять любой сложный КоА, то окажется, что существует лишь очень немного физических систем, наделенных каузальной организацией, необходимой для его имплементации. Если мы возьмем КоА, векторы состояний которого имеют тысячу элементов, с десятью опциями для каждого элемента, то аргументы, подобные тем, что выдвигались в главе 7, покажут, что шанс случайного набора физических состояний, имеющих нужные каузальные отношения, чуть меньше 1 из (101000)10^1000 (на деле гораздо меньше из-за требования прочности отношений перехода от состояния к состоянию[180]180
  Патнэм (Putnam 1988, с. 120–125) приводит свой аргумент в пользу того, что любая обычная открытая система имплементирует любой конечный автомат. Я детально анализирую этот аргумент в (Chalmers 1995а). По итогам этого анализа выясняется, что данный аргумент эффективен, похоже, лишь при допущении модальной мягкости кондиционалов перехода физических состояний в дефиниции имплементации.


[Закрыть]
).

Так как же быть с утверждением Серла о том, что вычислительные описания зависимы от наблюдателя? Верно то, что здесь имеется определенная степень такой зависимости: любая физическая система будет имплементировать множество вычислений, и то, на каком из них сосредоточится наблюдатель, зависит от целей этого наблюдателя. Но это не несет в себе угрозу для ИИ или для вычислительной когнитивной науки. По-прежнему верно, что по отношению к любому вычислению можно говорить о фактичности того, что та или иная система имплементирует или не имплементирует его, и в качестве его имплементаций будет выступать лишь ограниченный класс систем. И этого достаточно для того чтобы вычислительные концепции имели метафизическое и объяснительное значение.

Утверждение о том, что физическая система имплементирует комплексное вычисление Р, равносильно совершенно нетривиальному утверждению о каузальной структуре этой системы, которое может быть весьма полезным для когнитивных объяснений, а, быть может, и для понимания основы сознания. Лишь системы с очень специфичной разновидностью каузальной организации могут рассчитывать на соответствие сильным ограничительным условиям имплементации. Так что здесь нет опасности выхолащивания, и можно надеяться, что понятие вычисления окажется прочной основой для анализа когнитивных систем.

3. В защиту сильного ИИ

Имплементация КоА поразительно напоминает реализацию функциональной организации. Вспомним, что функциональная организация определяется специфицированием множества абстрактных компонентов, множества состояний каждого компонента и системы отношений зависимости, указующих на то, как состояния каждого компонента зависят от предыдущих состояний и от данных на входе, а также на то, как данные на выходе зависят от предшествующих состояний. Понятие КоА, по сути дела, является непосредственной формализацией указанного понятия.

Действительно, при наличии любой функциональной организации того типа, который был описан в главе 7, из нее можно напрямую извлечь КоА. Нужно лишь допустить, что векторы состояния КоА располагают элементами для каждого компонента этой организации и что формальные переходы состояний КоА соответствуют отношениям каузальной зависимости между компонентами. Реализация функциональной организации практически не отличается от имплементации соответствующего КоА. Небольшие различия, связанные, в частностью, с различным обращением с данными на входе и выходе, есть, но они несущественны.

Предложенная мной концепция имплементации, таким образом, проясняет связь между каузальной и вычислительной организацией. Так мы можем увидеть, что при применении вычислительных описаний к физическим системам они, по сути, предоставляют нам формальное описание каузальной организации системы. Вычислительный язык оптимально подходит для спецификации подобной абстрактной каузальной организации. Можно даже попробовать показать, что именно поэтому вычислительные понятия получили столь широкое распространение в когнитивной науке. В объяснении поведения сложной когнитивной системы наибольшее значение имеет абстрактная каузальная организация системы, и вычислительные формализмы оказываются идеальным каркасом, с помощью которого может быть описана и проанализирована подобная организация[181]181
  Я провожу эту линию понимания объяснительной роли вычисления в когнитивной науке в (Chalmers 1994b).


[Закрыть]
.

Указанная связь упрощает защиту сильного искусственного интеллекта. Я уже приводил доводы в пользу принципа организационной инвариантности, согласно которому относительно любой системы, наделенной сознательными переживаниями, верно, что система, обладающая такой же высокодетализированной функциональной организацией, будет обладать качественно идентичными сознательными переживаниями. Мы, однако, знаем, что любая функциональная организация может быть абстрагирована в КоА, всегда имплементируемый при реализации этой организации. Из этого следует, что для данной сознательной системы М ее высокодетализированная функциональная организация может быть абстрагирована в КоА М, такой, что любая система, имплементирующая М, будет реализовывать такую же функциональную организацию и поэтому будет обладать сознательными переживаниями, качественно неотличимыми от переживаний исходной системы. А это и есть сильный искусственный интеллект.

К примеру, на основе нейронного описания мозга мы могли бы получить абстрактный КоА, располагающий элементами вектора состояния для каждого нейрона и подсостояниями для каждого элемента, отражающими соответствующий диапазон состояний для каждого из нейронов. Правила перехода от состояния к состоянию в КоА отражают тип зависимости состояния каждого нейрона от состояния других нейронов и соотнесенность нейронных состояний и данных на входе и на выходе. Если значимы не только нейронные компоненты мозга, то можно включить и их. Любая физическая система, имплементирующая этот КоА, будет иметь такую высокодетализированную функциональную организацию, которая будет дуплицировать функциональную организацию мозга на нейронном уровне. Согласно принципу инвариантности, эта система будет обладать переживаниями, неотличимыми от тех, которые связаны с мозгом.

Заманчиво представлять компьютер просто как устройство с входом и выходом, между которыми есть место лишь для формальных математических манипуляций. Подобный взгляд на вещи, однако, игнорирует тот ключевой факт, что внутри компьютера – так же как и внутри мозга – имеется богатая каузальная динамика. В самом деле, в обычном компьютере, понейронно имплементирующем симуляцию моего мозга, есть место для реальной каузальности напряжений различных цепей, в точности отражающей паттерны каузальности между нейронами. Каждому нейрону будет соответствовать участок памяти, репрезентирующий этот нейрон, и каждый из этих участков будет физически реализован напряжением в каком-то физическом месте. За возникающий сознательный опыт отвечают именно эти каузальные паттерны электрических цепей, так же как за его возникновение отвечают каузальные паттерны нейронов мозга.

Тезис сильного искусственного интеллекта можно защищать и напрямую, используя аргументы от блекнущих и от скачущих квалиа. При наличии любых двух имплементаций КоА между ними будет спектр случаев, в которых физические компоненты имплементации заменяются по одному при сохранении паттерна их каузального взаимодействия с остальной частью системы. Если одна из систем обладает сознанием, и если КоА является абстрактным выражением ее высокодетализированной функциональной организации, то из упомянутых аргументов следует, что вторая система должна обладать сознанием и что она должна быть наделена неотличимыми сознательными переживаниями. Если бы вторая система не обладала сознанием, то существовала бы промежуточная система с блекнущими квалиа. Если бы вторая система не обладала сознанием или имела другие осознанные переживания, то мы смогли бы сконструировать промежуточную систему со скачущими квалиа. Такие последствия неправдоподобны по причинам, указанным в главе 7. Но если принять, что квалиа не могут блекнуть или скакать подобным образом, то из этого следует, что вторая из изначально имевшихся у нас систем обладает переживаниями, неотличимыми от переживаний первой системы, что и означает признание истинности тезиса о сильном искусственном интеллекте.

Здесь есть небольшая тонкость. Аргумент предполагает, что организация мозга может быть абстрагирована в КоА-описание. Для этого нужно лишь, чтобы релевантная организация могла быть описана в терминах конечного множества частей, каждая из которых имеет конечное множество релевантных состояний. Однако это можно было бы оспорить. Не исключено, к примеру, что для каждого нейрона требуется бесконечное множество состояний, чтобы передать непрерывность соответствующих процессов, имеющую важное значение. И можно было бы утверждать, что переходы между этими бесконечными состояниями могли бы оказаться невычислимыми. Позже я еще рассмотрю подобное возражение; пока же я готов принять вывод, что если когнитивная динамика вычислима, то надлежащая вычислительная организация будет порождать сознание. Иначе говоря, тут меня больше интересуют внутренние, а не внешние возражения. Тем не менее позже в этой главе я отвечу на ряд внешних возражений.

4. Китайская комната и другие возражения

Противники сильного ИИ, конечно же, подчас выдвигали конкретные доводы против этой позиции. Наиболее известным из них мы обязаны Джону Серлу, излагающему их, в частности, в статье 1980 г. «Сознания, мозги и программы». Я отвечу на них в рамках очерченной модели.

Китайская комната

В ходе знаменитого аргумента против сильного ИИ, Серл (Searle 1980) доказывает, что любая программа может быть имплементирована без порождения ментального. Доказательство построено на демонстрации того, что он считает контрпримером для тезиса о сильном ИИ: Китайской комнаты, внутри которой субъект, манипулирующий символами, симулирует человека, понимающего китайский язык. Китайская комната задумана как иллюстрация системы, имплементирующей программу – какой бы они ни была – при отсутствии релевантного сознательного опыта.

В изначальной версии Серл направляет свой аргумент скорее против машинной интенциональности, чем против машинного сознания, доказывая, что у Китайской комнаты отсутствует «понимание». Ясно тем не менее, что, по сути, речь идет о сознании. Ядро этого аргумента, если он верен, напрямую устанавливает, что система Китайской комнаты лишена сознательных состояний, таких как сознательное переживание понимания китайского языка. Серл считает, что интенциональность предполагает сознание, так что этого достаточно для того, чтобы убедиться, что комната лишена и интенциональности. Другие, впрочем, отрицают это. В любом случае, мы можем отвлечься от вопроса о связи между сознанием и интенциональностью и сформулировать проблему исключительно в терминах сознания. При этом можно чуть лучше высветить спорные моменты.

(Иначе говоря, мы можем разделить выводы Серла на две части: (1) программы не достаточно для сознания; и (2) программы не достаточно для интенциональности. Серл полагает, что из (1) следует (2), но другие отрицают это. Яснее всего будет, если сфокусировать аргумент о сильном ИИ на (1): все стороны согласятся, что, если (1) верен, то наиболее интересная разновидность сильного ИИ обречена, и даже Серл согласился бы, что опровержение (1) показало бы, что аргумент Китайской комнаты не проходит. Связь между сознанием и интенциональностью можно выделить тогда в отдельный вопрос, не критичный для аргумента против ИИ.

Действуя подобным образом, мы избегаем ситуации, при которой оппоненты выступают против (2), не беспокоясь об опровержении (1). К примеру, возражения, сфокусированные на связи между Китайской комнатой и ее окружением (Fodor 1980; Rey 1986), и возражения, процедурно или функционально объясняющие интенциональность (Boden 1988; Thagard 1986), могут в лучшем случае прояснить вопрос об интенциональности, но они никак не повышают правдоподобность вывода о сознательности Китайской комнаты. В результате они оставляют такое чувство, будто проблема, которую ставит перед ИИ этот сценарий, так и не была рассмотрена. Максимум, что они делают, так это оспаривают вспомогательную посылку о том, что интенциональность предполагает сознание [182]182
  Сходные тезисы высказаны в (КогЬ 1991) и (Newton 1989). Они считают, что Китайская комната может быть хорошим аргументом если не против машинной интенциональности, то против машинного сознания.


[Закрыть]
.)

Аргумент Китайской комнаты разворачивается следующим образом. Возьмем любую программу, которая, как предполагается, передает какой-то из аспектов сознания, к примеру, понимание китайского языка или наличие ощущения красного. Далее эта программа может быть имплементирована англоязычным субъектом, не знающим других языков, – будем называть его демоном — в черно-белой комнате. Демон вручную следует всем правилам, специфицированным программой, ведя записи о всех релевантных внутренних состояниях и переменных на клочках бумаги, при необходимости стирая и обновляя их. Мы можем также вообразить, что демон соединен с роботизированным телом, получая цифровые данные от перцептивных датчиков, манипулируя ими согласно программным спецификациям и посылая результирующие данные на моторные эффекторы. Здесь можно говорить о совершенной имплементации программы. Тем не менее кажется очевидным, что у демона нет сознательного понимания китайского и что он лишен ощущения красного. Поэтому имплементация программы не достаточна для этих сознательных переживаний. Сознание предполагает не только имплементацию релевантной программы.

Защитники сильного ИИ обычно возражали так, что они соглашались, что демон не понимает по-китайски, но доказывали, что понимание и сознание должны быть атрибутированы системе, включающей в свой состав демона и клочки бумаги. Серл заявлял об очевиднейшей неубедительности такого возражения. Действительно, в утверждении о том, что система, состоящая из субъекта и клочков бумаги, обладает коллективным сознанием, есть нечто контринтуитивное. На этой стадии аргумент заходит в тупик. Защитники ИИ доказывают, что система обладает сознанием, оппоненты находят этот вывод нелепым, и дальнейшее продвижение кажется затруднительным. Думаю, однако, что приведенные ранее доводы дают возможность выйти из тупика к сильному ИИ.

Допустим, что программа, о которой мы говорим, в действительности является комбинаторным автоматом, отражающим на нейронном уровне организацию носителя китайского языка, смотрящего на сочное красное яблоко. Демон в комнате имплементирует этот КоА, располагая клочками бумаги для каждого элемента вектора состояния и обновляя их на каждом временном шагу в соответствии с правилами перехода от состояния к состоянию. Мы можем развернуть аргументы блекнущих и скачущих квалиа, сконструировав спектр случаев, занимающих промежуточное положение между исходным носителем китайского языка и Китайской комнатой[183]183
  Хофштадтер (Hofstadter 1981) очерчивает сходный спектр промежуточных случаев между мозгом и Китайской комнатой.


[Закрыть]
. Сделать это нетрудно. Вначале мы можем вообразить, что нейроны в голове носителя китайского языка последовательно заменяются крошечными демонами, каждый из которых дуплицирует входяще – исходящую функцию нейрона[184]184
  Идея о том, что гомункул в Китайской комнате аналогичен демону, мечущемуся внутри черепной коробки, была высказана Хауглендом (Haugeland 1980).


[Закрыть]
. При получении стимулов со стороны соседних нейронов демон производит соответствующие вычисления и, в свою очередь, стимулирует соседние нейроны. По мере замены все большего количества нейронов демоны берут верх, пока весь череп не оказывается заполнен миллиардами демонов, реагирующих на сигналы друг друга и на входящие чувственные данные, производящих вычисления, сигнализирующих другим демонам и, в свою очередь, стимулирующих моторные окончания. (Если кто-то будет возражать, сказав, что все эти демоны никогда не смогут поместиться в череп, то взамен можно вообразить сценарий с устройствами радиопередачи, находящимися вне черепа.)

Далее, мы постепенно уменьшаем число демонов, удваивая их работу. Сперва мы заменяем два соседних демона одним демоном, делающим их работу. Новый демон будет фиксировать внутреннее состояние обоих симулируемых им нейронов – можно представить, что эта запись будет храниться на клочке бумаги в каждой из локаций. Каждый из этих клочков бумаги будет обновляться в зависимости от сигналов, поступающих от соседних нейронов и от состояния другого клочка бумаги. Консолидация демонов будет продолжена, пока в конце концов на их месте не окажется один-единственный демон и миллиарды крошечных клочков бумаги. Можно представить, будто каждый из этих клочков находится в месте изначального расположения соответствующего ему нейрона, а демон мечется по мозгу, обновляя каждый из этих клочков в качестве функции состояний соседних клочков и, при необходимости, чувственных данных.

Несмотря на все эти изменения, итоговая система имеет ту же функциональную организацию, что и исходный мозг. Каузальные отношения между нейронами в исходном случае отражаются в каузальных отношениях между демонами в промежуточном случае и между клочками бумаги – в конечном случае. В этом конечном случае каузальные отношения опосредуются действиями демона – клочок бумаги воздействует на состояние демона, который воздействует на соседний клочок бумаги – но они тем не менее являются каузальными отношениями. Если мы посмотрим на функционирование этой системы в ускоренном режиме, то мы увидим вихрь каузальных взаимодействий, точно соответствующий нейронному вихрю.

Мы, таким образом, сможем применить аргументы от блекнущих и скачущих квалиа. Если итоговая система лишена сознательного опыта, то должна существовать промежуточная система с блеклыми сознательными переживаниями. А это неправдоподобно по уже известным нам причинам. Мы можем также вообразить, что мы поочередно подключаем то нейронную цепь, то соответствующую ей резервную цепь, имплементированную демонами или одним демоном и клочками бумаги. Как и прежде, это привело бы к скачущим квалиа при неизменной функциональной организации, так что система не смогла бы заметить разницу. И опять-таки гораздо более правдоподобным выглядит допущение, что квалиа не будут меняться.

Оправданным, стало быть, кажется заключение, что итоговая система имеет точно такие же сознательные переживания, что и исходная система. Если нейронная система порождала переживания чего-то ярко-красного, то их будет порождать и система демонов, равно как и сеть клочков бумаги, опосредованных демоном. Но этот итоговый случай, разумеется, всего лишь копия системы, находящейся в Китайской комнате. Мы тем самым нашли позитивное основание считать, что та система действительно обладает сознательными переживаниями, в частности, теми, которые связаны с пониманием китайского языка и переживанием красного.

Подобный взгляд на вещи проясняет два момента, которые могли бы оставаться затемненными серловским описанием Китайской комнаты. Во-первых, «клочки бумаги» в комнате – это не просто кучи формальных символов. Они образуют конкретную динамическую систему, каузальная организация которой прямо соответствует организации исходного мозга. Это обстоятельство затемняется медлительностью связываемой с ними манипуляции символами, а также присутствием демона, осуществляющего эту манипуляцию; и тем не менее сознательный опыт порождает именно конкретная динамика этих клочков бумаги. Во-вторых, демон играет сугубо второстепенную роль. Ключевая каузальная динамика связана с клочками бумаги, соответствующими нейронам в исходном случае. Демон всего лишь оказывает вспоможение этим каузальным отношениям. Образ демона, мечущегося внутри черепной коробки, делает очевидным то обстоятельство, что атрибутирование переживаний системы демону было бы серьезным смешением уровней. Факт сознательности демона может искушать на предположение, что если переживания системы вообще где-то существуют, то они существуют именно в демоне; но в действительности сознательность демона не имеет никакого отношения к функционированию системы. Функции демона могла бы выполнить простая таблица соответствий. Ключевым аспектом системы является динамика символов.

Аргумент Серла интуитивно впечатляет нас из-за причудливости программной имплементации, затемняющей реализацию релевантной каузальной динамики. Но при избавлении от образов, навеваемых присутствием нерелевантного демона и медлительностью перетасовки символов, мы увидим, что каузальная динамика в комнате в точности отражает каузальную динамику в черепной коробке. И тогда предположение о том, что эта система порождает опыт, уже не будет казаться столь неправдоподобным.

В одной из версий серловского аргумента демон запоминает правила вычисления и внутренним образом имплементирует программу. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но можно вообразить, что демон с модулем суперпамяти был бы в состоянии запомнить все правила и состояния всех символов. В этом случае опять-таки можно ожидать, что система породит сознательные переживания, которые не будут переживаниями демона. Серл доказывает, что если кто-то и должен иметь переживания, то им может быть только демон, так как все процессы обработки информации протекают внутри него, однако эта ситуация должна рассматриваться как пример реализации двух ментальных систем в одном и том же физическом пространстве. Устройство, порождающее китайские переживания, никак не совпадает с организацией, порождающей переживания демона. Понимающее китайский устройство состоит в каузальных отношениях миллиардов локаций модуля суперпамяти; демон же, повторю, действует лишь в качестве каузального вспоможения. Это становится очевидным при рассмотрении спектра случаев, когда демон, мечущийся в черепной коробке, постепенно запоминает правила и символы – до тех пор, пока не интернализирует все их. Соответствующая структура постепенно перемещается из черепной коробки в суперпамять демона, но опыт остается неизменным и совершенно обособленным от переживаний демона.

Можно было бы предположить, что поскольку мой аргумент предполагает дуплицирование организации мозга, он устанавливает лишь слабую разновидность сильного ИИ, тесно увязанную с биологией. (При обсуждении возражения, называемого им «Симулятором мозга», Серл выказывает удивление тем обстоятельством, что сторонник ИИ выдвигает возражение, подразумевающее детальную симуляцию человеческой биологии.) Однако в таком случае мы недооценили бы силу этого аргумента. Программа симуляции мозга – это просто тонкий край нашего клина. Узнав, что одна программа может порождать ментальное даже при ее имплементации в духе Китайской комнаты, мы полностью нейтрализуем аргумент Серла, претендующий на универсальный характер: мы знаем, что демон и бумага в Китайской комнате действительно могут фундировать независимое сознание. И тогда мы открываем шлюзы для целого спектра программ, которые могли бы оказаться кандидатами на роль программ, порождающих сознательный опыт. Границы этого спектра – это открытый вопрос, но Китайская комната не является препятствием на этом пути.

Синтаксис и семантика

Второй аргумент, выдвинутый Серлом (Searle 1984), звучит так:

1. Компьютерная программа имеет синтаксический характер.

2. Синтаксис недостаточен для семантики.

3. Сознания семантичны.

4. Поэтому имплементации программы недостаточно для сознания.

Опять-таки, это выдвигается как аргумент об интенциональности, но он может рассматриваться и как аргумент о сознании. Серл считает, что главной разновидностью интенциональности является феноменологическая интенциональность, внутренне присущая сознанию.

Этот аргумент можно интерпретировать и критиковать разными способами, но главная его проблема состоит в том, что он не придает должного значения ключевой роли имплементации. Программы — это абстрактные вычислительные объекты, и они сугубо синтаксичны. Можно быть уверенным, что ни одна программа как таковая не может претендовать на наличие в ней ментального. Но имплементации программ — это конкретные системы с каузальной динамикой, и они не есть нечто сугубо синтаксичное. Имплементация имеет каузальный вес в реальном мире, и благодаря этому весу возникает сознание и интенциональность. Синтаксична программа; имплементация же имеет семантическое содержание.

Серл мог бы попробовать доказать, что и имплементации в определенном смысле синтаксичны – возможно, потому, что динамика имплементаций детерминируется формальными принципами. Однако «синтаксичность» имплементаций имеет смысл, никак не связанный с тем, в котором можно правдоподобно утверждать, что синтаксис недостаточен для семантики. Хотя тезис о том, что статичный набор абстрактных символов лишен внутренних семантических свойств, и может быть правдоподобным, гораздо менее очевидным кажется утверждение, что формально специфицированные каузальные процессы не могут фундировать ментальное.

Мы можем следующим образом спародировать этот аргумент:

1. Рецепты синтаксичны.

2. Синтаксис недостаточен для рассыпчатости.

3. Пирожные рассыпчаты.

4. Значит, имплементации рецепта недостаточно для пирожного.

В таком виде указанный дефект бросается в глаза. Аргумент не проводит различия между рецептами, являющимися синтаксическими объектами, и имплементациями рецептов, полноценными физическими системами в реальном мире. Вся работа, опять-таки, проделывается отношением имплементации, соотносящим области абстрактного и конкретного. Рецепт имплицитно специфицирует класс физических систем, которые могут рассматриваться как имплементации этого рецепта, и именно эти системы обладают такими характеристиками, как рассыпчатость. Аналогичным образом программа имплицитно специфицирует класс физических систем, которые могут рассматриваться в качестве ее имплементаций, и именно они порождают такие характеристики, как ментальное.

Симуляция – это всего лишь симуляция

Одно из популярных возражений против искусственного интеллекта (напр., Searle 1980; Hamad 1989) состоит в том, что симуляция феномена не тождественна его воспроизведению. К примеру, при компьютерной симуляции пищеварения никакая пища в действительности не переваривается. Симуляция урагана – это не настоящий ураган; при его симуляции на компьютере никто не промокает. При симуляции тепла реальное тепло не выделяется. Так почему же мы должны ожидать появления настоящего сознания при его симуляции? Почему мы должны ожидать, что именно в этом случае вычислительный процесс не просто симуляция, но и нечто реальное?

Нет сомнений, что для многих свойств симуляция не является воспроизведением. Симулированное тепло – это не реальное тепло. Имеются, однако, и такие свойства, для которых симуляция есть воспроизведение. К примеру, симуляция системы с каузальной петлей есть система с каузальной петлей. Так что реальный вопрос состоит здесь в том, как отличить типы X, при которых симуляция X действительно есть X, от иных?

Ответ, как я полагаю, может быть таким: симуляция X оказывается X именно в тех случаях, когда свойство быть X является организационным инвариантом. Дефиниция организационного инварианта – такая же, как и раньше: свойство есть организационный инвариант, когда оно зависит только от функциональной организации фундирующей системы, а не от каких бы то ни было иных деталей. Вычислительная симуляция физической системы может ухватывать ее абстрактную каузальную организацию и гарантировать ее воспроизводимость при любой имплементации, вне зависимости от состава имплементирующей инстанции. Подобная имплементация будет в таком случае воспроизводить любые организационные инварианты изначальной системы, однако другие свойства будет утрачены.

Свойство быть ураганом не является организационным инвариантом, так как оно отчасти зависит от таких неорганизационных свойств, как скорость, форма и физических состав фундирующей системы (система с теми же каузальными взаимодействиями, очень медленно имплементированная на большом количестве бильярдных шаров, не была бы ураганом). Пищеварение и тепло сходным образом зависят от различных аспектов фундирующих физических субстратов, не являющихся всецело организационными. Мы могли бы постепенно заменять биологические компоненты пищеварительной системы – так, чтобы реакции, основанные на действии кислоты, заменялись каузально изоморфными взаимодействиями кусочков металла, и это уже не было бы пищеварением. Так что нам не стоит ожидать, что симуляция систем с этими свойствами сама будет обладать ими.

Но феноменальные свойства не таковы. Как я доказывал в главе 7, эти свойства представляют собой организационные инварианты. И если это так, то отсюда следует, что надлежащая симуляция системы с феноменальными свойствами сама будет обладать ими – благодаря воспроизведению высокодетализированной функциональной организации изначальной системы. Организационная инвариантность принципиально отличает сознание от других упомянутых свойств и открывает путь сильному ИИ.


    Ваша оценка произведения:

Популярные книги за неделю