Текст книги "Философия Южного Парка: вы знаете, я сегодня кое-что понял"
Автор книги: Роберт Арп
Жанр:
Публицистика
сообщить о нарушении
Текущая страница: 14 (всего у книги 20 страниц)
Когда они узнают, в кого влюбился Баттерс, они посещают с ним ресторан. Линда Стотч, мама Баттерса, восклицает: «Это ужасное место. Как оно унижает девочек!», а затем пытается вдохновить малютку Порше работать там, где платят не за внешность, например, в медицине или предпринимательстве. Порше отвечает: «Я смогу найти лечение от рака? О боже, это было бы так здорово! Одно время у меня на губе выскочил рак, было так больно!» Мама Баттерса заключает, что «Изюминки», возможно, идеальное место для бедняжки Порше. Нам смешно, ведь у школьницы Порше было достаточно времени на выяснение разницы между прыщами и раком. Кстати, мама Баттерса быстро поменяла своё мнение об опасностях овеществления женщин. Она движется от возмущения к принятию, и мы понимаем, что она будет истинным выразителем инакомыслия в серии. Нам смешно, когда мама Баттерса приходит к выводу, что овеществление для жизни некоторых девочек может стать лучшим выходом. Но под смехом кроется признание того, что овеществлению необходимо наше нравственное внимание.
Легко представить, что определённые действия могут наносить ущерб; он может быть физическим, моральным, эмоциональным или финансовым. Например, поджигание Пипа повлечёт физический ущерб; штрафование Шефа на 2 миллиона долларов повлечёт финансовый ущерб, а дети, эмоционально или психически пострадавшие от глупых взрослых, есть почти в каждой серии. Но некоторые случаи не так просто интерпретировать, с ними мы и сталкиваемся в нашем анализе бутиков для девок и «Изюминок».
Вместо того чтобы выступать против порно как изображения секса, Кэтрин Мак Киннон, одна из известнейших феминисток-противников порнографии, сосредотачивается на том, как образ женщины в ней в виде обесчеловеченной вещи питает и стимулирует сексизм. Так что шмаро-бутики, рестораны, типа «Изюминок» и их календари, хоть и кажущиеся очевидными примерами обесчеловечивания, поднимают темы, связанные со спорами вокруг свободы слова, порнографии, овеществления.
Исходя из доводов противников порнографии, «Изюминки» и бутики должны быть закрыты, поскольку они подпитывают угнетение женщин и дискриминацию. Пока они существуют, на женщин не будут смотреть, как на личностей и нравственных субъектов. Вот почему эта индустрия вредит женщинам, и она не должна пользоваться конституционными гарантиями. Если бы в Южном Парке закрыли эти учреждения, это способствовало бы становлению многих девочек, в качестве врачей и адвокатов, вместо уподобления их роскошным машинам. Конечно, для таких выводов требуется комплексное и сложное понятие «вреда», учитывающее не только причиняемый женщинам физический, моральный, эмоциональный, финансовый ущерб, но также берущее в расчёт такие факторы, как пол и социальные привилегии.
После всего сделанного и сказанного должны ли мы позволить шлюхам быть шлюхами?
Это могли бы мы спросить, имея такую аргументацию, как превращение женщин в жертв или лишение их возможности выбора. Однако молодые феминистки критикуют применение этих позиций у Мак Киннон. Суть критики её теорий «овеществления» и «вредоносной непристойности» в том, что если женщины – пассивные жертвы индустрии, то они и сами для себя не могут что-либо решить. «Ой, бедная шлюха… она не знает ничего лучшего»– можно было бы подумать – «лучше уж нам отыскать для неё пристойное занятие, и не позволять ей дальше идти путём разврата». Вспомните стереотипы о женщинах, нуждающихся в постоянной заботе, опеке, пассивных, кстати. Мы же знаем, что личность человеческая гораздо разнообразней и сложней, чем стереотипные представления!
Спрашивается, почему бы проституткам не быть свободными в своём блудном пути? При условии, что женщина сама свободно решила стать проституткой – и осознаёт в полной мере всё, что повлечёт такая жизнь – не умалим ли мы её достоинства, уважения к ней как к личности, если встанем на её пути? В числе других, заявление миссис Стивенс из «Видеонабора шлюхи», одеваться как шлюха и вести себя как шлюха – это «новые возможности» для молодой, самоуверенной женщины. И вот здесь Южный Парк подчеркивает одну важную вещь. Когда Венди критикует шмаро-бутик, она не выставляет наперёд свой ущерб от него. Она скорее подчёркивает, что в современном обществе высокое гендерное неравенство. Кроме того, Венди указывает на важность для женщины умения принимать самостоятельные решения. Наверно, не будет лишним сказать, что за пределами Южного Парка проститутки действительно являются «жертвами» жизненных условий – например, лишились поддержки семьи, не могут нормально трудоустроиться, страдают наркозависимостью – и возможность отказаться от овеществления серьёзно ограничивается экономическими и социальными факторами. Но всё это не относится к девчонкам Южного Парка. Для них ударение в крайности в выставлении себя как шлюх – не подтверждение их свободы выбора, не равноправие, это просто желание уподобиться шлюхам! «Это унизительно для нашего пола» – говорит Венди.
Так, через глашатая – Венди Тестабургер, Южный Парк поднимает важный вопрос – «разврат и вырождение процветают, в то время как интеллектуальность снижается». Шоу противостоит важным философским вопросам об автономии, силе, непристойности, сексуальной коммерциализации, гендерных ролях и сексуальности – всем центральным проблемам в феминистской философии и феминистской этике. Южный Парк также исследует стереотипы, часто трудно признаваемые, и неспособность массовой культуры к критическому анализу. Наша моральная обязанность, как людей рациональных процветающих и взрослых – копаться в этих сложностях. Мы, ведь, действительно хотим процветания разврата и вырождения? Мы действительно хотим быть тупыми испорченными шлюхами?
17. ШИКАРН-О: возможности и последствия создания искусственного интеллектаРэндалл М. Иенсен
Может ли машина быть разумной?
В «ШИКАРН-О», классическом эпизоде из восьмого сезона Южного Парка, Картман разрабатывает очередной сложный план, чтобы подъебать Леопольда «Баттерса» Стотча, которого легковерие и «правильность» делают «легкой добычей». На сей раз, нелепо-блестящая идея Картмана состоит в том, чтобы переодевшись в робота, завоевать доверие Баттерса, изучить его самые сокровенные тайны, а затем открыть себя в самый подходящий момент. Сначала, его план воплощается блестяще, поскольку Баттерс рассказывает испытанному другу-роботу о своей проблеме контроля над сфинктром. Однако, Картман одновременно узнает, к своему ужасу, что намеченная им жертва знает одну из его собственных самых глубоких и сокровенных тайн: у Баттерса есть видеозапись Картмана, наряженного как Бритни Спирс, напевающего и танцующего с картонным Джастином Тимберлэйком! Картман, таким образом, вынужден оставаться в облике ШИКАРН-О намного дольше, чем он планировал, поскольку должен определить местонахождение компрометирующего видео и воспрепятствовать тому, чтобы Баттерс выставил его идиотом. Само собой, все это в итоге выливается в море веселья.
Итак, ШИКАРН-О 4000 не является реальным роботом (хотя его имя – довольно очевидный намек на Асимо, гуманоидного робота от «Хонда»). Нет, это всего лишь маленький жирный мальчик, одетый в костюм из картонных коробок, наклеек, пластмассовых труб, очень похожих на руки. Ужасно неубедительное олицетворение Картманом робота, похоже, используется, чтобы затронуть множество интересных философских вопросов о сложной и провокационной проблеме искусственного интеллекта, которые обращаются к созданным человеком автоматизированным механизмам и компьютерным программам («искусственная» часть), которые, кажется, рассуждают и думают точно так же как естественные разумы («интеллектуальная» часть). В этой главе мы рассмотрим некоторые вопросы разума, ветви философии, касающиеся природы и функционирования мозга, а так же отношения разума и физического тела.
Размышляя, может ли машина, быть разумной, мы, в то же самое время, вынуждены задаться вопросом, есть ли у людей разум. При этом мы также упремся прямо в то, что является традиционно известным, как проблема других разумов, центральная проблема в философии разума, которая также простирается в эпистемологию (ветвь философии, касающаяся познания). Тогда как философ разума мог бы спросить: «Какова природа разума?», эпистемолог спрашивает: «Откуда мы знаем, что у чего-то нет разума?» Что ж, ШИКАРН-О, веди нас!
Играя в подражание
Картман подражает роботу и внешне, и в поведении. В обоих случаях его актерскую игру нельзя назвать успешной. Его глупый костюм может убедить только легковерных: наивного Баттерса, Голливудских продюсеров, военное руководство и так далее. Что касается его поведения, ну, в общем, лучше опустим… Этот картонный робот звучит и двигается точь-в-точь как Картман. Но давайте предположим, что мы должны помочь Картману сделать его лучше, сделать намного более реалистическую маскировку, включающую устройство для моделирования голоса, так, чтобы он выглядел и походил на робота, способного обмануть даже более прошаренных Кайла и Стэна. Однако, его слишком картманское поведение – выдало бы его. Таким образом, мы должны также натренировать его действовать и говорить, как робот, чтобы больше на него походить.
Что может быть больше похоже на робота, чем нечто с автоматизированной речью и соответственным поведением? Какова должна быть внешность «реального» робота? Наши первые попытки ответить на эти вопросы будут, вероятно, связаны с общими, устоявшимися понятиями об искусственном интеллекте. Когда мы слышим слово «робот», мы ожидаем увидеть технологичного блестящего гоминида, который неловко с трудом перемещается (как и Картман, надо отдать ему должное) и говорит монотонным искусственным голосом (который Картман, без особого успеха, пытается подделать). Но, по зрелом размышлении, можно ли в действительности предположить, что сложный высокоинтеллектуальный робот должен выглядеть и действовать именно так? Это совсем не так. Возможно, первое поколение роботов и правда было довольно сырым – во всех отношениях, включая возможности перемещения и коммуникации – но теперь вполне можно считать, что эти недоработки исчезли или исчезнут, в течение ближайшего времени, и будут строиться роботы лучше и лучше. Как робот перемещается, на что похож и как звучит – кажется простыми проблемами проектирования, которые могут быть решены технологическим прогрессом и человеческой изобретательностью. Интересно посмотреть, как наши общие представления о роботах изменились, вместе с ростом технологий. Драндулеты 1950-ых – в значительной степени – пережиток прошлого, даже в наших воспоминаниях. В то время, как вид и звук робота важны для научных фантастов и телепродюсеров, эти параметры не так уж значимы для мыслителей, которые серьезно обеспокоены природой и возможностями искусственного интеллекта. Наши проблемы – не в этом.
Мы говорили о том, как помочь Картману прикинуться роботом, и это принудило нас думать о том, что мы ожидаем увидеть, при слове «робот». Здесь мы нуждаемся в плодотворном новом руководстве для нашего исследования. Есть мысль. Давайте составим общее описание олицетворения робота, как если бы мы должны были программировать робота, для исполнения роли Картмана. В то время, как мы не особо уверены, на что должен походить робот, мы отлично знаем, на что походит Картман, поскольку слишком хорошо ознакомились с его внешностью, индивидуальностью и поведением. И, говоря шире, мы очень хорошо знакомы с тем, на что походят люди. Так как же мы должны запрограммировать машину, чтобы она походила на нас? Действительно ли это возможно? И если возможно – что это означало бы? Более или менее приемлемые ответы, можно найти в руководстве, которое дал Алан Туринг (1912–1954) в классической статье 1950-го года. Туринга можно считать отцом движения двадцатого века «за искусственный интеллект!», требующего продолжения исследований вопроса: «машина может думать?» Автор нашел этот вопрос слишком неясным, поскольку не очевидно, что считать машиной, а что разумом. Он также волновался, что мы попытаемся упрощенно ответить на этот вопрос, обращаясь к общему мнению, как уже пытались сделать до нас, несмотря на то, что жившие раньше, кажутся не очень компетентными в этой проблеме. Таким образом, он работал, чтобы вывести ясный и точный способ, который мог обратиться в более надежный метод. То, что он разрабатывал, стало известным, как тест Туринга, его-то мы и применим для анализа Южного Парка.
Чтобы провести тест, мы нуждаемся в трех комнатах. Комната 1 содержит испытательный прибор. Испытательным прибором может быть любой разумный человек (что, к нашей тревоге, в значительной степени дискредитирует почти каждого жителя Южного Парка!). В отчаянии, мы можем обратиться к ученому из эпизода «ШИКАРН-О», чтобы он выступил нашим испытательным прибором. Мы назовем его «мр. Ученый», поскольку военнослужащие в эпизоде предстают в таком свете, что их умственными способностями – можно пренебречь. В Комнате 2 мы поместим Картмана, который без сомнения скажет, что это – полный отстой и попросит курицы-KFC. Наконец, наш кандидат на тест – машина, запрограммированная, чтобы подражать Картману – в Комнате 3. Так как наша цель, по Турингу, не состоит в том, чтобы увидеть, может ли машина быть похожей на Картмана, а скорее убедиться, сможет ли машина думать, как Картман, мы воспрепятствуем обитателям комнат видеть друг друга и сделаем так, чтобы они общались друг с другом только в письменной форме. Мр. Ученый может спросить у находящихся в комнатах 2 и 3 что-нибудь, все что захочет. После достаточного периода взаимодействия между ними мы спросим его, кому он верит, кто, по его мнению – машина, а кто – настоящий Картман. Ясно, что если он сможет идентифицировать машину несколько раз подряд, наша машина – провалила тест Туринга. Но если машина большую часть времени сможет обманывать его, если он будет часто принимать ее за реального Картмана, то наша машина преуспеет или «пройдет» тест Туринга. И это, по словам Туринга, будет означать, что получен положительный ответ на его специфическую версию более общего вопроса «машина может думать?»
Туринг полагал, что в течение пятидесяти лет после опубликования его статьи, примерно к 2000-му году, успехи вычислительной технологии позволят построить машину, которая действительно сможет пройти его тест и проблема того, может ли машина думать, была бы решена. Сейчас, мы можем видеть, что он был чрезмерно оптимистичен в своих прогнозах. Хотя Вы можете найти множество «чат-ботов» в Интернете, довольно очевидно, что ни один из них не достаточно хорош, чтобы пройти тест Туринга, как он предполагал. Но это – не великий вопрос. Действительно важнейшая проблема – является ли тест Туринга приемлемым, правда ли машина, которая пройдет тест, будет интеллектуальной?
Возможно, Вам встречались машины, запрограммированные, чтобы действовать как человек. Даже если они правдоподобно выглядели, они по-прежнему действуют не как мы: это – только моделирование. Аналогично, независимо от того, как умело Картман притворяется роботом, он не робот. Он – мальчик, симулирующий поведение машины. Почему же мы должны думать, что компьютерное моделирование – даже очень хорошее или совершенное – является чем-то большим, чем моделирование? В конце концов, компьютерное моделирование грозы не делает никого сырым, а моделирование военного маневра – никого не убивает. Итак, почему мы должны согласиться, что компьютерное моделирование думающего человека – действительно думающий человек?
Мы можем ответить на этот вопрос, признав, что моделирование чего-либо не является одновременно дублированием этого. Почему? Вообще, идея состоит в том, что Вы не сможете моделировать интеллект, не будучи интеллектуальным, чтобы выдержать тест Туринга должен быть организован гибкий и творческий в ответах на вопросы механизм – который может функционировать только для интеллектуальной, думающей системы. Однако, такой ответ не убеждает всех. Во-первых, мы могли бы сослаться на то, что интеллект, который должен пройти тест, сосредоточен в программистах, а не в машине. И, во-вторых, кажется вполне логически возможным для машины обдурить нас – пройти тест Туринга, по-сути не делая реальных размышлений. Голографическое моделирование мр. Шляпы – не настоящая марионетка, потому что в нем упущены кое-какие моменты: шерстяная или хлопковая ткань или что-то типа носка, короче говоря. Возможно, что машина, моделируя мышление, аналогично пропускает некие важные аспекты настоящего разума?
Китайская комната
Джон Серл, профессор университета Калифорнии в Беркли, и один из самых видных философов разума прошлых десятилетий, является, возможно, самым известным специалистом, в области экспериментов с мыслями, называемых аргументом китайской комнаты. Мыслительный эксперимент – просто детальный пример, который предназначен, чтобы помочь нам размышлять о философской проблеме. Некоторые мыслительные эксперименты, включая этот, также предназначены, чтобы играть ключевую роль в утверждении, о верности или ложности некоторых заявлений. Между прочим, этот специфический мыслительный эксперимент предназначается также, для критического анализа теста Туринга. Давайте же взглянем на него, еще раз, с точки зрения Южного Парка.
На сей раз, мы должны вообразить только две комнаты. В первой комнате мы снова разместим мр. Ученого. Во второй комнате – Кенни, надеясь, что он будет оставаться в живых достаточно долго, чтобы удовлетворить нашим целям. Все, что Кенни должен будет сделать – следовать некоторым простым инструкциям. Ах да, также важно, что он не знает китайского языка. Мр. Ученый, который бегло говорит на китайском языке, спрашивает у Кенни на китайском языке: «Что такое Южный Парк?» посредством китайских иероглифов. Кенни прочтет это китайское послание, в котором, конечно, ничего не поймет и использует сложный свод правил для составления ответа. Этот свод правил, с английскими наставлениями, состоит из списков китайских комбинаций символов, которые скоррелированы к другим китайским символам и английским словам. Кенни находит соответствующие правила, с трудом копирует символы, которые соответствуют символам, что представил ему мр. Ученый, а затем посылает новую комбинацию китайских иероглифов в другую комнату. Ученый исследует их и видит, что в ответном послании говорится: «заспанный обрыглый горный городок».
Итак, какова выгода от этого довольно сложного действа? Не будет ли казаться Ученому, что он только что общался с кем-то из другой комнаты, кто понимает китайский язык? В конце концов, он получил точный ответ на свое послание на китайском языке. И он может сделать это снова, много раз если пожелает. Но нам-то, конечно, ясно как день, что Кенни – ни бельмеса в китайском. При помощи словаря (какой же длины он должен быть!), он в состоянии ответить на вопросы Ученого, но это все без малейшего понятия со стороны Кенни. Он может быть в состоянии механически повторить иероглифы, но он ведь не знает или не понимает язык вообще.
Заявление Серла, состоит примерно в том, же, что может быть сказано относительно цифровой ЭВМ, которая проходит тест Туринга. Факт, что она может быть запрограммирована на предоставление ответа, который подходит к любому входящему вопросу, просто не дает права сказать, что машина, понимает что-нибудь вообще. Как метко выразился Серл, у цифровых ЭВМ может быть синтаксис (запрограммированный порядок слов, вроде «если х, то у» или «х либо у»), но никакой семантики (понимание или осознание значения «если х, то у» или «х либо у»).
Таким образом, то, что пропускает машина, – понимание. Согласно Серлу, в этом – главное различие (или одно из них, не суть важно) между сложной цифровой ЭВМ и человеческим разумом. Понимание здесь – во главе угла. Заявление Серла не состоит в том, что машины вообще не могут думать. Скорее он полагает, что только определенный вид «машины» – человеческий мозг или что-то очень на него похожее, может думать. Так, если мы можем создать машину, познавательная архитектура которой, подобна нашей собственной, с точки зрения всех сложных нервных связей и процессов, тогда Серл признал бы, что она смогла бы думать. Но пока мы рассматриваем цифровые ЭВМ, с которыми мы знакомы, он отрицает эту возможность.
Вероятно, для Вас не сюрприз, что не все соглашаются с Сер-лом в этом. Фактически, чем больше Вы узнаете о философии, тем больше Вы будете видеть, что серьезные возражения поднимаются против почти каждого интересного философского аргумента. Здесь мы рассмотрим только один вид ответа, который сам Серл называет Системным. Ранее мы согласились, что Кенни не понимает китайский язык, а отвечал он просто в силу своих способностей управлять китайскими иероглифами, согласно своду правил из словаря. Но почему мы спрашиваем, понимает ли Кенни китайский язык? Разве вопрос не в том, понимает ли вся система – состоящая из Кенни, комнаты, словаря и оборудования для коммуникаций – китайский язык? Вы испытываете желание сказать: «нет». Раз Кенни не знает китайского и работает с помощью других неодушевленных предметов, делая свое дело? В ответ, критик Серла мог бы указать, что у нас, на самом деле, есть только очень приблизительное понимание того, как получается, что человеческой нервной системе удается дать начало размышлению, значит – мы не должны быть слишком скептичными к некоторой другой системе, которая не может осуществить то же самое.
У Полотенчика есть разум?
И Алан Туринг и Джон Серл были обеспокоены вопросом того, может ли у машины, например, компьютера, быть разум. Мы видели, что каждый из них предложил метод для того, чтобы ответить на этот вопрос. Но, сосредоточившись на методе, мы перешли от вопроса может ли у машины быть разум, к вопросу как мы можем узнать, что у машины есть разум. Первый – метафизический вопрос, поскольку это касается природы вещей, в то время как второй – эпистемологический вопрос, что означает (как Вы должны уже знать), касающийся природы того, как мы познаем вещи. Мы же хотим знать, имеет ли машина или может ли иметь разум.
Но откуда мы узнаем, есть ли у чего-нибудь разум или нет? Это, оказывается, удивительно хитрый вопрос, в частности из-за того, что известно как проблема других разумов. Это – сложная проблема, но ей можно дать одно простое объяснение. Стэн знает, что у него есть разум. Откуда? Хорошо, во-первых, в некотором смысле, он сам ощущает свой разум. Вы же не думаете, что у него нет разума (то же самое – сказать, будто у него не темные волосы)? Если Стэн знает хоть что-нибудь вообще, то он знает, что является обладателем интеллекта. П'нятненько? Теперь, откуда Стэн знает, что у Кайла есть разум? Не таким же образом, правильно? У Стэна нет непосредственного доступа к разуму Кайла, как к своему собственному, если, конечно, в каком-нибудь будущем эпизоде он не предоставит фактов владения телепатией. Фактически, мы можем подумать, что Стэн не может знать наверняка, что у Кайл есть разум, так как он может вывести, что у Кайла есть разум, исключительно из наблюдения за поведением друга? И поведение Кайла дает Стэну лучшие свидетельств того, что он – разумен, в отличие от компьютера, участвующего в тесте Туринга. Но так как мы все уверены, что у маленьких мальчиков есть мозги, и прежде, чем нас загнали в угол философией, давайте обратимся к примеру чего-то, чей умственный статус рассматриваем.
Помните Полотенчика, «умное полотенце», которое может ощутить, насколько ты влажный и приспосабливается соответственно? Полотенчик появляется всякий раз, когда мальчики говорят о воде, а после появления, он неизменно говорит вкрадчивым голоском: «не забудьте взять полотенце!» Печально известен также вопросом: «Пыхнуть хотите?» Этих слов, также как большей части диалогов Полотенчика, конечно, недостаточно, чтобы убедить нас, что он – разумное полотенце, а не просто более сложная (и более тревожащая) версия мягкой игрушки, запрограммированной на несколько высказываний. Что могло бы убедить нас, что Полотенчик – больше, чем игрушка? Если мы хотим знать, есть ли у Полотенчика разум, что мы должны делать? Что мы должны искать?
Во-первых, чтобы подчеркнуть трудность этой задачи, предположите, что Полотенчик говорит, но не делает ничего вообще. Предположите, что он ведет себя, скорее как обычное полотенце. Мы можем знать, что у этого обычного полотенца нет разума? Можно подумать, что нет. Однако, это весьма спорно, так как успешное прохождение теста Туринга – не гарантирует присутствия разума, также как провал в тесте Туринга вовсе не доказывает отсутствия мышления. Находящийся в Комнате 3 может быть разумным, но неспособным общаться с нами, или, возможно, его просто не заботит наш интерес, как ни одного из нас не волнует мысль о том, не вынашивают ли наши полотенца противных замыслов о нас, пока мы энергично вытираем об них руки. Трудно объяснить, почему так получается, отчего мы знаем наверняка, что простые вещи испытывают недостаток разума. Если весь этот разговор о полотенцах кажется Вам глупым, пеняйте на Трэя и Мэтта. А затем предположите, что мы столкнулись с новым видом, обитающим глубоко в океане или на другой планете. Если они не общаются с нами, или, не делают вообще ничего, как мы можем убедиться, что они не думают? Как?
Вернемся к проблеме того, как установить, что у Полотенчика действительно есть разум. Для начала, мы могли бы задаться вопросом о его словарном запасе и живом отклике на вопросы. Если он говорит только, «не забывайте взять полотенце!» и «Пыхнуть хотите?» или если он говорит вещи, которые, кажется, не отвечают на то, что мы спрашивали, то мы, вероятно, можем думать о нем не как о человеке с разумом, а как о, своего рода, устройстве. Это должно более или менее следовать рассуждениям Туринга. Что еще мы могли бы сделать? Какие другие особенности характеризуют разум, которые мы могли бы попытаться обнаружить в Полотенчике? Список таких параметров – довольно длинен и содержит взаимосвязанные особенности, вроде рациональности, сознания, доброй воли, автономии, эмоций, творческого потенциала и духа. И Полотенчик, действительно, кажется, проявляет некоторые из этих вещей, например, он бросает вызов своей программе, отказавшись пыхнуть или расстроившись, когда Кайл отнимает последний косяк. Но общая проблема здесь состоит в том, что, если даже я знаю, как и отчего получается, что у меня есть одна из этих особенностей, я не могу быть абсолютно уверен, что у других людей есть такие же – трудно понять, как я могу использовать эти знания, чтобы уладить проблему с Полотенчиком.
Ни за что! Машине это просто не под силу!
Для каждой особенности, которую мы могли бы использовать в определении наличия у чего-либо разума, мы можем найти некий аргумент, доказывающий, что машина просто не может обладать рассматриваемой особенностью. Таким образом, основой любого числа возражений на возможность создания искусственного интеллекта станет давнее убеждение, что машина, просто не может делать определенных вещей, которые могут делать люди. Рассмотрим, для примера, как известный французский философ Рене Декарт (1596–1650) думал об экспериментах с машинами, которые выглядят и действуют почти как мы. В своей книге «Рассуждение о механизме» Декарт говорит, что у нас есть два определенных способа доказать, что машины – действительно не люди:
Во-первых, они никогда не смогут использовать все слова или комбинировать жесты, как делаем мы, чтобы донести наши мысли до других. Мы можем, конечно, понимать машины, построенные специально, чтобы произносить слова и даже речи, которые могут использовать жесты и даже мимику (например, если Вы киваете снизу вверх – это означает вопрос, если Вы киваете сверху вниз – подтверждение, и так далее). Но нет такой машины, что может производить различные смешения слов, чтобы дать соответствующий ответ на сказанное в его присутствии, в отличие от самого унылого человека.
Главное из того, что говорил Декарт – машина, никогда не сможет пройти тест Туринга. Машина просто не в состоянии поддерживать беседу с нами. Но, в то время как не все условия Туринга были выполнены, все же мы видели достаточно фактов, чтобы сомневаться относительно заявления Декарта. Давайте исследуем его второе соображение:
Во-вторых, даже притом, что машины могли бы сделать некоторые вещи, так же как мы или, возможно, даже лучше, они неизбежно потерпели бы неудачу в других начинаниях, так как действовали бы не через понимание, но только от расположения их органов. Тогда как разум – всеобщее орудие, которое может использоваться во всех ситуациях, эти органы нуждаются в некотором специфическом расположении для каждого специфического действия; следовательно – для всех практических целей машина не может иметь достаточно различных органов, чтобы заставить их действовать во всех непредвиденных обстоятельствах жизненного пути, которым мы идем, под влиянием разума.
Так, мы могли бы построить машины, которые могут действовать как мы сами, только в некоторых ограниченных отношениях, машина не может участвовать в полном диапазоне человеческих действий, потому что испытывает недостаток в разуме, который является «всеобщим орудием», используемым во взаимодействиях «со всеми непредвиденными обстоятельствами жизни».
Заметьте, очевидное допущение Декарта, что у машины, которая оборудована, чтобы делать определенную работу, в силу размещения ее частей (органов), не имеет достаточных оснований. Оно подобно заявлению Серла, что у цифровой ЭВМ не может быть разума, но это в более широком смысле. Декарт настаивает, что никакая материальная структура, включая не только построенные машины, но также и биологические «машины», такие как мозг, не могут обладать разумом. Это – результат представлений Декарта о двойственности вещества, веры в то, что люди состоят из двух различных материй: невещественного разума или души и материального тела (которое, конечно, включает мозг). Если Вы – дуалист (верите в святую Троицу), то Вы, весьма вероятно, думаете, что независимо от того, как бы тщательно Вы не организовали материальные части, Вы никогда не сможете построить разум, поскольку разум и материя – различные виды сущностей. Как выразился Декарт несколькими строками ниже: «рациональная душа не может быть выделена из потенциальной возможности материи, но должна быть создана специально». Так же мыслил и Готфрид Вильгельм Лейбниц (1646–1716) – один из философских преемников Декарта, предполагавший, что, если бы мы захотели вообразить интеллектуальную машину, мы должны были бы пойти на завод. Но мы ничего не нашли бы там кроме винтиков, шестерен и других частей, перемещающих друг друга. Так где мы нашли бы что-нибудь, что могло бы думать, чувствовать или понимать? Нигде, говорит Лейбниц. Ни у какого материала не может быть разума.