Текст книги "Бог, человек, животное, машина. Технология, метафора и поиск смысла (ЛП)"
Автор книги: Meghan O'Gieblyn
Жанр:
Философия
сообщить о нарушении
Текущая страница: 12 (всего у книги 16 страниц)
Оглядываясь назад, неудивительно, что я записалась на курсы этих профессоров, как только представилась возможность. Большинство женщин в школе не воспринимались всерьез как богословы – предполагалось, что мы пришли туда, чтобы найти мужей, – и я все еще находилась под впечатлением, что могу освободить себя от неактуальности, освоив самые сложные и неприятные доктрины. То, что мои мотивы изучения богословия были скорее интеллектуальными амбициями, чем духовными устремлениями, – это правда, которую я еще не признавала в себе. И чем больше я думал об этом, тем труднее было поверить в понятие предопределения, которое казалось логическим следствием предвидения. Если Бог действительно всеведущ и всемогущ, то его неспособность обеспечить спасение каждого человека должна быть в каком-то смысле выбором. Но для истинных кальвинистов этого было недостаточно. Кальвин верил в «двойное предопределение» – доктрину, которая утверждала, что Бог не только не позаботился о спасении проклятых, но и активно осуждал их. И это, утверждали кальвинисты, тоже подтверждается Писанием. Как еще можно понять стих из 1-го послания Петра, утверждающий, что неверующие «не повинуются слову, как им и суждено», или тот факт, что Бог любил Иакова и ненавидел Исава, когда близнецы были еще в утробе матери?
Конечно, это лишь одно из толкований этих отрывков, хотя нас убеждали, что это вовсе не толкование. Наши профессора не уставали подчеркивать прозрачность Писания. Кальвин утверждал, что Божье откровение настолько совершенно, что "не следует подвергать его доказательствам и рассуждениям". Мы ничего не можем узнать о Боге с помощью нашего интеллекта, только через откровение, а само откровение было более или менее простым. В какой-то степени это делало излишней нашу работу в качестве теологов, поскольку экзегеза рисковала запятнать священный текст. Нас учили подходу Кальвина к герменевтике: brevitas et facilitas, "краткость и простота". Чем длиннее экзегеза, тем больше вероятность того, что она будет испорчена человеческими предубеждениями. Некоторые профессора придерживались более радикального подхода Лютера: Scriptura sui ipsius interpres, или "Текст толкует сам себя".
Все оставшиеся у меня возражения против реформатского богословия были подавлены подозрением, что они корыстны и созданы культурой. Мой профессор герменевтики часто вступал в красочную полемику о том, как современный либерализм промыл нам мозги, чтобы мы возненавидели любую форму абсолютного авторитета. Его любимым козлом отпущения был «терапевтический деизм», неглубокая и характерная для Америки идеология, которая была ответственна за распространение Христа-цветка, мессии, который был дезинфицирован, девитализирован и – это само собой разумеется, но тем не менее было сказано – феминизирован. Мы на процветающем постмодернистском Западе создали Бога по своему образу и подобию, сказал он. Нам нужен был Бог, который присматривал бы за нашими близкими и направлял нас к удобным местам для парковки в торговом центре, божество, которое помогало бы нам жить наилучшей жизнью и помнить о своем духе. Короче говоря, нам нужен был потребительский опыт. Столкнувшись с загадкой, мы требовали объяснений. Когда нам предлагали спасение, мы требовали пользовательского соглашения. Столкнувшись с божественным правосудием, мы ныли о справедливости и грозились написать в Better Business Bureau. Но Божья воля вечна, и Ему не нужно объяснять Себя. «Ибо как небо выше земли, – говорит Господь, – так и пути Мои выше путей ваших и мысли Мои выше мыслей ваших».
Правильной реакцией на доктрину о предопределении была благодарность – благодарность Богу за то, что ты оказался в числе избранных. Но я обнаружил, что не могу испытывать благодарность за свое спасение, когда миллиарды других людей не удостоились такой же привилегии. Я подумывал о том, чтобы присоединиться к миссионерской работе, и это богословие, казалось, делало весь проект всемирного благовестия неактуальным. Зачем распространять Евангелие, если судьба каждого человека уже предрешена? Не делалось исключений и для людей, которые никогда не слышали имени Христа. Кальвин утверждал, что такие люди "не имеют оправдания". Они тоже попадут в ад, хотя им никогда не давали возможности уверовать. Однажды, когда я упомянул о своем недовольстве этой доктриной одному из студентов, старшекурснику, принадлежавшему к ближнему кругу, меня заверили, что это обычные камни преткновения – по его словам, он тоже поначалу находил теологию непривлекательной, – и велели прочитать Римлянам 9. Когда я прочитал этот отрывок позже тем же вечером, то обнаружил, что все мои претензии были изложены в этой главе. Павел рассматривает аргумент о том, что Бог не вправе наказывать тех, кого Он предопределил к неверию. "Что же мы скажем? Есть ли несправедливость со стороны Бога?" Его ответ на этот риторический вопрос – громоподобное эхо заключения Иова: "Итак, Он милует, кого хочет, и ожесточает сердце, кого хочет... Но кто ты такой, человек, чтобы отвечать Богу?"
Божественная справедливость была непостижима – или, по словам Лютера, «совершенно чужда нам». Мы не могли подвести ее под стандарты земной справедливости, потому что она была намного выше человеческого понимания. Но если справедливость непостижима для тех, кого она касается, можно ли назвать ее справедливой? Хотя у меня еще не было языка, чтобы сформулировать это, больше всего в богословии я боялся волюнтаризма – представления о том, что Бог существует в вечном состоянии исключения или живет в каком-то высшем царстве, где вся система человеческой морали рушится. Одним из любимых стихов Кальвина был Псалом 115:3: «Бог, живущий на небесах, делает все, что Ему угодно». Я всегда считал, что Бог повелевает нам любить друг друга, потому что любовь имеет внутреннюю ценность – подобно тому, как Сократ в платоновском «Эвтифро» утверждает, что боги любят благочестие, потому что оно хорошо, а не потому, что благочестие хорошо только потому, что боги его любят. Но Кальвин и Лютер, похоже, считали, что благость Бога зиждется не более чем на гоббсовском правиле «могущество делает право».
Именно Книга Иова окончательно поставила меня на грань сомнений. Эту книгу часто хвалят за ее литературные качества, но когда вас заставляют читать ее буквально, трудно не заметить ее фундаментальную жестокость. Бог обрушивает на Иова все несчастья: Воры крадут его скот и казнят слуг. Буря обрушивает крышу дома, где пировали его дети, и убивает их всех. Когда Иов все еще скорбит, Бог вызывает у него ужасные нарывы по всей коже. Друзья Иова настаивают на том, что он совершил нечто, заслуживающее такого наказания – правосудие Бога совершенно, говорят они, он не совершает ошибок, – но Иов утверждает, что он невиновен. Гуманист во мне не мог не видеть в нем героя. На протяжении всей кровавой каторги Ветхого Завета он один задает вопрос, который кажется очевидным современному читателю: Какова цель Бога? Является ли его воля истинно доброй? Действительно ли справедливо его правосудие? Иов берет на себя роль прокурора, требуя, чтобы Бог ответил за себя. Бог послушно предстает перед судом, но лишь для того, чтобы унизить Иова демонстрацией божественного превосходства: Где ты был, когда я закладывал основание земли? гремит он, а затем задает целый ряд вопросов, на которые не может ответить ни один человек. Знаешь ли ты время, когда рожают горные козы? Входил ли ты в хранилища снега? Входили ли вы в морские источники или ходили ли по глубинам? Вопросы продолжаются и продолжаются, рисуя огромную и причудливую вселенную, управляемую законами, которые далеко не подвластны человеческому пониманию. Иов настолько ошеломлен, что, кажется, на мгновение сомневается в собственной невиновности и, возможно, в своей способности рассуждать. «Поэтому я объявил то, чего не понимал», – говорит он, – «вещи слишком удивительные для меня, которых я не знал».
Но все это было явной ложью. Причина его несчастий не была непостижимой. Она содержится в предисловии к книге, написанном на чистом английском языке. Сатана поспорил, что Иов откажется от своей веры, если будет достаточно сильно страдать, и Бог, будучи хорошим спортсменом, принял ставку. Именно этому Богу – божеству, готовому играть в игры со своими подданными, казалось бы, ради собственного развлечения, – Кальвин настаивал, что мы должны повиноваться, «не спрашивая причины». В какой-то момент поневоле задумываешься, может ли разум, столь далекий от человеческой природы, действительно заботиться о наших интересах.
-
В 1964 году Норберт Винер опубликовал "Бог и Голем, Инк.", тонкую и чрезвычайно странную книгу о том, как новые технологии поднимают вопросы, которые по сути являются религиозными. Один из таких вопросов возник в области машинного обучения, того вида ИИ, который "учится или, как кажется, учится", как выразился Винер, на основе своего опыта в мире. Винер писал в то время, когда компьютеры только начинали играть в игры против своих создателей-людей. Большинство этих машин играли в шашки, а некоторые были обучены игре в шахматы, хотя и не очень хорошо. Но уже тогда Винер видел проблески того, чем эти машины могут стать в один прекрасный день. Один из таких компьютеров, играющих в шашки, известный как машина Сэмюэля, на короткое время смог победить своего изобретателя. В конце концов инженер разгадал стратегию компьютера и смог вернуть себе преимущество, но это поставило вопрос о том, может ли машина перехитрить инженера, который ее создал. По мнению Винера, это был неявный теологический вопрос. В иудео-христианской традиции принято считать, что создатель всегда сложнее и могущественнее своего творения.
Но Винер отметил, что из этого правила есть исключения – одно из них произошло в Книге Иова. Он имел в виду предисловие к книге, где Бог заключает с сатаной пари за душу Иова. «Согласно ортодоксальным иудейским и христианским взглядам, дьявол – одно из созданий Бога...» пишет Винер. «Такая игра на первый взгляд кажется жалким неравным состязанием. Играть в игру со всемогущим и всеведущим Богом – это поступок глупца». Но он утверждает, что поражение Сатаны ни в коем случае не было неизбежным или предопределенным.
Конфликт между Богом и Дьяволом – это реальный конфликт, и Бог не так уж и всемогущ. Он фактически вовлечен в конфликт со своим созданием, в котором вполне может проиграть. И все же его творение создано им по его собственной свободной воле и, казалось бы, должно получать все свои возможности действия от самого Бога. Может ли Бог играть со своим созданием в значимую игру? Может ли любой творец, даже ограниченный, играть в значительную игру со своим собственным созданием?
Для Винера ответ был положительным – по крайней мере, когда речь шла о машинном обучении. Эти модели были запрограммированы не на оптимальные ходы, а на очень ограниченное понимание игры и ее правил. Машина делала различные ходы без долгих раздумий, а затем записывала результат каждого из них в свою память. Каждому из этих прошлых решений присваивался определенный вес в зависимости от его полезности – способствовало ли оно победе, – и этот "опыт" предыдущих результатов использовался для постоянного совершенствования стратегии. Другими словами, он учился во многом так же, как и люди, – методом проб и ошибок. В некоторых случаях, отметил Винер, эти решения машины казались интуитивными и даже демонстрировали "сверхъестественную ловкость". Со временем стало очевидно, что машина развила новые способности, которые не могли быть объяснены ее конструкцией. "Создавая машины, с которыми он играет в игры, изобретатель присваивает себе функцию ограниченного творца..." заключил Винер. "Это особенно верно в случае игровых машин, которые учатся на опыте". Алан Тьюринг высказал практически ту же мысль в 1951 году: "Представляется вероятным, что, начав использовать метод машинного мышления, он не займет много времени, чтобы превзойти наши слабые способности".
В 1994 году компьютерная программа обыграла чемпиона мира по шашкам. Два года спустя Deep Blue обыграла Гарри Каспарова в шахматы. В 2011 году компьютер Watson от IBM выиграл в «Jeopardy!», практически уничтожив двух многолетних чемпионов шоу. Но ни одна из этих побед не подготовила никого к тому, что произошло в 2016 году в Сеуле. Той весной на шестом этаже отеля Four Seasons собрались сотни людей, чтобы посмотреть, как Ли Седоль, один из ведущих чемпионов мира по игре в го, играет с AlphaGo, алгоритмом, созданным компанией DeepMind, принадлежащей Google. Го – древняя китайская настольная игра, которая в геометрической прогрессии сложнее шахмат: количество возможных ходов превышает число атомов во Вселенной. В середине матча AlphaGo сделал настолько странный ход, что все присутствующие в зале решили, что это ошибка. «Это не человеческий ход», – сказал один из бывших чемпионов. «Я никогда не видел, чтобы человек делал такой ход». В итоге ход оказался решающим. Компьютер выиграл эту партию, затем следующую, обеспечив себе победу в матче из пяти партий.
AlphaGo – это разновидность глубокого обучения, особенно мощного вида машинного обучения, который с тех пор стал предпочтительным средством для получения прогнозов из огромного количества необработанных данных нашей эпохи. Кредитные аудиторы используют его, чтобы решить, выдавать или не выдавать кредит. ЦРУ использует его для прогнозирования социальных волнений. Эти системы можно найти и в программах безопасности аэропортов, где они используются для распознавания лиц на отсканированных фотографиях паспортов, и в больницах, где они стали очень хорошо диагностировать рак, и на Instagram, где они предупреждают пользователей о том, что что-то, что они собираются опубликовать, может быть оскорбительным. Оказывается, многое в жизни можно "геймифицировать", свести к ряду простых правил, которые позволяют этим машинам строить собственные модели мира – модели, которые оказываются до жути точными. В годы, последовавшие за матчем AlphaGo, революция в машинном обучении и, в частности, глубокое обучение, которое превозносили за его "неоправданную эффективность", казались безграничным энтузиазмом. К 2017 году эти алгоритмы превзошли людей-рентгенологов в выявлении рака легких, оказались быстрее и эффективнее людей в распознавании изображений на фотографиях и сочиняли барочные хоралы настолько убедительно, что профессиональные музыканты ошибочно приписывали их Баху.
Эта технология также вызывала опасения. Многие формы машинного обучения считаются технологиями «черного ящика». Они состоят из множества скрытых слоев нейронных сетей, и нет никакой возможности определить, какую модель они строят на основе своего опыта. В процессе обучения они создают внутренние узлы, представляющие абстрактные признаки или взаимосвязи, которые они обнаруживают, но ни один из которых не соответствует каким-либо терминам в человеческом языке (даже алгоритмы, обладающие сверхъестественной способностью распознавать, скажем, собак на фотографии, понятия не имеют, что такое собака на самом деле; они просто улавливают закономерности в данных). Если бы вы распечатали все, что делают сети между входом и выходом, это было бы равносильно миллиардам арифметических операций – «объяснение», которое невозможно понять. Когда AlphaGo выиграла матч в Сеуле, даже ее создатель Дэвид Сильвер не смог объяснить логику неожиданного хода алгоритма. «Он обнаружил это сам, – сказал Сильвер, – в процессе самоанализа и анализа». Хотя предпринимались различные попытки расшифровать, как машины пришли к тому или иному выводу, технология, похоже, поддается объяснению не больше, чем человеческий мозг (профессор лаборатории искусственного интеллекта Uber назвал такие попытки «искусственной нейронаукой»). Как никакая другая технология, эти алгоритмы выполнили призыв Андерсона к объективному знанию ценой человеческого понимания. Чтобы получить превосходные знания, которыми обладают машины, мы должны отказаться от своего желания знать «почему» и принять их результаты как чистое откровение.
Винер почувствовал в машинном обучении нечто принципиально религиозное, но он, пожалуй, неправильно распределил роли в Книге Иова. Эти алгоритмы – не хитрый дьявол, который перехитрил своего создателя. Вместо этого они стали абсолютными властителями, требующими слепого подчинения. По мере того как эти технологии все больше интегрируются в сферу общественной жизни, многие люди оказываются в положении, подобном положению Иова: им отказывают в праве знать, почему им отказали в кредите, уволили с работы или определили вероятность развития рака. На самом деле трудно избежать сравнения с божественным правосудием, учитывая, что наша система правосудия превратилась в настоящую лабораторию экспериментов по машинному обучению. Хотя статистический анализ используется в полицейских департаментах с середины 1990-х годов, сейчас многие правоохранительные органы опираются на алгоритмы прогнозирования для выявления очагов преступности. Одна из таких систем, PredPol, утверждает, что она в два раза точнее, чем человеческие аналитики, предсказывает места совершения преступлений. Система опирается на данные о прошлых преступлениях и помещает на своих картах красные квадратики вокруг районов или отдельных городских кварталов, чтобы обозначить их как места повышенного риска. Как отмечает Джеки Ванг в своей книге «Карцеральный капитализм», маркетинговая литература PredPol, похоже, предполагает, что система практически ясновидящая. В ней приводятся анекдоты, в которых полицейские, отправляясь в места повышенного риска, обнаруживают преступников, совершающих преступление.
Сторонники этой технологии настаивают на том, что она не является реальным аналогом "Отчета о меньшинстве" (Minority Report), фильма 2002 года, в котором интуитивные люди, называемые прекогами, используются правоохранительными органами для предсказания преступлений, чтобы "преступник" был арестован до того, как он действительно совершит их. Медиа-стратег PredPol утверждает, что программное обеспечение – это не научная фантастика, а "научный факт", подчеркивая, что алгоритмы абсолютно нейтральны и объективны. На самом деле программное обеспечение часто преподносится как способ уменьшить расовую предвзятость в правоохранительных органах. Один из создателей PredPol утверждал, что, поскольку алгоритмы ориентируются на "объективные" факторы, такие как время, место и дата потенциальных преступлений, а не на демографические характеристики отдельных преступников, программное обеспечение "потенциально уменьшает любые предубеждения офицеров в отношении расы или социально-экономического статуса подозреваемых".
Аналогичные алгоритмы используются при вынесении приговоров, определяя степень угрозы для общества и риск побега обвиняемого перед вынесением приговора. Эти машины сканируют данные из картотеки обвиняемых, включая подозреваемое преступление, количество предыдущих арестов и место ареста (некоторые модели также учитывают место работы подозреваемого, знакомых и его кредитный рейтинг), затем сравнивают эти данные с сотнями и тысячами судимостей и присваивают обвиняемому балл риска, который используется для определения того, где он должен ожидать суда – дома или в тюрьме. Подобные алгоритмы впервые попали в заголовки национальных газет в 2017 году, во время суда над Эриком Лумисом, тридцатичетырехлетним мужчиной из Висконсина, чей тюремный приговор – шесть лет за уклонение от уплаты налогов – был частично основан на КОМПАСе, прогностической модели, определяющей вероятность рецидива преступлений. Во время судебного заседания судья сообщил Лумису, что по результатам оценки КОМПАС он был отнесен к группе высокого риска для общества. Лумис, естественно, поинтересовался, какие критерии использовались при вынесении приговора, но ему сообщили, что он не может оспорить решение алгоритма. В итоге его дело дошло до Верховного суда Висконсина, который вынес решение не в его пользу. Генеральный прокурор штата утверждал, что Лумис обладал теми же знаниями о своем деле, что и суд (судьи, по его словам, были в равной степени осведомлены о логике алгоритма), и заявлял, что Лумис «был волен подвергнуть сомнению оценку и объяснить ее возможные недостатки». Но это было довольно творческое понимание свободы. Лумис был волен подвергнуть алгоритм сомнению точно так же, как Иов был волен подвергнуть сомнению справедливость Иеговы.
Другой, более свежий случай произошел с Дарнеллом Гейтсом, жителем Филадельфии, который в 2020 году проходил испытательный срок после отбывания наказания в тюрьме. Он заметил, что частота его обязательных визитов к надзирателю меняется от месяца к месяцу, но ему никогда не говорили, что это происходит потому, что алгоритм постоянно оценивает степень его риска. Возможно, он никогда бы не узнал об этом, если бы журналист New York Times, освещавший эту технологию, не сообщил ему об этом. Гейтс был явно обеспокоен этим открытием. В интервью газете Times он, похоже, осознал теневую грань между предсказанием и решимостью – и невозможность перехитрить игру, в которой все ставки против вас. «Как он собирается понять меня, ведь он диктует мне все, что я должен делать?» – сказал он об алгоритме. «Как выиграть у компьютера, который создан для того, чтобы остановить вас? Как остановить то, что предопределяет вашу судьбу?»
Хотя эти непрозрачные технологии подвергаются нападкам со стороны организаций по защите гражданских прав, их защитники часто указывают на то, что человеческие суждения не более прозрачны. Спросите судью, как она пришла к тому или иному решению, и ее ответ будет не более достоверным, чем ответ алгоритма. Человеческий мозг – это тоже "черный ящик", – говорит Ричард Берк, профессор криминологии и статистики в Пенсильванском университете. Тот же вывод был сделан в статье, подготовленной корпорацией Rand, где отмечалось: "Мыслительные процессы судей – это (как и КОМПАС) черный ящик, который выдает непоследовательные решения, склонные к ошибкам". Эти аргументы часто приводят те, кто заинтересован в технологии, хотя их подкрепляет неврологический консенсус, согласно которому у нас нет "привилегированного доступа", как выражается Дэниел Деннетт, к нашему собственному мыслительному процессу. Логическим завершением "черного ящика" человеческого сознания является то, что доверять непрозрачной логике алгоритма теперь представляется столь же разумным, как и доверять собственному разуму.
Но эта защита поразительно уклончива и по другим причинам. Мы доверяем объяснениям других людей, потому что мы эволюционировали как вид, чтобы иметь схожие методы рассуждения. Даже если речь идет об интуиции или догадках, мы можем предположить, что они относятся к сфере человеческих мыслительных процессов. Машины, напротив, делают выводы, совершенно не похожие на человеческий разум – этот факт запомнился бывшему чемпиону по игре в го, который воскликнул о стратегии AlphaGo: «Это не человеческий ход». Многие исследователи в области глубокого обучения называют алгоритмы формой «инопланетного» интеллекта. Когда модели глубокого обучения учат играть в видеоигры, они придумывают хитроумные способы обмана, которые не приходят в голову человеку: используют ошибки в коде, позволяющие им набирать очки, или доводят противников до самоубийства. Когда Facebook научил две сети общаться, не уточняя, что разговор должен вестись на английском, алгоритмы придумали свой собственный язык. В 2003 году Ник Бостром предупредил, что между интеллектом и человеческими ценностями нет врожденной связи. Сверхразумная система может привести к катастрофическим последствиям, даже если у нее нейтральная цель и отсутствует самосознание. «Мы не можем легкомысленно полагать, – писал Бостром, – что сверхразум обязательно будет разделять какие-либо конечные ценности, стереотипно ассоциирующиеся с мудростью и интеллектуальным развитием человека: научное любопытство, благожелательное отношение к другим, духовное просвещение и созерцание, отказ от материального приобретения, вкус к изысканной культуре или к простым удовольствиям жизни, смирение и самоотверженность и так далее».
Однако среди приверженцев глубокого обучения именно причудливый интеллект является целью. «У нас уже есть люди, которые могут думать как люди», – говорит Янн ЛеКун, глава исследовательского подразделения Facebook по ИИ. «Возможно, ценность умных машин в том, что они совершенно чужды нам». Дэвид Уайнбергер также утверждает, что в случае с глубоким обучением «чужое» не означает «неправильное». «Когда дело доходит до понимания того, как обстоят дела, – пишет он, – машины могут быть ближе к истине, чем мы, люди, когда-либо могли бы быть». Многие специалисты в этой области не хотят делать технологию более прозрачной, даже если бы это было возможно. Согласно одной из теорий, чем меньше мы будем вмешиваться в алгоритмы, тем точнее будут результаты. Если среди технологической элиты и существует герменевтика, то это марка sola fide и sola scriptura, убежденность в том, что алгоритмические откровения совершенны и что любая интерпретация или вмешательство человека рискуют подорвать их авторитет. «Бог – это машина», – говорит исследователь Юре Лесковец, резюмируя консенсус в своей области. «Черный ящик» – это истина. Если он работает, значит, он работает. Мы даже не должны пытаться понять, что выдает машина".
Во время расцвета увлечения глубоким обучением трудно было прочитать статью об этих технологиях, не наткнувшись на религиозную метафору. "Подобно богам, эти математические модели были непрозрачны, их работа была невидима для всех, кроме высших жрецов в своей области: математиков и компьютерных ученых", – пишет специалист по изучению данных Кэти О'Нил, вспоминая появление этих алгоритмов. "Их вердикты, даже если они были ошибочными или вредными, не подлежали оспариванию или обжалованию". В своей книге "Homo Deus" Юваль Ной Харари проводит практически ту же аналогию: "Как, согласно христианству, мы, люди, не можем понять Бога и Его замысел, так и датаизм заявляет, что человеческий мозг не в состоянии постичь новые главные алгоритмы". Термин "главный алгоритм" – это аллюзия на работу Педро Домингоса, одного из ведущих экспертов в области машинного обучения, который утверждает, что эти алгоритмы неизбежно превратятся в единую систему совершенного понимания – своего рода оракул, к которому мы сможем обращаться практически по любому поводу, что приведет к завершению видения Бридла о новой темной эпохе. В своей книге "Мастер-алгоритм" Домингос отвергает опасения по поводу этой технологии, апеллируя к нашему зачарованному прошлому. "По сути, мы всегда жили в мире, который понимали лишь отчасти", – пишет он. "Вопреки тому, во что нам хочется верить сегодня, люди довольно легко подчиняются другим, а любой достаточно развитый ИИ неотличим от Бога. Люди не обязательно будут возражать против того, чтобы получать приказы от какого-то огромного оракульного компьютера".
-
«ИИ начался с древнего желания выковать богов», – пишет Памела Маккордак в своей книге 1979 года «Машины, которые думают» – отголосок афоризма Вольтера о том, что если бы Бога не существовало, то человечество сочло бы необходимым его изобрести. Конечно, мы всегда изобретали и изобретали Бога, но не через науку, а через теологию, и божественность каждой эпохи раскрывает потребности и желания ее создателей-людей. Несмотря на распространение религиозных метафор вокруг этих алгоритмов, теология – если ее можно так назвать – их создателей часто определяется неверно. Доктрина, развивающаяся вокруг ИИ, на самом деле не является пережитком Темных веков. Безграничное инопланетное божество, которое имеют в виду критики технологий, – это Бог Кальвина и Лютера, вполне современная сущность. Вопрос в том, как получилось, что мы решили воскресить этого Бога из мертвых, и почему спустя столько лет он все еще кажется нам привлекательным?
Термин "Темные века" в самом строгом смысле описывает отсутствие информации об этом периоде (это была, безусловно, эпоха, которая дала очень мало данных), хотя его часто понимают как обратную сторону Просвещения, кивая на популярное предположение, что средневековое христианство было враждебно по отношению к культивированию знаний. На самом деле философы-схоласты в основном оптимистично оценивали потенциал человеческого разума, о чем свидетельствуют многочисленные логические доказательства существования Бога. Большая часть теологии того периода была замешана на платонизме и опиралась на идею о том, что и Бог, и мир природы постижимы для человека. Считалось, что идеи соответствуют вечным, трансцендентным реальностям – "универсалиям", которые разум может воспринять через lumens naturalis, свет разума, отражающий рациональный порядок космоса. Для Аквинского Книга Иова была не притчей об ограниченности человеческого разума, а иллюстрацией того, как человечество постепенно прозревает к конечной истине.
Ситуация начала меняться в конце Средневековья. Как отмечает Ганс Блюменберг, послевоенный немецкий философ, в своей книге 1966 года «Легитимность современной эпохи» – одном из главных текстов разочарования – примерно в тринадцатом веке богословы начали сомневаться в том, что мир мог быть создан для блага человека. Аквинский верил, что космос содержит все возможное, что наш мир – не просто лучший, а единственный из всех возможных миров. Но вскоре после его смерти эта точка зрения подверглась критике за ограничение Бога. Некоторые богословы утверждали, что Бог мог создать множество миров, каждый со своими законами. Как и все теории мультивселенных, этот мысленный эксперимент привел к тому, что наш мир стал казаться произвольным, одним из множества возможных – хотя, в отличие от современной физики, которая ценит мультивселенную за ее способность доказать, что наша Вселенная – продукт случайности, средневековые богословы пытались защитить всемогущество Бога. Они не верили, что Бог действительно создал другие миры, просто он мог это сделать. Этот аргумент должен был продемонстрировать, что не существует универсальных, вечных законов, которые были бы выше самого Бога и могли бы ограничить его в акте творения.
Этот довольно узкий теологический спор в конечном итоге помог искоренить из западной философии идею универсалий – представление о том, что понятия в сознании соответствуют вечным истинам, как платоновские формы, – и преуспел в том, чтобы сделать мир, по выражению Блюменберга, «радикально контингентным». Доктрину, возникшую в результате этих дебатов, часто называют «номинализмом». Для номиналиста «справедливость» и «человечность» – это просто названия, которые мы даем общим чертам, которые мы воспринимаем между объектами, а не универсальные истины. (Джон Стюарт Милль однажды описал номинализм как веру в то, что «нет ничего общего, кроме имен»). Эта доктрина часто ассоциируется с Уильямом Оккамом, английским монахом-францисканцем XIV века, который учил, что Бог радикально отличается от своего творения и не ограничен ни моралью, ни рациональными законами. «Причина в том, что Он так пожелал, и никакой другой причины ожидать не приходится», – писал он. Из этой логики следовало, что человеческий разум – это конструкция, характерная только для нашего вида, а не отражение более широкого космического порядка. Созерцание и самоанализ стали ненадежным средством достижения истины: разум превратился в зеркальный зал, чье отношение к внешнему миру вдруг стало неопределенным.








