Текст книги "Эволюция разума"
Автор книги: Рэймонд Курцвейл
Жанр:
Биология
сообщить о нарушении
Текущая страница: 19 (всего у книги 20 страниц)
Динамическая оперативная память (DRAM) в битах на доллар.
Но даже «неверные» предсказания не были полностью ошибочными. Например, я расценил мое предсказание о появлении самодвижущихся машин как неверное, хотя Google уже продемонстрировал использование самодвижущихся машин, а в октябре 2010 г. четыре электрических грузовика без водителя успешно преодолели путь в 13 тыс. км от Италии до Китая[167]167
Without driver or map, vans go from Italy to China, The Sydney Morning Herald, October 29, 2010; http://www.smh.com.au/technology/technology-news/without-driver-or-map-vans-go-from-italy-to-china-20101029–176ja.html.
[Закрыть]. Эксперты в данной области считают, что эта технология станет рутинной к концу текущего десятилетия.
Память с произвольным доступом (RAM) в битах на доллар.
Экспоненциальный рост возможностей вычислительных и коммуникационных технологий способствует реализации проекта, направленного на понимание и воспроизведение методов функционирования головного мозга человека. Это не единый организованный проект, а скорее целая группа разнообразных проектов, в рамках которых решаются такие задачи, как моделирование мозга на самых разных уровнях – от отдельных нейронов до всей коры, составление карты коннектома (контактов между нейронами), симуляция функции отдельных участков мозга и т. д.
Средняя цена транзистора в долларах США.
И все эти направления развиваются по экспоненциальному закону. Многие приведенные выше примеры совсем новые. Например, описанное в четвертой главе исследование Ван Видена, показавшее упорядоченную и «простую» (как пишут авторы) сеть контактов в новой коре, было проделано лишь в 2012 г.
Исследователи признают, что их выводы (и изображения) удалось получить только с помощью новейших технологий высокого разрешения. Временное и пространственное разрешение изображений, получаемых при сканировании мозга, тоже совершенствуется по экспоненциальному закону. Сейчас существуют разные способы сканирования мозга – от полностью неинвазивных методов, которые можно использовать для изучения человеческого мозга, до более инвазивных и деструктивных, применяемых на животных моделях.
Метод магнитно-резонансной томографии (МРТ) – неинвазивный метод получения изображений с достаточно высоким временным разрешением – постоянно совершенствуется в соответствии с тем же экспоненциальным законом; на сегодня пространственное разрешение метода составляет около 100 мкм.
Диаграмма Эйлера-Венна для методов изучения головного мозга.
Деструктивные методы получения изображений, которые используются для анализа коннектомов животных, тоже развиваются по экспоненциальному закону. Современные методы имеют разрешение порядка 4 нм, что позволяет визуализировать индивидуальные контакты.
Устройства для визуализации головного мозга. 2ДГ – 2-Дезоксиглюкоза.
Технологии, связанные с созданием искусственного интеллекта, такие как системы распознавания разговорной речи, не обязательно должны следовать теоретическим принципам функционирования мозга. Их задача – достичь максимальной эффективности. Поэтому важно отметить, что лучшие из этих технологии соответствуют принципам, которые я описал в этой книге: это самоорганизующиеся системы иерархических модулей, способные к инвариантному и самоассоциативному распознаванию образов, обладающие избыточностью и восходящей и нисходящей предсказательной способностью. Возможности таких систем тоже изменяются экспоненциально, как показывает пример Ватсона.
Пространственное разрешение метода МРТ в микронах.
Главная цель исследований функций мозга заключается в расширении наших технических возможностей создания разумных систем. Многие исследователи в области ИИ, вероятно, недооценивают то глубокое влияние, которое оказали на их работу накопленные ранее знания о принципах работы мозга.
Пространственное разрешение деструктивных методов визуализации.
Понимание механизмов работы мозга также помогает исправлять различные функциональные нарушения. Однако у проекта по обратному проектированию мозга есть и еще одна важная цель – помочь нам понять, кто мы такие.
Глава одиннадцатая
Критика
Если машина окажется неотличима от человека, нам придется относиться к ней с тем же уважением, что и к человеку, – нам придется признать, что у нее есть разум.
Наиболее важным источником возражений против моего тезиса о законе ускорения отдачи и его применения к расширению человеческого разума является линейная природа человеческого мышления. Как я уже рассказывал, все сотни миллионов распознающих модулей новой коры обрабатывают информацию одновременно. Один из результатов такой организации коры заключается в том, что будущее мы можем предвидеть только линейным образом, и поэтому критики применяют линейный интуитивный подход к оценке экспоненциальных явлений.
Подобные возражения я называю «критикой из-за недоверия»: экспоненциальные прогнозы кажутся невероятными по той причине, что наша предсказательная способность имеет линейный характер. Один из создателей компании Microsoft Пол Аллен (род. в 1953 г.) и его коллега Марк Гривс недавно озвучили некоторые из подобных возражений в статье «Сингулярность еще не близка», опубликованной в журнале Technology Review[169]169
Paul G. Allen and Mark Graves, Paul Allen: The Singularity Isn’t Near, Technology Review Magazine, October 12, 2011; http://www.technologyreview.com/blog/guest/27206/.
[Закрыть]. Хотя здесь я буду отвечать именно на возражения Аллена, они являются типичными для критиков тех тезисов, которые я выдвигаю в отношении будущих исследований в области мозга. В заголовке своей статьи Аллен апеллирует к моей книге «Сингулярность уже близка», однако цитирует он только статью, которую я написал в 2001 г. («Закон ускорения отдачи»). Более того, в его статье не признаются и не рассматриваются аргументы, действительно изложенные мной в книге. К сожалению, это часто происходит с критиками моих работ.
Когда в 1999 г. вышла книга «Эпоха духовных машин», а за ней в 2001 г. та статья, это вызвало несколько критических замечаний следующего толка: закону Мура приходит конец; возможности железа могут изменяться экспоненциально, но программное обеспечение отстает; мозг слишком сложен; в мозге слишком много такого, что нельзя воспроизвести с помощью компьютеров, и т. д. Книгу «Сингулярность уже близка» я написал в том числе для того, чтобы ответить на эти возражения.
Я не могу сказать, что Аллен и другие критики обязательно должны были поверить моим аргументам, но они, по крайней мере, могли ответить на мои рассуждения. Аллен пишет, что «закон ускорения отдачи (ЗУО)… не является физическим законом». Я же утверждаю, что большинство научных законов – не физические законы, а являются результатом проявлений множества событий на более примитивном уровне. Классический пример – законы термодинамики. Если рассмотреть математические закономерности в основе этих законов, мы увидим, что каждая частица ведет себя случайным образом, так что по определению мы не можем предсказать, где она окажется в следующий момент времени. Но при этом общие свойства газов вполне предсказуемы с большой степенью точности, в соответствии с законами термодинамики. И то же самое относится к закону ускорения отдачи: каждый технологический проект развивается непредсказуемым образом, но общая траектория, выраженная в терминах цены – производительности и емкости, тем не менее идет по совершенно предсказуемому закону.
Если бы компьютерные технологии развивались лишь усилиями нескольких ученых, прогресс этих технологий действительно был бы непредсказуем. Однако здесь функционирует большая динамическая система конкурирующих проектов, что определяет параметр цены – производительности (например, выраженный в объеме информации в секунду в расчете на один доллар). И процесс этот следует гладкой экспоненциальной зависимости, начиная с американской переписи населения 1890 г., о чем я писал в предыдущей главе. Хотя теоретические основы ЗУО подробно изложены в книге «Сингулярность уже близка», мной и другими исследователями проведено множество эмпирических наблюдений.
Аллен пишет: «Подобные „законы“ работают лишь до тех пор, пока не перестают работать». Однако здесь он путает отдельные парадигмы с общим направлением развития информационных технологий. Если проанализировать процесс создания радиоламп все более и более мелкого размера (одна из парадигм в рамках общего проекта развития компьютерных технологий в 1950-х гг.), мы действительно увидим, что процесс этот развивался до своего логического конца. Но когда конец приблизился, исследователи переключились на другие направления. Дальнейший экспоненциальный рост поддерживался за счет технологии транзисторов, и это привело к пятой парадигме (закону Мура) и последовательному сокращению размеров интегральных схем. Закону Мура постоянно предсказывают конец. Международный план по развитию полупроводниковой технологии (ITRS) предусматривает переход на 7-нм технологию в начале 2020-х гг.[170]170
Версия плана ITRS 2009 г.: ITRS 2011 Edition; http://www.itrs.net/Links/2011ITRS/Home2011.htm.
[Закрыть] На этом этапе ключевые элементы схем будут составлять в толщину 35 атомов углерода, и дальше сокращать их размер станет сложно. Однако компания Intel и другие производители схем уже обдумывают первые шаги шестой парадигмы (трехмерных вычислений), которая позволит поддержать экспоненциальные изменения параметров цены – производительности. По прогнозам компании Intel, трехмерные схемы станут главным направлением исследований на протяжении десятилетия; трехмерные транзисторы и 3D-память уже стали реальностью. Эта шестая парадигма будет поддерживать ЗУО в отношении цены – производительности компьютеров в последующие годы, пока компьютеры за тысячу долларов не станут в триллионы раз мощнее человеческого мозга[171]171
Ray Kurzweil, The Singularity Is Near, Viking, 2005 (глава 2).
[Закрыть]. (Кажется, мы сходимся с Алленом во мнении, что именно такой уровень вычислительной техники необходим для функциональной симуляции человеческого мозга.)[172]172
Комментарий 2 в статье «Сингулярность еще не близка» Пола Аллена и Марка Гривса звучит следующим образом: «Мы уже начинаем создавать компьютеры, которые необходимы нам для подобных симуляций функции мозга. Петафлопсные компьютеры (такие как BlueGene/P компании IBM, который был использован для создания Ватсона) теперь уже есть в продаже. Уже проектируются экзафлопсные суперкомпьютеры. Эти системы, возможно, будут достаточно мощными, чтобы симулировать возбуждение всех нейронов мозга, хотя пока это происходит во много раз медленнее, чем в настоящем мозге».
[Закрыть]
Далее Аллен приводит стандартный аргумент, заключающийся в том, что развитие программного обеспечения не успевает за экспоненциальным развитием компьютерного оборудования. В книге «Сингулярность уже близка» я подробно останавливался на этом вопросе и приводил разные методы оценки сложности и емкости программ, которые подтверждают-таки наличие экспоненциального роста[173]173
Ray Kurzweil, The Singularity Is Near, глава 9, с. 435–442.
[Закрыть]. В одном недавнем исследовании («Доклад президенту и Конгрессу относительно будущего цифровых технологий: исследования на федеральном уровне и развитие сетей и информационных технологий»), представленном Президентским экспертным советом по науке и технологии, говорится следующее.
«Еще более удивительным – и гораздо менее оцененным – фактом является то, что во многих областях повышение производительности за счет улучшения алгоритмов намного опережает значительное повышение производительности за счет ускорения работы процессоров. Используемые сегодня алгоритмы для распознавания речи, перевода разговорной речи, игры в шахматы и логистического планирования значительно эволюционировали за последние десять лет… Вот лишь один пример, приведенный профессором Мартином Грётшелем из Музея Конрада Цузе. Профессор Грётшель, эксперт в области оптимизации, замечает, что для решения задачи планирования в 1988 г. с помощью линейных алгоритмов и компьютеров того времени потребовалось бы 82 года. Через 15 лет, в 2003 г., ту же задачу можно было бы решить за одну минуту, что быстрее примерно в 43 млн раз. При этом примерно тысячекратное ускорение было бы достигнуто за счет повышения скорости процессоров, а фактор 43 тыс. объясняется усовершенствованием алгоритмов! Грётшель также отмечает 30 000-кратное улучшение алгоритмов смешанного целочисленного программирования в период между 1991 и 2008 гг. Создание и анализ алгоритмов, а также анализ вычислительной сложности задач являются важнейшими направлениями исследований в компьютерной области».
Обратите внимание, что упомянутое Грётшелем линейное программирование – тот математический метод, который используется для оптимального распределения ресурсов в таких иерархических системах памяти, как обсуждавшиеся выше иерархические скрытые модели Маркова. В книге «Сингулярность уже близка» я привел множество подобных примеров[174]174
Ray Kurzweil, The Singularity Is Near, глава 9.
[Закрыть].
Что касается искусственного интеллекта, Аллен, как и многие другие критики, не признают способностей Ватсона. Многие из этих критиков практически ничего о Ватсоне не знают, кроме того, что это некая компьютерная программа (хотя и действующая на 720 процессорах). Аллен пишет, что подобные Ватсону системы «остаются хрупкими, пределы их возможностей строго определены их внутренними установками и алгоритмами, они не могут обобщать и часто дают бессмысленные ответы в тех областях, которые выходят за рамки их специфической области знаний».
Прежде всего, такое же замечание можно сделать и в отношении людей. Я также замечу, что «специфические области знаний» Ватсона включают в себя всю информацию, содержащуюся в «Википедии», а также много других баз данных, что составляет весьма широкий спектр. Ватсон владеет большим объемом человеческих знаний и способен воспринимать различные формы речи, включая каламбуры, шутки и метафоры, относящиеся практически к любой области человеческой деятельности. Он не идеален, но и люди не идеальны, однако он достаточно хорош, чтобы обыгрывать лучших игроков в «Джеопарди!»
Аллен пишет, что Ватсон был собран учеными, объединившими свои специфические знания в узких областях. Но это неправда. Хотя некоторые знания Ватсона были запрограммированы напрямую, значительную часть информации он раздобыл сам, изучая документы на человеческом языке, например «Википедию». В этом заключается его главная сила, а также в его способности понимать сложно сформулированные вопросы викторины «Джеопарди!», но знания свои он получил сам, читая литературу.
Как я уже упоминал выше, многие критики Ватсона сходятся на том, что его функция основана на определении статистической вероятности, а не на «истинном» понимании. Многие понимают это так, что Ватсон просто статистическим образом перебирает последовательности слов. На самом деле в случае Ватсона под «статистической информацией» подразумеваются коэффициенты распределения и символические связи в таких самоорганизующихся моделях, как иерархические скрытые модели Маркова. Точно так же «статистической информацией» можно назвать распределение концентрации нейромедиаторов и избыточность образов в человеческой новой коре. На самом деле неясные вопросы мы разрешаем во многом тем же способом, что и Ватсон, – путем рассмотрения вероятности различных интерпретаций той или иной фразы.
Аллен продолжает: «Любая структура [мозга] тщательно оттачивалась на протяжении миллионов лет эволюции для выполнения конкретной функции. Он не похож на компьютер, в котором содержатся миллиарды идентичных транзисторных ячеек памяти, контролируемых центральным процессором и некоторыми другими элементами. В мозге каждая отдельная структура и каждая нервная цепочка вырабатывалась под действием эволюции и внешних факторов в индивидуальном порядке».
Идея о том, что каждая структура и каждая нервная цепочка мозга уникальна и создана по отдельному проекту, просто несостоятельна, поскольку означает, что для проектирования мозга понадобились бы сотни триллионов байт информации. Структурный план мозга (а также всех других отделов тела) содержится в геноме, и в самом мозге нет никакой дополнительной структурной информации. Замечу, что эпигенетическая информация (например, пептиды, контролирующие экспрессию генов) лишь немного дополняет объем генетической информации. Объем содержащейся в мозге информации значительно увеличивается в процессе обучения и приобретения опыта, однако то же самое можно сказать и о системах ИИ, таких как Ватсон. В книге «Сингулярность уже близка» я показал, что после обратимого сжатия (за счет массивной избыточности генома) объем структурной информации генома составляет около 50 млн байт, и примерно половина этой информации (то есть около 25 млн байт) относится к мозгу[175]175
Хотя из-за повторов пар оснований нельзя точно оценить информационное содержимое генома, оно очевидно намного меньше всего объема данных до компрессии. Ниже представлены два способа оценки информационного содержания генома после компрессии. В обоих случаях верхним пределом является значение от 30 до 100 млн байт.
1. Без сжатия генетический код человека содержит 3 млрд оснований ДНК, каждое кодируется двумя битами информации (поскольку в каждой позиции может находиться один из четырех нуклеотидов). Таким образом, до компрессии в геноме человека содержится около 800 млн байт информации. Некодирующую ДНК иногда называют «мусорной» ДНК, однако сейчас уже ясно, что она играет важную роль в экспрессии генов. Но закодирована она очень неэффективно. В частности, имеет место чрезвычайная избыточность информации (например, последовательность «ALU» повторяется сотни тысяч раз), что можно использовать при компрессии.
Ввиду активного расширения объема информации в генетических базах данных существует повышенный интерес к разработке способов сжатия генетических данных. С помощью стандартных алгоритмов компрессии генетические данные удается сжать примерно на 90 % по объему: Hisahiko Sato et al., DNA Data Compression in the Post Genome Era, Genome Informaties 12 (2001): 512–514.
Таким образом, удается сжать геном до объема около 80 млн байт без потери информации (это означает, что на основании этих данных мы прекрасно можем воссоздать исходные 800 млн байт генетической информации).
Теперь учтем, что свыше 98 % генома не кодирует белки. Даже после применения стандартного алгоритма компрессии (в результате чего устраняется избыточность и используется стандартный поиск известных последовательностей) алгоритмическое содержание некодирующих областей оказывается достаточно низким, что означает, что мы можем дополнительно сократить объем текста без потери информации. Однако, поскольку мы все еще находимся в начале пути обратного проектирования генома, мы не можем достаточно надежно оценить последствия дальнейшего сокращения объема на основе функционально эквивалентного алгоритма. Таким образом, мне кажется разумным остановиться на компрессии до 30–100 млн байт. Верхний предел этого диапазона соответствует только компрессии данных, без алгоритмического упрощения.
Только часть (хотя и значительная) этой информации относится к строению головного мозга.
2. Второй способ рассуждений следующий. Поскольку в геноме человека содержится около 3 млрд оснований, лишь небольшая часть отвечает за кодирование белков. По современным оценкам, в геноме человека существует около 26 тыс. генов белков. Если принять, что эти гены в среднем содержат около 3000 оснований полезной информации, получим около 78 млн оснований. Информационное содержание одного основания ДНК составляет только два бита, так что в сумме все эти основания составляют около 20 млн байт информации (78 млн оснований поделить на четыре). В кодирующей белок последовательности гена каждое слово (кодон), состоящее из трех оснований ДНК, транслируется в одну аминокислоту. Таким образом, существует 43 = 64 кодона, состоящих из трех оснований ДНК. Однако в белках присутствует лишь 20 аминокислот плюс стоп-кодон (не кодирующий никакой аминокислоты). Оставшиеся 43 кодона – это синонимы первых 21. Для кодирования 64 возможных комбинаций нуклеотидов нужно 6 бит, а для кодирования 21 комбинации – только 4,4 бита (log221), что позволяет сохранить 1,6 бит из 6 (около 27 %) и приводит нас к общему значению 15 млн байт. Кроме того, возможно произвести стандартную компрессию повторяющихся последовательностей, хотя в кодирующих последовательностях возможностей для сжатия значительно меньше, чем в участках «мусорной» ДНК, отличающейся высокой степенью избыточности. Так мы можем спуститься до значения около 12 млн байт. Однако теперь мы должны добавить информацию относительно некодирующих участков ДНК, которые контролируют экспрессию генов. Хотя эти последовательности ДНК составляют преобладающую часть генома, их информационное содержание достаточно низкое, а уровень избыточности высокий. Учитывая наличие примерно 12 млн байт информации в кодирующих областях ДНК, вновь возвращаемся к значению около 24 млн байт. Это значительно ниже, чем полученная выше оценка от 30 до 100 млн байт.
[Закрыть]. Это нелегко, но это такой уровень сложности, с которым мы можем работать, и он проще, чем многие современные компьютерные системы. Кроме того, значительная часть из этих 25 млн байт генетической информации касается биологических потребностей нейронов, а не алгоритмов обработки информации.
Как же на основании лишь десятков миллионов байт структурной информации возникают 100 или 1000 трлн контактов нейронов в мозге? Понятно, что ответ кроется в значительной избыточности мозга. Руководитель исследовательской группы в компании IBM Дхармендра Модха пишет: «Нейроанатомы нашли не безнадежно спутанную, случайную сеть, полностью уникальную для мозга каждого человека, а повторяющиеся структуры внутри каждого мозга и большое сходство между разными видами… Потрясающее природное свойство реконфигурации дает надежду на то, что ключевые алгоритмы процессов в нейронах не зависят от специфической сенсорной или моторной модальности и что многие наблюдаемые вариации структуры коры отражают более тонкую настройку канонических цепей; на самом деле именно эти канонические цепи мы и хотим создать с помощью обратного проектирования»[176]176
S. Modha, et al., Communications of the ACM, 2011, Vol. 54 (8): 62–71; http://cacm.acm.org/magazines/2011/8/114944-cognitive-computing/fulltext.
[Закрыть].
Аллен указывает на неизбежность существования «тормоза, ограничивающего прогресс в понимании человеческого мозга и воспроизведении его возможностей», на основании представлений о том, что каждый из 100 или 1000 трлн контактов в человеческом мозге создан по индивидуальному плану. Тут спутаны представления о том, что есть лес, а что деревья. Если вы хотите изучить, смоделировать, симулировать и воссоздать поджелудочную железу, вам не нужно воссоздавать или симулировать каждую органеллу в каждой клетке островков поджелудочной железы. Вам нужно понять механизм функционирования одной такой клетки и ее участие в контроле уровня инсулина, а затем распространить эти знания на группу аналогичных клеток. Для островковых клеток этот алгоритм абсолютно ясен. Сейчас проходят тестирование искусственные ткани поджелудочной железы, созданные на основе этой функциональной модели. Безусловно, в мозге значительно больше сложности и вариаций, чем в более или менее однородных клетках островков поджелудочной железы, но и здесь имеет место значительная повторяемость функций, как я уже неоднократно подчеркивал.
Критикам, придерживающимся той же точки зрения, что и Аллен, присуще свойство, которое я называю «научным пессимизмом». Исследователи, занимающиеся созданием нового поколения технологии или моделированием нового научного направления, неизбежно сталкиваются с таким огромным набором проблем, что если кто-нибудь скажет им, как будет выглядеть эта технология примерно через десять поколений, у них глаза вылезут на лоб. Один из пионеров в области создания интегральных схем недавно напомнил мне происходившую 30 лет назад борьбу за сокращение размера микросхемы от 10 до 5 микрон (от 10 000 до 5000 нм). Ученые понимали, что смогут решить эту задачу, но если бы кто-то предсказал, что однажды мы будем иметь микросхемы толщиной меньше одного микрона (1000 нм), большинство из ученых, сконцентрированных на своих сиюминутных задачах, подумали бы, что это абсолютно невозможно. Аргументами были хрупкость схем такого размера, тепловые эффекты и т. д. А сегодня Intel использует 22-нм чипы.
Примерно такие же пессимистические комментарии сопровождали и реализацию проекта «Геном человека». Проект длился около 15 лет, за первую половину этого срока был проанализирован лишь 1 % генома, и критики указывали на невозможность повышения скорости секвенирования генома без нарушения тонких генетических структур. Однако благодаря экспоненциальному росту памяти, а также показателя цены – производительности через семь лет проект был завершен. Проект по обратному проектированию человеческого мозга продвигается аналогичным образом. Например, еще совсем недавно мы получили возможность с помощью неинвазивных методов сканирования в реальном времени наблюдать за тем, как образуются и возбуждаются отдельные контакты между нейронами. Многое из того, о чем я рассказывал выше, стало возможно совсем недавно благодаря подобным достижениям.
Аллен описывает мою идею об обратном проектировании человеческого мозга просто как сканирование мозга для понимания его тонкой структуры с последующей симуляцией всего мозга «вверх дном» без детального понимания его методов обработки информации. Но я предлагаю совсем другое. Нам действительно нужно подробно изучить, как работают отдельные типы нейронов, а затем собрать информацию о соединении функциональных модулей. А дальше функциональные методы, выведенные на основе этих данных, будут направлять развитие разумных систем. Грубо говоря, мы ищем биологические методы, способные ускорить исследования в сфере ИИ, которые пока во многом продвигаются без серьезного прорыва в понимании того, как аналогичную функцию выполняет мозг. На основе собственного опыта по распознаванию речи могу сказать, что работа сильно продвинулась, когда мы поняли, как мозг подготавливает и трансформирует звуковую информацию.
Дифференцировка повторяющихся структур мозга реализуется в процессе обучения и приобретения опыта. При сегодняшнем положении дел в сфере ИИ компьютерные системы тоже могут учиться на собственном опыте. Самодвижущиеся машины Google обучаются на своем водительском опыте, а также на данных машин Google, управляемых людьми. Ватсон получил большую часть информации за счет самостоятельного чтения. Интересно отметить, что математические принципы методов, заложенных в основу функционирования систем ИИ, очень близки соответствующим принципам функционирования новой коры.
Еще одно часто высказываемое возражение против возможности создания «сильного» ИИ (искусственного интеллекта на уровне человеческого разума и выше) заключается в том, что человеческий мозг активно использует аналоговые методы, а цифровые методы не могут воспроизводить плавные изменения параметров, доступные для воспроизведения аналоговыми методами. Это верно, что с помощью одного бита информации нельзя описать сложную зависимость, однако многобитные слова легко отражают множество значений, причем с любой степенью точности. Это постоянно происходит в цифровых компьютерах. А вот точность аналоговой информации в мозге (например, синаптический потенциал) составляет лишь один уровень из 256 возможных, которые могут быть представлены 8 битами информации.
В девятой главе я приводил доводы Роджера Пенроуза и Стюарта Хамероффа, касающиеся микротрубочек и квантовых вычислений. Вспомните, они утверждают, что микротрубочки нейронов осуществляют квантовые вычисления, а в компьютерных системах этого добиться нельзя. В этом заключается принципиальное отличие и, по-видимому, превосходство человеческого мозга. Я прокомментировал, что пока нет никаких доказательств того, что микротрубочки нейронов осуществляют квантовые вычисления. Человек на самом деле очень плохо решает такие задачи, которые не представляют никакой сложности для квантовых компьютеров (например, факторизация больших чисел). Но, если идеи Пенроуза и Хамероффа окажутся верны, ничто не мешает нам использовать квантовые вычисления в наших компьютерах.
Джон Серль знаменит, в частности, тем, что придумал мысленный эксперимент, называемый «китайская комната» (я подробно описывал его в книге «Сингулярность уже близка»[177]177
Ray Kurzweil, The Singularity Is Near, глава 9, с. 458–469.
[Закрыть]). Если говорить кратко, речь идет о человеке, который в письменном виде получает вопросы на китайском языке и отвечает на них. Для этого он пользуется сложной книгой правил. Серль утверждает, что человек не знает китайского языка и действует «неосознанно» (то есть не понимает смысла ни вопроса, ни ответа), хотя и отвечает на вопросы по-китайски. Серль сравнивает эту ситуацию с компьютером и приходит к выводу, что компьютер, который отвечает на вопросы по-китайски (и проходит тест Тьюринга на китайском языке), как и человек в китайской комнате, по-настоящему не понимает языка и не осознаёт, что делает.
В аргументах Серля есть несколько философских трюков. Например, человека из мысленного эксперимента сравнивают только с центральным процессором компьютера. Можно сказать, что центральный процессор не имеет реального представления о том, что он делает, но это лишь часть общей системы. В китайской комнате всю систему составляют человек и его книга правил. И эта система в целом понимает китайский язык, иначе она не могла бы убедительно отвечать на вопросы по-китайски, а это нарушило бы условие мысленного эксперимента Серля.
Притягательность этого эксперимента связана с тем, что сегодня нам трудно приписать компьютерной программе такие атрибуты, как истинное понимание и сознание. Однако слабость аргумента в том, что точно такие же рассуждения можно применить собственно к человеческому мозгу. Каждый распознающий модуль (вообще говоря, каждый нейрон и каждый его компонент) следует определенному алгоритму. Здесь действуют молекулярные механизмы, подчиняющиеся природным законам. Если считать, что следование алгоритму – процесс неосознанный и не требующий реального понимания, придется заключить, что человеческий мозг тоже не обладает этими способностями. Используйте аргумент Серля и замените слова «манипуляция символами» словами «манипуляция межнейронными контактами и синаптическими потенциалами», и вы получите убедительный аргумент в пользу того, что человеческий мозг по-настоящему ничего не понимает.
Еще одна линия аргументации связана с сущностью самой природы, которая является святыней для многих наблюдателей. Например, новозеландский биолог Майкл Дентон (род. в 1943 г.) усматривает глубокое различие между принципами строения машин и биологических систем. Дентон характеризует биологические существа как «самоорганизующиеся, самореплицирующиеся, взаимовыгодные, самообучающиеся и целостные»[178]178
Micheal Denton, Organism and Machine: The Flawed Analogy, in Are We Spiritual Machines? Ray Kurzweil vs. the Critics of Strong AI, Discovery Institute, 2002, Discovery Institute, 2001.
[Закрыть]. Он утверждает, что такие биологические формы могут быть созданы только в биологических процессах, являются «неизменной… недостижимой и… фундаментальной» реальностью бытия и поэтому относятся принципиально к другой философской категории, нежели машины.
Однако реальность, как мы видели, такова, что машины могут быть созданы на основе тех же принципов. Изучение специфики структуры самого разумного создания природы – человеческого мозга – как раз и является задачей исследований в области обратного проектирования мозга. Кроме того, неверно, что биологические системы полностью «целостны», как утверждает Дентон. Впрочем, было бы ошибкой заявить, что машины обязательно должны иметь модульное строение. В природных системах, особенно таких, как мозг, мы с очевидностью идентифицируем иерархические функциональные структуры. И системы ИИ используют аналогичные методы.
Мне кажется, многие критики не удовлетворятся до тех пор, пока компьютеры не смогут в обычном порядке проходить тест Тьюринга, но, возможно, даже этого окажется недостаточно. Наверняка начнут возникать сомнения в пригодности соответствующих тестов Тьюринга. Возможно, сам я буду среди критиков, отвергающих подобные ранние заявления. К тому моменту, когда появятся доказательства способности компьютеров проходить тест Тьюринга, компьютеры уже долгое время будут превосходить невооруженный человеческий разум.
Я делаю акцент на слове «невооруженный», поскольку вооружение, усиление человеческого разума – именно та цель, которую мы преследуем при создании этих «детей разума», как называет компьютеры Ганс Моравек[179]179
Hans Moravec, Mind Children, Harvard University Press, 1988.
[Закрыть]. Сочетание распознавания образов на уровне человеческих возможностей со скоростью и точностью компьютеров приведет к созданию очень мощных машин. Однако это не будет нашествием вражеского марсианского разума: мы создаем эти машины, чтобы сделать умнее самих себя. Я верю, что большинство людей согласятся со мной, что именно в этом заключается уникальная способность человеческого существа: мы создаем эти машины, чтобы расширить наши собственные возможности.