412 000 произведений, 108 200 авторов.

Электронная библиотека книг » Эли Паризер » За стеной фильтров. Что Интернет скрывает от вас? » Текст книги (страница 2)
За стеной фильтров. Что Интернет скрывает от вас?
  • Текст добавлен: 31 октября 2016, 00:34

Текст книги "За стеной фильтров. Что Интернет скрывает от вас?"


Автор книги: Эли Паризер



сообщить о нарушении

Текущая страница: 2 (всего у книги 16 страниц)

Потребитель вряд ли станет возражать против того, чтобы фильтр заслонял контент, который неактуален или может не понравиться. Но то, что хорошо для потребителя, не обязательно хорошо для гражданина. Возможно, то, что мне нравится, – совсем не то, чего я действительно хочу, не говоря уже о том, что мне нужно знать, чтобы быть информированным членом моего сообщества или гражданином моей страны. «Быть в курсе того, что не входит в область ваших интересов, – это проявление гражданской добродетели, – говорил мне журналист Клайв Томпсон, пишущий о новых технологиях. – В нашем сложном мире на вас влияет практически все – так замыкается петля материальных, личных интересов»[39]39
  Из интервью автора с Клайвом Томпсоном, 13 августа, 2010.


[Закрыть]
. Культуролог Ли Сигел формулирует иначе: «Клиенты всегда правы; люди – не всегда»[40]40
  Lee Siegel. Against the Machine: Being Human in the Age of the Electronic Mob. New York: Spiegel and Grau, 2008, 161.


[Закрыть]
.

Структура медиа влияет на характер общества. Печатное слово куда лучше способствует демократической дискуссии, чем усердно скопированные пергаментные свитки. Телевидение оказало глубочайшее влияние на политическую жизнь XX века – от убийства Кеннеди до событий 11 сентября 2001 года. И, видимо, не случайно у жителей США, которые тратят 36 часов в неделю на просмотр ТВ, стало меньше времени для гражданской жизни[41]41
  Americans Using TV and Internet Together 35 % More Than A Year Ago. Nielsen Wire, Mar. 22, 2010, http://blog.nielsen.com/nielsenwire/online_mobile/three-screen-report-q409.


[Закрыть]
.

Эра персонализации уже наступила, и она опровергает многие наши прогнозы о том, что должен был принести нам Интернет. Его творцы рисовали в своем воображении нечто большее и более важное, чем просто глобальная система обмена фотографиями домашних питомцев. Манифест, на который опиралась при своем создании в начале 90-х годов прошлого века правозащитная организация Electronic Frontier Foundation, призывал к созданию «цивилизации Разума в киберпространстве»[42]42
  John Perry Barlow. A Cyberspace Independence Declaration. Feb. 9, 1996, accessed Dec. 19, 2010, http://w2.eff.org/Censorship/Internet_censor-ship_bills/barlow_0296.declaration.


[Закрыть]
, возвещал появление всемирного метамозга. Но персонализированные фильтры разрывают синапсы этого мозга. Возможно, мы, не осознавая того, сами делаем себе глобальную лоботомию.

Мы создаем мегагорода и нанотехнологии – глобальное общество, сложность которого уже вышла за пределы индивидуального понимания. Проблемы, с которыми мы столкнемся в следующие 20 лет: дефицит энергии, терроризм, изменения климата и болезни, – огромны по своему масштабу. И решить их мы сможем только вместе.

Первые энтузиасты Интернета вроде создателя Всемирной сети Тима Бернерса-Ли надеялись, что мы получим новую платформу для решения этих проблем. Я думаю, что Интернет все еще может ею стать, и в книге я объясню как. Но сперва нам нужно поднять занавес, понять силы, ведущие Интернет в его нынешнем, персонализированном направлении. Разоблачить ошибки программного кода – и его программистов, которые «подарили» нам эту персонализацию.

Если, согласно выражению Ларри Лессига, код – это закон[43]43
  Lawrence Lessig. Code 2.0. New York: Basic Books, 2006, 5.


[Закрыть]
, то важно понять, чего же добиваются новые законодатели[44]44
  Игра слов: в английском code означает не только «код», но и «свод законов», «принципы». Прим. ред.


[Закрыть]
. Мы должны выяснить, каковы убеждения программистов Google и Facebook. Осознать, какие экономические и социальные силы движут персонализацией. Некоторые из них неизбежно будут сопровождать нас, другие – совсем не обязательно. И мы должны понять, что же все это значит для нашей политики, культуры и будущего в целом.

Если вы не сидите рядом со своим другом, вам трудно понять, чем версия Google или Yahoo News, которую вы видите, отличается от той, которую видит кто-то другой. Но стена фильтров искажает наши представления о том, что значимо, истинно, реально, и поэтому крайне важно сделать ее видимой. Именно в этом заключается цель этой книги.

Глава 1
Погоня за релевантностью

Если ты за что-то не платишь, ты не клиент; ты продукт, который выставляется на продажу.

Эндрю Льюис под псевдонимом Blue_beetle на сайте MetaFilter

Как-то весной 1994 года Николас Негропонте в задумчивости сидел перед экраном компьютера. В его детище – лаборатории MIT Media 1. ab[45]45
  Лаборатория Массачусетского технологического института, где занимаются изучением новых медиа и технологий. Прим. пер.


[Закрыть]
 – молодые разработчики чипов, мастера виртуальной реальности и гении роботехники неистово трудились над игрушками и инструментами будущего. Но Негропонте размышлял над более простой проблемой – той, с которой миллионы людей сталкиваются каждый день: что смотреть по телевизору.

К середине 90-х круглые сутки семь дней в неделю вещали уже сотни телеканалов. Большинство программ были ужасающими и скучными: реклама кухонной техники, клипы групп-однодневок, мультфильмы и новости из жизни знаменитостей. Любому отдельно взятому зрителю была интересна лишь малая часть из этого.

По мере увеличения числа каналов стандартный метод поиска нужной передачи становился все более безнадежным занятием. Одно дело искать подходящую программу на пяти каналах, другое – на пяти сотнях. А когда их число доходит до пяти тысяч, старые методы оказываются просто бесполезными.

Но Негропонте не отчаивался. Еще не все было потеряно. Более того, решение было уже почти найдено. «Ключ к будущему телевидения, – писал он, – перестать думать о телевизоре как о телевизоре», а начать думать о нем как об устройстве со встроенным интеллектом. Потребителям был нужен пульт, который управляет сам собой: интеллектуальный автоматический помощник, способный запоминать, что смотрит каждый зритель, и подбирать нужные программы. «Сегодня телевизоры позволяют вам контролировать яркость, громкость и канал, – писал Негропонте. – Завтра они позволят вам корректировать уровень секса, насилия и политическую позицию»[46]46
  Nicholas Negroponte. Being Digital. New York: Knopf, 1995, 46.


[Закрыть]
.

А зачем останавливаться на этом? Негропонте воображал себе будущее, кишащее интеллектуальными агентами, которые помогают решать проблемы вроде выбора телепрограммы. Они, как личный дворецкий, должны впускать в ваш дом лишь ваши любимые шоу и темы. «Представьте себе будущее, – писал Негропонте, – в котором ваш интерфейсный агент сможет читать любые ленты новостей, газеты, отслеживать все теле– и радиостанции на планете, а затем составлять персонализированный дайджест. Это газета, выходящая тиражом в один экземпляр… Назовем ее Daily Me – "Мои ведомости"»[47]47
  Nicholas Negroponte. Being Digital. New York: Knopf, 1995, 46.


[Закрыть]
.

И чем больше он думал, тем больше смысла в этом видел. Решением проблемы информационной перегрузки в цифровую шоху были разумные, персонализированные встроенные редакторы. И они вовсе не должны были ограничиваться телевидением. Как заметил Негропонте в беседе с редактором журнала Wired, «интеллектуальные агенты, несомненно, будущее компьютерной отрасли»[48]48
  Nicholas Negroponte. Wired.com, Mar. 3, 1995, www.wired.com/wired/archive/3.03/negroponte.html.


[Закрыть]
.

Джарон Ланир из Сан-Франциско был весьма встревожен этими рассуждениями. Ланир – один из создателей виртуальной реальности, и с 80-х годов прошлого века он пытался придумать, как сблизить людей и компьютеры. Но разговоры об «агентах» поразили его своим безумием. «Что в вас вселилось? – вопрошал он в послании ко всем "поклонникам стиля Wired", которое опубликовал на своем сайте. – Идея "интеллектуальных агентов" дурна и неправильна… Вопрос об агентах кажется решающим фактором в том, будет ли Сеть гораздо лучше, чем ТВ, или гораздо хуже»[49]49
  Lanier Jaron. Agents of Alienation, http://www.jaronlanier.com/agentalien.html.


[Закрыть]
.

Ланир был убежден, что агенты, не будучи людьми, станут склонять нас к неуклюжему и хаотическому взаимодействию с собой. «Модель ваших интересов, созданная агентом, будет мультяшной, и глазами агента вы увидите только мультяшный мир», – писал он.

Была и еще одна проблема. Идеальный агент, по логике, должен был блокировать всю или почти всю рекламу. Но поскольку онлайн-торговлю двигала вперед именно реклама, казалось маловероятным, что эти компании станут использовать агентов, наносящих такой удар по их прибыли. Куда вероятнее, как считал Ланир, что это будут «двойные агенты», подкупленные, «непонятно на кого работающие».

Это было ясное и четкое предостережение. Но хотя оно вызвало кое-какие споры на онлайн-форумах, компании-гиганты той ранней интернет-эпохи не сочли его убедительным. Им, наоборот, импонировала логика Негропонте: компания, сообразившая, как просеивать горы цифрового песка в поисках крупиц золота, могла бы завладеть будущим. Они предвидели надвигающийся кризис внимания – информационный выбор каждого человека становился бесконечным. А значит, если вы хотели заработать, вам нужно было убедить людей «подключиться». В мире, где внимание дефицитно, лучшим решением было предлагать контент, действительно близкий интересам, желаниям и нуждам каждого человека. В коридорах и информационных центрах Кремниевой долины распространился новый девиз: релевантность.

Все подряд рвались вывести на рынок «интеллектуальный» продукт. Microsoft выпустила Bob – целую операционную систему, построенную на концепции агентов. Ведущим в ней выступал странный мультяшный персонаж, изрядно смахивавший на Билла Гейтса. Apple, почти за 10 лет до анонса iPhone, выпустила Newton – «личного настольного помощника», главным доводом в пользу покупки которого считали агента, почтительно затаившегося прямо под бежевой крышкой устройства.

В итоге новые «интеллектуальные» продукты провалились. В чатах и электронных рассылках развернулась целая кампания издевательств в адрес Bob. Пользователи просто не выносили его. Журнал PC World окрестил его одним из 25 худших продуктов высоких технологий за всю историю[50]50
  Dan Tynan. The 25 Worst Tech Products of All Time. PC World, May 26, 2006, www.pcworld.com/article/125772-3/the_25_worst_tech_products_of_all_time.html#bob.


[Закрыть]
. Apple Newton добился немногим большего: хотя компания инвестировала более 100 миллионов долларов[51]51
  Dawn Kawamoto. Newsmaker: Riding the next technology wave. CNET News, Oct 2, 2003, http://news.cnet.com/2008-7351-5085423.html.


[Закрыть]
в его разработку, в первые 6 месяцев своего существования он продавался очень плохо. Взаимодействие с интеллектуальными агентами 90-х быстро давало понять: не так уж они и умны.

Сейчас, десять с лишним лет спустя, интеллектуальных агентов по-прежнему нет. Похоже, что революция, предсказанная Негропонте, не состоялась. По утрам нас не будит электронный дворецкий, и мы не уведомляем его о наших планах и пожеланиях на день.

Но это не значит, что таких агентов не существует вовсе. Просто они скрыты от нас. Персональные интеллектуальные агенты прячутся за фасадом всех сайтов, на которые мы заходим. Каждый день они становятся умнее и влиятельнее, накапливая все больше информации о том, кто мы такие и что нас интересует. Как и предсказывал Ланир, агенты работают не только на нас: они также служат интернет-гигантам вроде Google, распределяя как контент, так и рекламу. Хотя они ничем не напоминают мулыяшного Боба, придуманного Microsoft, они управляют все большей долей наших действий в онлайне.

В 1995 году гонка за личную релевантность только начиналась. И она, возможно, больше всех остальных факторов повлияла на формирование Интернета и на то, каков он сегодня.

Проблема Джона Ирвинга

Джефф Безос, глава Amazon.com, одним из первых понял, что силу релевантности можно подчинить и заработать на этом миллиарды. Он начал свой бизнес в 1994 году, исходя из концепции, что онлайн-книготорговлю нужно вернуть «во времена мелких книготорговцев, которые знали вас очень хорошо и могли давать советы вроде: „Я знаю, вам нравится Джон Ирвинг, и представьте себе, вот новый автор, который, по-моему, очень похож на Джона Ирвинга“». Об этом Безос рассказывал своему биографу[52]52
  Robert Spector, Get Big Fast (New York: HarperBusiness, 2000), 142.


[Закрыть]
. Но как же реализовать это в большом масштабе? Безос считал, что Amazon должен стать «чем-то вроде небольшой компании искусственного интеллекта»[53]53
  Robert Spector, Get Big Fast (New York: HarperBusiness, 2000), 145.


[Закрыть]
, приводимой в действие алгоритмами, которые мгновенно подбирают для клиентов книги.

В 1994 году, когда Безос работал компьютерным инженером на Уолл-стрит, его нанял один венчурный капиталист. Он ждал бизнес-идей, применимых на зарождающемся интернет-рынке. Безос методично проработал тему и составил список из 20 продуктов, которые его команда теоретически могла бы продавать в онлайне: музыка, одежда, электроника, – а потом начал вникать в особенности каждой отрасли. Книги сначала стояли в самом низу списка, но, когда появились окончательные результаты, к изумлению Безоса, они поднялись на самый верх[54]54
  Robert Spector, Get Big Fast (New York: HarperBusiness, 2000), 27.


[Закрыть]
.

По ряду причин книги оказались идеальным товаром. Прежде всего, отрасль была децентрализованной; крупнейший издатель, Random House, контролировал лишь 10 процентов рынка[55]55
  Robert Spector, Get Big Fast (New York: HarperBusiness, 2000), 25


[Закрыть]
. Если бы какой-то один издатель не захотел продавать книги онлайн-магазину, многие другие восполнили бы этот пробел. И покупателям не нужно было много времени, чтобы привыкнуть к приобретению книг в Интернете: большинство книжных продаж и так уже происходило вне традиционных книжных магазинов и, в отличие от одежды, книги не нужно примерять. Однако главной причиной привлекательности книг как товара стал тот простой факт, что их было очень много: в 1994 году в продаже было 3 миллиона наименований книг и только 300 тысяч наименований компакт-дисков[56]56
  Robert Spector, Get Big Fast (New York: HarperBusiness, 2000), 25.


[Закрыть]
. Обычный книжный магазин ни за что не вместил бы все эти книги, а онлайновый – запросто.

Когда Безос доложил об этом своему шефу, тот не очень-то заинтересовался. В информационную эпоху книжная отрасль казалась отсталой. Но Безос никак не мог забыть об этом. Не имея ограничений на число книг на складе, он мог выставлять на витрину в сотни, тысячи раз больше наименований, чем отраслевые гиганты вроде Borders или Barnes & Noble, и при этом обеспечить клиенту более душевные впечатления от покупки, чем крупные сети.

Он решил: Amazon должен усовершенствовать процесс открытия. Задачей персонализированного магазина было помогать читателям находить книги и представлять им новинки. Но как?

Безос начал думать, как научить этому компьютеры. Над этой серьезной проблемой бились немало инженеров и ученых в исследовательских учреждениях вроде MIT и Калифорнийского университета в Беркли начиная с 50-х. Эта область изысканий называлась «кибернетикой»[57]57
  Barnabas D. Johnson. Cybernetics of Society. The Jurlandia Institute, http://www.jurlandia.org/cybsoc.htm.


[Закрыть]
. Слово было позаимствовано у Платона, который обозначал им саморегулирующуюся систему, например демократию. Для первых специалистов в этой области самым захватывающим занятием было создавать системы, способные подстраивать самих себя на основе обратной связи. За несколько десятилетий они заложили математические и теоретические основания, обеспечившие Amazon значительную часть его роста.

В 1990 году группа ученых в исследовательском центре Xerox в Пало-Альто (PARC) применила кибернетический подход к новой проблеме. PARC известен своими идеями, которые затем подхватывали и коммерциализировали другие компании – достаточно вспомнить графический пользовательский интерфейс и компьютерную мышь[58]58
  Michael Singer. Google Gobbles Up Outride. InternetNews.com, Sept. 21, 2001, www.internetnews.com/bus-news/article.php/889381/Google-Gobbles-Up-Outride.html.


[Закрыть]
.

Исследователи из PARC, как и многие продвинутые компьютерные специалисты в то время, оказались в числе первых профессиональных пользователей электронной почты: они отправляли и получали сотни сообщений. Электронная почта оказалась прекрасным изобретением, но ее минусы тоже стали быстро очевидны. Когда послать сообщение любому количеству людей ничего не стоит, вы быстро тонете в потоке бесполезной информации.

Чтобы уследить за этим потоком, команда PARC принялась изобретать процесс, который они назвали «коллаборативной фильтрацией»[59]59
  Коллаборативная фильтрация, или совместная фильтрация, – это метод анализа информации и интересов пользователя, основанный на сборе данных о предпочтениях и действиях других пользователей. Он основан на идее, что люди, у которых в прошлом обнаружились общие интересы, могут иметь сходные интересы и в будущем. Такие системы могут прогнозировать, например, какая музыка понравится вам, исходя из того, какая музыка понравилась людям, чьи вкусы в прошлом пересекались с вашими. Прим. пер.


[Закрыть]
и воплотили в программе Tapestry[60]60
  Moya K. Mason. Short History of Collaborative Filtering, www.moyak.com/papers/collaborative-filtering.html.


[Закрыть]
. Она отслеживала, как люди реагируют на получаемые электронные письма: какие сообщения открывают, на какие отвечают, какие удаляют, – и затем использовала эту информацию, чтобы более удобно организовывать входящие сообщения. Письма подобные тем, на которые люди реагируют активно, должны были перемещаться вверх списка, а такие, которые получатели часто удаляют или не открывают, сползали вниз. В сущности, это был инструмент экономии времени: вместо того чтобы процеживать кучу сообщений лично, вы могли положиться на помощь других в предварительной обработке полученных писем.

Естественно, эта система работала не только с электронной почтой. Tapestry, по словам ее создателей, была «разработана для управления любым потоком входящих электронных документов. Электронная почта лишь один из примеров такого потока; другие примеры – ленты информагентств и статьи онлайн-форумов»[61]61
  David Goldberg, David Nichols, Brian M. Oki and Douglas Terry. Using Collaborative Filtering to Weave an Information Tapestry. Communications of the ACM 35 (1992), no. 12:61.


[Закрыть]
.

Tapestry представила миру коллаборативную фильтрацию, но в 1990 году такая услуга была не очень интересна. Интернет насчитывал всего несколько миллионов пользователей; он оставался маленькой экосистемой, и информации, подлежащей сортировке, было не так уж много, а пропускная способность каналов – не столь велика. Так что много лет коллаборативная фильтрация оставалась уделом компьютерных исследователей и скучающих студентов. Если бы в 1994 году вы отправили на адрес ringo@media.mit.edu список альбомов, которые вам нравятся, то получили бы в ответ письмо с рекомендациями новой музыки и рецензиями. На сайте сообщалось, что «один раз в час сервер обрабатывает все входящие сообщения и отправляет ответы»[62]62
  Upendra Shardanand. Social Information Filtering for Music Recommendation (graduate diss., Massachusetts Institute of Technology, 1994).


[Закрыть]
. Это был ранний предшественник Pandora[63]63
  Популярное интернет-радио, подсказывающее пользователям новую музыку исходя из их предпочтений. Прим. пер.


[Закрыть]
 – персонализированный музыкальный сервис для эпохи, когда широкополосного Интернета еще не существовало.

Но когда в 1995 году стартовал Amazon, все изменилось. С самого начала этот сайт представлял собой книжный магазин со встроенной персонализацией. Изучая, какие книги люди покупают, и используя методы коллаборативной фильтрации, изобретенные в PARC, Amazon мог выдавать рекомендации мгновенно. (О, вы берете «Руководство для чайников по фехтованию»? Может, возьмете еще «Очнулся слепым: судебные иски в связи с травмой глаза»?) И, отслеживая покупки, через какое-то время Amazon мог выделять пользователей с похожими предпочтениями. («Другие люди, которым нравится то же, что и вам, приобрели новинку этой недели—"Ангард!"») Чем больше книг люди покупали на Amazon, тем точнее была персонализация.

В 1997 году Безос обслужил первый миллион покупателей. Спустя полгода – два миллиона. А в 2001 году компания впервые получила квартальную прибыль: это был один из первых бизнесов, доказавших, что в онлайне можно делать серьезные деньги.

И хотя Amazon не мог в полной мере передать атмосферу местного книжного магазинчика, система персонализации работала весьма неплохо. Топ-менеджеры держат язык за зубами и не признаются, какую долю выручки она обеспечивает, но часто называют этот механизм ключевым элементом успеха компании.

На Amazon идет нескончаемая погоня за пользовательскими данными: когда вы читаете книги на ридере Kindle, информация о фразах, которые вы выделяете, страницах, которые вы переворачиваете, и о том, читаете ли вы внимательно или пролистываете, отправляется на серверы Amazon и используется, чтобы определить, какие книги могут вам еще понравиться. Если вы зайдете на сайт после дня на пляже с Kindle, Amazon может слегка изменить страницу, чтобы ее содержание соответствовало тому, что вы только что прочли. Если вы полдня читали новый роман Джеймса Паттерсона и лишь мельком заглянули в руководство по диете, то вы, возможно, увидите на первой странице сайта больше триллеров и куда меньше книг о здоровье[64]64
  Martin Kaste. Is Your E-Book Reading Up On You? NPR.org, Dec. 15, 2010, http://www.npr.org/2010/12/15/132058735/is-your-e-book-reading-up-on-you.


[Закрыть]
.

Пользователи Amazon так привыкли к персонализация, что сайт теперь использует обратный трюк, чтобы заработать еще больше денег. Издатели платят за размещение книг в традиционных магазинах, но не могут купить мнения продавцов. Однако, как и предсказывал Ланир, подкупить алгоритм нетрудно: заплатите Amazon достаточную сумму, и ваша книга будет продвигаться под видом «объективной» рекомендации собственного софта сайта[65]65
  Aaron Shepard. Aiming at Amazon: The NEW Business of Self Publishing, Or How to Publish Your Books with Print on Demand and Online Book Marketing (Shepard Publications, 2006), 127.


[Закрыть]
. Большинство клиентов не способны отличить одно от другого.

Amazon доказал, что релевантность может обеспечить доминирующие позиции в отрасли. Но затем на сцену вышли два аспиранта из Стэнфорда, которые применили принципы машинного обучения ко всему миру онлайн-информации.

Клик – это сигнал

Когда новая компания Джеффа Безоса только начинала работу, основатели Google Ларри Пейдж и Сергей Брин занимались своими докторскими диссертациями в Стэнфорде. Они знали об успехе Amazon: в 1997 году «пузырь доткомов» раздувался вовсю, и Amazon – по крайней мере на бумаге – стоил миллиарды. Пейдж и Брин были математическими гениями; первый, в частности, был одержим темой искусственного интеллекта. Но их интересовала другая проблема. Что если использовать компьютерные алгоритмы не для более эффективной продажи товара, а для сортировки сайтов?

Пейдж изобрел новаторский подход к такой сортировке и с присущей компьютерным гикам склонностью к игре слов назвал его PageRank[66]66
  Фамилия Пейдж (Page) в переводе с английского означает «страница». Прим. пер.


[Закрыть]
. Большинство компаний, занимавшихся интернет-поиском в то время, сортировали страницы по ключевым словам и едва ли могли оценить, насколько первые соответствуют вторым. В статье, опубликованной в 1997 году, Брин и Пейдж сухо отмечали, что три из четырех крупнейших поисковых машин не могут найти сами себя. «Мы хотим, чтобы наша концепция „релевантности“ распространялась только на лучшие документы, – писали они, – поскольку пользователю могут быть доступны десятки тысяч лишь слегка релевантных документов»[67]67
  Sergey Brin and Lawrence Page. The Anatomy of a Large-Scale Hypertextual Web Search Engine. Section 1.3.1.


[Закрыть]
.

Пейдж понял, что в пронизанной ссылками структуре Сети кроется гораздо больше данных, чем могут использовать большинство поисковых машин. Тот факт, что одна страница содержит ссылку на другую, можно считать «голосом» в пользу второй. Пейдж наблюдал за тем, как стэнфордские профессора считают, сколько раз их статьи были процитированы, и составляют таким образом примерный рейтинг своей значимости. Он прикинул, что сайты, на которые часто ссылаются – например, главная страница Yahoo, – могут, подобно академическим статьям, считаться более значимыми, а те, за которые они «голосуют», тоже значат больше. Весь этот процесс, как утверждал Пейдж, «опирается на уникальную демократическую структуру Сети».

В те дни Google обитал на сайте google.stanford.edu, и Брин с Пейджем были убеждены, что сервис должен оставаться некоммерческим и свободным от рекламы. «Мы считаем, что поисковые машины, финансируемые за счет рекламы, будут неизбежно склоняться в сторону нужд рекламодателей, а не нужд потребителей, – писали они. – Чем лучше поисковая система, тем меньше сообщений понадобится потребителю, чтобы найти искомое… мы уверены, что вопрос о рекламе создает достаточно неоднозначные стимулы, и поэтому крайне важно иметь конкурентоспособную поисковую систему, которая прозрачна для пользователей и остается в академической сфере»[68]68
  Brin and Page. Anatomy of a Large-Scale Hypertextual Web Search Engine. Section 8 Appendix A.


[Закрыть]
.

Но когда они запустили бета-версию сайта на просторы Интернета, трафик зашкалил. Google действительно работал – внезапно он стал лучшей поисковой машиной Интернета. Вскоре искушение сделать на этом бизнес оказалось слишком сильным, и основатели Google, которым было по двадцать с небольшим, не смогли перед ним устоять.

По легенде, именно алгоритм PageRank вознес Google на вершину мирового господства. Я подозреваю, что компании нравится эта версия: это ясная, простая история, привязывающая успех поискового гиганта к одному гениальному прорыву, совершенному одним из основателей. Но с самого начала PageRank был лишь малой частью проекта Google. На самом деле Брин и Пейдж поняли вот что: ключ к релевантности, к сортировке массы данных в Интернете – это… еще больше данных.

Брину и Пейджу был важен не только сам факт, что страница ссылается на другую. Позиция ссылки, ее размеры, возраст страницы – все эти факторы имели значение. С годами Google стал называть эти путеводные нити, скрытые в данных, «сигналами».

С самого начала Пейдж и Брин понимали, что важнейшие сигналы будут поступать от самих пользователей поисковика. Скажем, если кто-то ищет «Ларри Пейдж» и кликает на вторую ссылку в результатах, это тоже «голос»: он подсказывает, что вторая ссылка более релевантна, чем первая. Они назвали это «клюс-сигналами» (click signal). «Очень интересными будут исследования, – писали Пейдж и Брин, – в основу которых лягут огромные объемы данных об использовании современных веб-систем… весьма трудно получить эту информацию, прежде всего потому, что она предположительно имеет коммерческую ценность»[69]69
  Brin and Page. Anatomy of a Large-Scale Hypertextual Web Search Engine. Section 1.3.2.


[Закрыть]
. Вскоре в их руках оказалось одно из крупнейших в мире хранилищ таких данных.

По части информации Google был ненасытен. Брин и Пейдж намеревались сохранять все: каждую страницу, на которую когда-либо заходила поисковая машина, каждый клик каждого пользователя. Вскоре их серверы уже хранили копию большей части Интернета, обновляемую практически в режиме реального времени. Они были уверены, что, просеивая данные, найдут еще больше зацепок, еще больше сигналов, позволяющих уточнять результаты. Отдел качества поиска Google завоевал репутацию местного спецназа: минимум посетителей, абсолютная секретность – таковы были правила его работы[70]70
  Saul Hansell. Google Keeps Tweaking its Search Engine. New York Times, June 3, 2007, http://www.nytimes.com/2007/06/03/business/yourmoney/03google.html?_r=l.


[Закрыть]
.

«Идеальная поисковая машина, – любил говорить Пейдж, – будет в точности понимать, что вы имеете в виду, и выдавать в точности то, что вы хотите»[71]71
  David A. Vise and Mark Malseed. The Google Story. New York: BantamDell, 2005, 289.


[Закрыть]
. Google должен был выдавать не тысячи ссылок в ответ на запрос, а одну, именно ту, которая нужна. Но идеальные ответы для разных пользователей – разные. Когда я ввожу в строку поиска «пантеры», вероятно, я имею в виду крупных диких кошек, а если это слово вводит футбольный фанат, то он, видимо, подразумевает футбольную команду из Южной Каролины. Чтобы добиться идеальной точности, нужно знать, чем конкретно интересуется каждый из нас. Нужно знать, что я ничего не понимаю в футболе; нужно знать, кто я такой.

Главной проблемой было получить достаточно данных и выяснить, что соответствует интересам каждого конкретного пользователя. Понять, чего хочет кто-то, – непростая задача, и, чтобы выполнить ее хорошо, нужно знать, как ведет себя человек в течение длительного времени.

Но как? В 2004 году компания выдвинула инновационную стратегию и начала предоставлять другие услуги – те, которые вынуждали пользователей регистрироваться и входить в Сеть. Одной из первых стала Gmail – чрезвычайно популярная электронная почта. Журналисты много писали о рекламе, выводимой в Gmail рядом с письмами, но маловероятно, что она была единственным мотивом запуска сервиса. Заставляя людей входить в Сеть под своим логином, Google заполучил в свое распоряжение колоссальные массивы данных: сотни миллионов писем, которые пользователи отправляют и получают каждый день. Компания теперь может сопоставлять сообщения и поведение каждого пользователя на сайте со ссылками, на которые он кликает в поисковой машине. Пакет онлайновых инструментов для работы с текстом и электронными таблицами Google Apps имел двойное назначение: с одной стороны, он подрывал позиции Microsoft, кровного врага Google, а с другой – стал еще одним крючком, заставляющим пользователей входить в Сеть и посылать всё новые клик-сигналы. Все эти данные позволили Google ускорить создание модели личности каждого пользователя – какими темами он интересуется, по каким ссылкам ходит.

К ноябрю 2008 года Google получил несколько патентов на алгоритмы персонализации – программный код, позволяющий выделить группы, к которым принадлежит индивид, и скорректировать поисковые результаты с учетом предпочтений. Категории Google оказались довольно узкими: для иллюстрации в патенте приводился пример «всех лиц, интересующихся коллекционированием зубов древних акул», и «всех лиц, не интересующихся коллекционированием зубов древних акул»[72]72
  Полный текст патента: http://patft.uspto.gov/netacgi/nph-Parser7Sectl=PT02&Sect2=HIT0FF&u=%2Fnetahtml%2FPT0%2Fsearch-adv.htm&r=l&p=l&f=G&l=50&d=PTXT&Sl=7,451,130.PN.&OS=pn/7,451,130&RS=PN/7,451,13,


[Закрыть]
. При вводе слов «резцы большой белой акулы» люди из первой группы получили бы одни результаты, а из второй – другие.

Сегодня Google отслеживает любой сигнал от нас, который может заполучить. Важность этих данных трудно переоценить: если Google видит, что я вхожу в Сеть сперва из Нью-Йорка, потом из Сан-Франциско, потом снова из Нью-Йорка, то он понимает, что я регулярно летаю с одного побережья на другое, и может соответственно скорректировать выдаваемые результаты. Определив, какой браузер я использую, он может сделать некоторые выводы о моем возрасте и даже, возможно, о моих политических предпочтениях.

Время, проходящее от момента, когда вы вводите запрос, до момента, когда вы выбираете один из результатов, также проливает некоторый свет на вашу личность. И, конечно, сами поисковые запросы дают огромные объемы информации о вас.

Даже если вы не зашли в Сеть под своим логином, Google все равно выдает вам персонализированные результаты поиска. Ему доступна информация о районе – даже о квартале, – откуда вы зашли в Сеть, и это многое говорит о том, кто вы и чем интересуетесь. Слово «Sox» в поисковой строке, введенное на Уолл-стрит, вероятно, представляет собой сокращение от названия закона Сарбейнса – Оксли[73]73
  Закон 2002 года, существенно ужесточающий требования к финансовой отчетности компаний. Прим. пер.


[Закрыть]
, тогда как, если запрос поступил из Стейтен-Айленда[74]74
  «Спальный» район Нью-Йорка, расположенный на одноименном острове. Прим. пер.


[Закрыть]
, речь, видимо, идет о названии бейсбольной команды.

«Люди все время предполагают, будто с поиском мы уже разобрались, – говорил Пейдж в 2009 году. – Это очень далеко от истины. Возможно, мы прошли лишь пять процентов пути. Мы хотим создать идеальную поисковую машину, которая сможет понимать все… некоторые называют это искусственным интеллектом»[75]75
  Lawrence Page. Google Zeitgeist Europe Conference, May 2006.


[Закрыть]
.

В 2006 году на мероприятии Google Press Day гендиректор Google Эрик Шмидт изложил 5-летний план компании. Однажды, по его словам, Google сможет отвечать на вопросы вроде «В какой колледж мне стоит пойти?». «Пройдут годы, прежде чем мы сможем давать хотя бы частичные ответы на эти вопросы. Но в конечном итоге… Google сможет отвечать и на более гипотетические вопросы»[76]76
  BBC News. Hyper-personal Search 'Possible,' June 20, 2007, http://news.bbc.co.uk/2/hi/technology/6221256.stm.


[Закрыть]
.


    Ваша оценка произведения:

Популярные книги за неделю