Выбрать главу

Одного знания, какую именно информацию о нас хранят компании, недостаточно. Они также должны гораздо четче объяснить нам, как они ее используют: какая часть ее персонализирована, до какой степени и на каких основаниях. Посетитель персонализированного сайта новостей должен иметь возможность посмотреть, сколько людей видят разные статьи — возможно, даже увидеть цветную карту, показывающую области общего и особенного. Естественно, это предполагает признание того, что персонализации в принципе существует, — а в ряде случаев у компаний есть серьезные основания не признавать этого. Однако их резоны по большей части носят коммерческий, а не этический характер.

Бюро интерактивной рекламы (Interactive Advertising Bureau — IAB) уже работает над этим. IAB, отраслевая ассоциация онлайновых рекламных агентств, пришла к выводу, что, если сервисы персонализированной рекламы не расскажут пользователям, как именно происходит персонализация, потребители в конце концов разозлятся и потребуют от правительства урегулировать этот процесс. Поэтому ассоциация побуждает своих участников выводить с каждой рекламой кнопки, позволяющие узнать, на какие персональные данные она опирается, как изменить их или вовсе отключить их использование. Поставщики контента, которые используют схожие механизмы персонализации, также должны рассмотреть такую возможность.

Но и в этом случае прозрачность не решает проблемы, если компании не уделяют внимание нескольким параметрам: повышение вероятности случайных открытий, более гуманистичный и тонкий подход к идентичности, освещение общественных проблем и культивация гражданственности.

Пока компьютеры лишены сознательности, сочувствия и разума, в пропасти между нашими реальными личностями и сигналами, на основе которых создается персонализированная среда, многое будет теряться. И, как я писал в главе 4, алгоритмы персонализации могут провоцировать «замкнутый цикл идентичности»: то, что программа знает о вас, определяет вашу медийную среду, а медийная среда влияет на ваши будущие предпочтения. Этой проблемы можно избежать, но тогда алгоритмы должны обеспечивать приоритет принципа «фальсификации»: стремиться опровергнуть свое представление о вас. (Например, если Amazon решит, что вы поклонник криминальных романов, ему стоит активно предлагать вам книги других жанров, чтобы проверить свою первоначальную гипотезу.)

Компании, обладающие большой редакторской властью, также должны приложить больше усилий к развитию публичного пространства и гражданственности. Конечно, кое-что они уже предпринимают: те, кто зашел на Facebook 2 ноября 2010 года[441], увидели баннер с вопросом о том, проголосовали ли они. Проголосовавшие поделились этой новостью со своими друзьями, а поскольку некоторые голосуют под давлением окружения, вполне возможно, что Facebook увеличил число волеизъявившихся. Google много работал над тем, чтобы сделать информацию об участках для голосования более открытой и легкодоступной. Ссылки на этот инструмент выводились в тот день на главной странице Google. Неизвестно, стремились ли компании таким образом повысить свою прибыль (функция «найди свой участок», вероятно, была бы прекрасна для политической рекламы) или нет, однако оба проекта привлекли внимание пользователей к возможности политического участия и проявления гражданской позиции.

Ряд пишущих о новых технологиях программистов и журналистов, с которыми я общался, лишь поднимали брови на вопрос о том, могут ли персонализированные алгоритмы добиться чего-то большего на этом фронте. В конце концов, как заметил один из них, кто будет решать, что важно, а что нет? Со стороны разработчиков Google, по мнению другого, было бы неэтично придавать некоторым видам информации большее значение, чем другим. Хотя вообще-то именно этим они все время и занимаются.

Оговорюсь, что я вовсе не тоскую по прошлому, когда небольшая группа всемогущих редакторов в одностороннем порядке решала, что важно, а что нет. Очень многие по-настоящему важные темы (например, геноцид в Руанде) не прошли этот фильтр, тогда как многие не слишком существенные новости оказались на первых страницах газет. Но я также не думаю, что нам стоит совсем списывать со счетов этот подход. В Yahoo News считают, что возможен и промежуточный вариант: сочетание автоматической персонализации с традиционным редакторским руководством. Некоторые темы видны всем, поскольку они исключительно важны. Другие показываются только отдельным пользователям. И хотя команда редакторов Yahoo тратит массу времени на интерпретацию данных о кликах и изучение того, какие статьи пошли хорошо, а какие нет, они не слепо подчиняются этой методике. «Наши редакторы воспринимают аудиторию как людей со своими интересами, а не просто как поток данных о популярности новостей, — сказал мне один сотрудник Yahoo News. — Как бы мы ни ценили эти данные, их отфильтровывают люди, думающие о том, какого черта все это значит. Почему статья по этой теме, которую мы считаем важной для читателей, не так популярна? Как мы можем расширить ее аудиторию?»[442]

Возможны и чисто программные решения. Например, почему бы не взять за основу всеобщие представления о том, что важно? Представьте на секунду: что если бы рядом с каждой кнопкой «Мне нравится» на Facebook была и кнопка «Важно»? И все материалы можно помечать как одной из этих кнопок, так и обеими. И Facebook мог бы опираться на оба этих сигнала — что людям нравится и что они считают действительно важным, — чтобы насыщать вашу ленту новостей и делать ее более индивидуальной. Ясное дело, в таком случае в нее чаще будут попадать новости из Пакистана, даже учитывая, что у каждого человека весьма субъективное понимание важного. Коллаборативная фильтрация вовсе не обязательно приводит к импульсивному медиапотреблению: все дело в том, какие ценности фильтры стремятся вывести на первый план. Или же Google и Facebook могут установить над результатами поиска и новостной лентой бегунок от позиции «только то, что нравится мне» к позиции «то, что нравится другим людям, а я, вероятно, возненавижу». Это позволит пользователям находить личный баланс между жесткой персонализацией и более разнообразным информационным потоком. У такого подхода два преимущества: он покажет людям, что персонализация имеет место, и вручит контроль над ней самим пользователям.

У архитекторов стены фильтров есть и еще одна задача. Они могут заложить в систему возможность случайных озарений, чтобы их фильтры могли показывать людям темы, лежащие за пределами их обычного опыта. Зачастую это будет входить в противоречие с задачей оптимизации в краткосрочной перспективе: система персонализации, включающая элемент случайности, по определению принесет меньше кликов. Но по мере того как осведомленность о проблеме персонализации будет расти, в долгосрочной перспективе это окажется правильным шагом: потребители, возможно, станут выбирать именно те системы, которые грамотно представляют им новые темы. Возможно, нам нужна противоположность премии Netflix — «Серендипная премия» для систем, которые лучше всего удерживают внимание читателей, демонстрируя им новые темы и идеи.

Если такой сдвиг в сторону корпоративной ответственности кажется вам невероятным, имейте в виду, что подобные прецеденты уже имели место. В середине XIX века выпуск газеты не был солидным делом. Газеты четко придерживались своей партийной линии и были резко идеологизированными. Искажение фактов ради удовлетворения сиюминутных потребностей владельцев или же просто разнообразия было обычным делом. Именно на эту культуру оголтелой коммерциализации и манипуляций обрушился в свое время Уолтер Липпман.

Но когда газеты стали прибыльным бизнесом и важным институтом, они начали меняться. В нескольких крупных городах стало возможно выпускать газеты, гонящиеся не только за скандалами и сенсациями — отчасти потому, что их владельцы не могли себе этого позволить. Суды начали признавать, что журналистика представляет общественный интерес, и выносить соответствующие решения. Потребители стали требовать более скрупулезного и добросовестного редактирования.

вернуться

441

День выборов в Конгресс США. Прим. пер.

вернуться

442

Из интервью автора.