К сожалению, заграничный рывок компании пришелся как раз на тот момент, когда Шерил Сэндберг пыталась ввести контроль над расходами в преддверии первичного размещения акций Facebook, и она распорядилась заморозить численность персонала в Community Operations, команде, которой поручено удалять оскорбления, угрозы, мошенничество и другую незаконную деятельность, когда она обнаруживает их, как правило, через сообщения пользователей.
"Мы отставали даже тогда, когда все только начиналось, а все остальные регионы становились горячими точками", - говорит Шарлотта Уиллнер, которая возглавляла группу международной поддержки в течение почти трех лет. "Если я хотела нанять кого-то с египетским арабским, мне приходилось отказываться от корейского". Даже на некоторых из крупнейших зарубежных рынков Facebook полностью полагалась на Google Translate, чтобы контролировать пользовательский контент.
Однажды Уиллнер случайно прочитал отчет неправительственной организации, в котором говорилось об использовании Facebook для знакомства и организации встреч с десятками молодых девушек, которых затем похищали и продавали в сексуальное рабство в Индонезии. Цукерберг в то время отрабатывал навыки публичных выступлений и попросил сотрудников задавать ему сложные вопросы. Так, на собрании всех сотрудников Уиллнер спросил его, почему компания выделила деньги на первую в истории телевизионную рекламу - недавно выпущенный девяностосекундный ролик, в котором Facebook уподобляется стульям и другим полезным конструкциям, - но не выделила бюджет на сотрудника, который бы занялся известной ролью своей платформы в похищении, изнасиловании и иногда убийстве индонезийских детей.
Цукерберг выглядел физически больным. Он сказал Уиллнеру, что ему необходимо изучить этот вопрос. В течение недели запрос Уиллнера о численности персонала был профинансирован.
Она не винит лично Цукерберга за такое положение дел. "Не может быть, чтобы Марк думал, что это тот компромисс, на который он хочет пойти, но где-то в этой гигантской цепи кто-то принял такое решение", - сказала она. "Так работают большие организации".
Игра Уиллнер за ресурсы, возможно, и принесла победу, но не стала тревожным сигналом. По словам Уиллнер, к тому времени, когда общее замораживание численности персонала было отменено, компания безнадежно отстала на тех рынках, где, по ее мнению, вероятность злоупотреблений со стороны Facebook была наиболее высока. Уходя из Facebook в 2013 году, она пришла к выводу, что компания никогда не сможет наверстать упущенное.
Летом 2016 года президентские выборы в США были еще на горизонте, когда Кокс созвал очередную рабочую группу из инженеров, социологов, экономистов и специалистов по обработке данных. Его беспокоила поляризация, и главной темой для его новой группы стали "пузыри фильтров".
Это явление было популяризировано несколькими годами ранее в выступлении на TED Элая Паризера, основателя прогрессивной правозащитной группы MoveOn.org. Концепция была проста: по мере того как интернет-компании все больше персонализировали контент, который они рекомендовали пользователям, эти люди получали более узкий взгляд на мир. В то время разворачивалась "арабская весна", и Паризер продемонстрировал идею "пузырей фильтров", рассказав о том, что произошло, когда он попросил друзей набрать в Google "Египет". Результаты одного из друзей были наполнены ссылками на информацию о продолжающемся восстании. Результаты второго друга не содержали информации о восстании, а содержали советы по путешествиям и фотографии пирамид. Выступление Пэризера в 2011 году положило начало дискуссии о том, может ли такая персонализация создать "эхо-камеры", в которых люди будут получать только ту информацию, которая соответствует их мировоззрению.
В 2015 году Facebook опубликовал в престижном журнале Science статью, в которой исследовал, не подвергают ли рекомендации его новостной ленты пользователей более пристрастному питанию, чем они могли бы увидеть самостоятельно. Вердикт, вынесенный на основе анализа новостных лент 10 миллионов пользователей, гласил: "Индивидуальный выбор в большей степени, чем алгоритмы, ограничивает доступ к контенту, меняющему отношение". В пресс-релизе Facebook назвал результаты исследования опровергающими опасения по поводу "пузырей фильтров". Критический обзор в журнале Wired поставил под сомнение методологию исследования, которое стало известно как "исследование Facebook "Это не наша вина"", но работа, тем не менее, собрала тысячи ссылок в будущих исследованиях.
Не меньшее беспокойство вызвал анализ, которым поделилась рабочая группа, относительно особого типа новостных публикаций в Facebook, особенно тех, которые обслуживают оголтелых партизан. Сайты с общими названиями типа 365USANews набирали огромный трафик в Facebook благодаря грамматически и фактически неверным заголовкам.